1. Новые складчины: Показать еще

    17.10.2017: Работа с родом (Роман Сафронов)

    17.10.2017: Государственный и банковский конфискат (Ковиненко Вероника)

    17.10.2017: [Бизнес Молодость] Продажи в Инстаграм (Ксения Потапова, Михаил Дашкиев)

    17.10.2017: Курс Базовый 2.0 (Александр Пурнов)

    17.10.2017: Социальные вопросы или Как получать услуги, гарантированные вам законами РФ, бесплатно и качественно

  2. Нужен организатор: Показать еще

    17.10.2017: МЕГА-ПАКЕТ: записи коучинга + записи всех вебинаров (Игорь Петрунин)

    17.10.2017: Спортивные прогнозы на точный счет.

    17.10.2017: Белая схема заработка от 2к в день

    16.10.2017: Курс "Power BI для интернет-маркетинга" (Максим Уваров)

    16.10.2017: Как стать лучше уже сегодня-2 (закрытая)

  3. Сбор взносов Показать еще

    16.10.2017: Элементарная ретушь (Lena Mint)

    16.10.2017: [profileschool] Короткометражный фильм: практика монтажа (Дарья Гладышева)

    16.10.2017: Дедовский метод (Дмитрий Краснов, победитель ЛЧИ 2016)

    16.10.2017: [Транскрибация] Половое воздержание (Михаил Рысак)

    16.10.2017: Курс по арбитражу спортивных ордеров (вилок) (Артём Шаталов)

Запись

Анализ больших наборов данных (Ульман Дж)

Тема в разделе "Электронные книги", создана пользователем Shrek, 28 фев 2016.

Цена:
999 руб
Взнос:
109 руб
Организатор:
Shrek
Участников:
1/10

Основной список:

1. Shrek
Записаться
    Тип: Стандартная складчина
  1. Shrek
    Shrek Организатор складчин

    Анализ больших наборов данных (Ульман Дж)

    Анализ больших наборов данных

    [​IMG]
    Аннотация к книге
    Эта книга написана ведущими специалистами в области технологий баз данных и веба. Благодаря популярности интернет-торговли появилось много чрезвычайно объемных баз данных, для извлечения информации из которых нужно применять методы добычи данных (data mining).

    В книге описываются алгоритмы, которые реально использовались для решения важнейших задач добычи данных и могут быть с успехом применены даже к очень большим наборам данных. Изложение начинается с рассмотрения технологии MapReduce – важного средства распараллеливания алгоритмов. Излагаются алгоритмы хэширования с учетом близости и потоковой обработки данных, которые поступают слишком быстро для тщательного анализа. В последующих главах рассматривается идея показателя PageRank, нахождение частых предметных наборов и кластеризация.

    Во второе издание включен дополнительный материал о социальных сетях, машинном обучении и понижении размерности.


     
    Shrek, 28 фев 2016
Участники складчины Анализ больших наборов данных (Ульман Дж) смогут написать отзыв
Наверх