8 (905) 200-03-37 Владивосток
с 09:00 до 19:00
CHN - 1.14 руб. Сайт - 17.98 руб.

Подлинная 90 % Новая книга |

Цена: 796руб.    (¥44.25)
Артикул: 778545658824

Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.

Этот товар на Таобао Описание товара
Продавец:tb0641530948
Рейтинг:
Всего отзывов:0
Положительных:0
Добавить в корзину
Другие товары этого продавца
¥ 36.75 33.08595руб.
¥227.334 088руб.
¥27486руб.
¥148.52 671руб.

Scikit-Learn Machine Learning № 2 издание

 автор А [Mei] Цзявен·Гэвин Хаккилинги

 Измененная цена А 59 Юань

 ISBNЧисло А 9787115503404

 Дата публикации А 2019-02-01

 Версия А 2

 Количество страниц А 199

 Рамка А Оплата в мягкой обложке

 Начинать А 16

В последние годы язык Python стал популярным языком программирования, и он также хорошо показал в области машинного обучения.Scikit-Learn-это банк алгоритма машинного обучения, написанный на языке питона.

Эта книга представляет серию моделей машинного обучения и методы использования Scikit-Learn через главу 14.Из базовой теории машинного обучения эта книга охватывает простую линейную регрессию, алгоритм K-near-neigbor, извлечение функций, многолинейную регрессию, логическую регрессию, простота байесовская, нелинейная классификация, возвращение дерева решений, случайный лес, восприятие машины , Поддержка векторной машины, искусственная нейронная сеть, A-средний алгоритм, анализ основных компонентов и другие важные темы.

Эта книга подходит для инженеров в области машинного обучения, и она также подходит для ученых данных, чтобы читать ученых из Scikit-Learn.Читая эту книгу, читатели эффективно улучшат свою способность создавать и оценивать построение и оценку моделей машинного обучения и могут эффективно решить проблему машинного обучения.

Гэвин Хаклинг - ученый и писатель.Он изучал различные проблемы машинного обучения, в том числе автоматическое распознавание голоса, документацию, распознавание цели и семантическое разделение.Гэвин Хэкелинг окончил Университет Северной Каролины и Нью -Йоркский университет и в настоящее время живет в Бруклине со своей женой и кошкой.

  • Глава 1 Основа 1
  • 1.1 Определить машинное обучение 1
  • 1.2 Учиться на опыте 2
  • 1.3 Задача машинного обучения 3
  • 1.4 Данные обучения, данные тестирования и проверку 4
  • 1.5 отклонение и дисперсия 6
  • 1.6 Введение в Scikit-Learn 8
  • 1.7 Установите Scikit-Learn 8
  • 1.7.1 Используйте PIP для установки 9
  • 1.7.2 Установите 9 в системе Windows 9
  • 1.7.3 Установите 10 под Ubuntu 16.04 Система 10
  • 1.7.4 Установите 10 под системой Mac OS 10
  • 1.7.5 Установите Anaconda 10
  • 1.7.6 Проверка и установка 10
  • 1.8 Установите панды, подушку, NLTK и Matplotlib 11
  • 1.9 Резюме 11
  • Глава 2 Простой линейный возврат 12
  • 2.1 Простая линейная регрессия 12
  • 2.1.1 Подгонка модели с функцией стоимости 15
  • 2.1.2 Решите OLS 17 простой линейной регрессии
  • 2.2 Модель оценки 19
  • 2.3 Резюме 21
  • Глава 3 Классификация и возвращение в 22 с помощью алгоритма K-near-neagr
  • 3.1 K-near соседон Модель 22
  • 3.2 Инертное обучение и нерапаметр модель 23
  • 3.3 Классификация модели 23
  • 3,4 кв. Модель возврата 31
  • 3.5 Сводка 36
  • Глава 4 показана 37
  • 4.1 Извлечение функций из переменных категории 37
  • 4.2 Стандартизация функции 38
  • 4.3 Извлечение функций из текста 39
  • 4.3.1 Модель сумки Word 39
  • 4.3.2 Отключить фильтрацию слов 42
  • 4.3.3 Извлечение сигнала и восстановление в форме слов 43
  • 4.3.4 Lexical Bag 45 TF-IDF.
  • 4.3.5 Эффективные особенности космоса и хэша навыков 48
  • 4.3.6 Слово вектор 49
  • 4.4 Извлечение функций с изображения 52
  • 4.4.1 Извлечение функций из Pixel Sinter 53
  • 4.4.2 Используйте элементы активации сверточной нейронной сети в качестве функций 54
  • 4.5 Резюме 56
  • Глава 5 от простой линейной до множественной линейной регрессии 58
  • 5.1 Различная линейная регрессия 58
  • 5.2 Полиновые возврат 62
  • 5.3 регуляризация 66
  • 5.4 Приложение Линейная регрессия 67
  • 5.4.1 Исследуйте данные 67
  • 5.4.2 Модель подгонки и оценки 69
  • 5.5 Метод падения градиента 72
  • 5.6 Резюме 76
  • Глава 6 от линейной регрессии до логики возврата 77
  • 6.1 Используйте логическую регрессию для бинарной классификации 77
  • 6. 2 спам -фильтрация 79
  • 6.2.1 Индикаторы эффективности бинарной классификации 81
  • 6.2.2 Уровень точности 82
  • 6.2.3 Точность и частота отзыва 83
  • 6.2.4 Рассчитайте значение F1 84
  • 6.2.5 ROC AUC 84
  • 6. 3 Используйте Grid Search для тонкой модели 86
  • 6.4 Много -категория категория 88
  • 6.5 Классификация и преобразование задач и преобразование проблем 93
  • 6.6 Резюме 97
  • Глава 7 Парк Байес 98
  • 7.1 Байесовская теорема 98
  • 7.2 Сгенерировать модели и дискриминационную модель 100
  • 7.3 Простая байессия 100
  • 7.4 Используйте Simple Bayesia 102 в Scikit-Learn
  • 7.5 Резюме 106
  • Глава 8 Нелинейная классификация и дерево решений возвращается в 107
  • 8.1 Дерево решений 107
  • 8.2 Дерево решений обучения 108
  • 8.2.1 Выбор Вопрос 109
  • 8.2.2 Импульность 116
  • 8.3 Используйте библиотеку Scikit-Learn для создания деревьев решений 117
  • 8.4 Резюме 120
  • Глава 9 Интегрированный метод: от дерева принятия решений до случайного леса 121
  • 9.1 Метод упаковки 121
  • 9.2 Закон о продвижении 124
  • 9.3 Метод укладки 126
  • 9.4 Простой 128
  • Глава 10 Машина восприятия 129
  • 10.1 Машина восприятия 129
  • 10.1.1 Функция активации 130
  • 10.1.2 Алгоритм машинного обучения восприятия 131
  • 10.1.3 Используйте машину для восприятия для бинарной классификации 132
  • 10.1.4 Используйте машину восприятия для классификации документа 138
  • 10.2 Ограничения машины для восприятия 139
  • 10.3 Xiaobian 140
  • Глава 11 от воспринимаемой машины для поддержки векторной машины 141
  • 11.1 Ядерные и ядерные навыки 141
  • 11.2 Максимальная интервальная классификация и поддержка векторов 145
  • 11.3 Классификационные символы с Scikit-Learn 147
  • 11.3.1. Рукописная классификация 147
  • 11.3.2 Классификация символов натурального изображения 150
  • 11.4 Резюме 152
  • Глава 12 от восприятия машины до искусственной нейронной сети 153
  • 12.1 не -линейная граница решения 154
  • 12.2 Fedback of Artificial Neural Network и обратной связи искусственная нейронная сеть 155
  • 12.3 Multi -Layer Presception Machine 155
  • 12.4 Обучение мульти -слойной машины восприятия 157 12.4.1. Обратная связь 158 12.4.2 Обучение многослойного восприятия приближения к XOR Функция 162 12.4.3. Обучить многослойное восприятие классификации. Алгоритм среднего уровня 166 13,1 Кластер 166 13,2 К. Средний алгоритм 168 13.2.1 Локальное лучшее значение 172 13.2. Анализ основного компонента 185 14.1.1 Дисперсия, сотрудничество, сотрудничество основали различия и скоординированная дифференциальная матрица 188 14.1.2. Признание 196 14.4.4
  • ......