8 (905) 200-03-37 Владивосток
с 09:00 до 19:00
CHN - 1.14 руб. Сайт - 17.98 руб.

Искусственный интеллект: Теория и метод машинного обучения Гибридная модель Gauss и модель темы EM -алгоритма непараметрическая байесовская модель кластерного анализа Граф модель поддержки вектор машины

Цена: 1 601руб.    (¥89)
Артикул: 630352270712

Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.

Этот товар на Таобао Описание товара
Продавец:松竹图书专营店
Адрес:Цзянсу
Рейтинг:
Всего отзывов:0
Положительных:0
Добавить в корзину
Другие товары этого продавца
¥691 241руб.
¥891 601руб.
¥ 168 105.91 905руб.
¥2684 819руб.


Введение

 Эта книга всесторонне и систематически объясняет теорию и метод машинного обучения в основном включает в себя гауссовую гибридную модель и EM -алгоритм, модель темы, нерапаметр -байесовскую модель, кластерный анализ, график, векторная машина, матричная декомпозиция, глубокое обучение, глубокое обучение, глубокое обучение, глубокое обучение. , глубокое обучение и укрепление обучения.Эта книга направлена ​​на то, чтобы позволить читателям понять разработку машинного обучения, понять и освоить его основные принципы, методы и основные приложения.Эта книга богата содержанием, фокусируется на выводе и доказательстве теории машинного обучения, а также анализирует и сравнивает метод с помощью экземпляров.В то же время в этой книге подчеркивается системность, честность и своевременность машинного обучения, и имеет сильную читаемость.


Оглавление

Глава 1
1.1 Определение машинного обучения
1.2 История развития машинного обучения
1.3 Классификация машинного обучения
1.3.1 Классификация обратной связи на основе обучения ** Объединение
1.3.2 Формальная классификация, основанная на полученных знаниях
1.3.3 Классификация в соответствии с областью применения
1.3.4 Комплексная классификация
1.4 Измерение производительности
1.4.1 Набор данных
1.4.2 Ошибка
1.4.3 Переполнение и задолженность
1.4.4 Метод оценки
1.4.5 Индекс измерения производительности
1.5 Сводка этой главы
Глава 2 Алгоритм EM и гауссовая модель
2.1EM Алгоритм
2.1.1 Оценка великой вероятности
2.1.2 EM Algorithm Введение
2.1.3em Алгоритм Алгоритм
2.1.4EM Алгоритм шаги
2.1.5EM Алгоритм конвергенция
2.2 Гауссовая модель
2.2.1 Модель Шан Газа
2.2.2 Гибридная модель Гаусса
2.2.3 Гмм. Оценка параметров
2.3 Сводка этой главы
Глава 3 Модель темы
3.1 Традиционная модель темы
3.1.1VSM Модель
3.1.2lsi Модель
3.2 Модель темы вероятности
3.2.1LDA Theme Model
3.2.2HDP-LDA Модель темы
3.3 Модель темы с природой закона ZIPF
3.3.1PY Процесс
3.3.2PHTM Тематическая модель
3,4 чтл. Алгоритм рассуждения
3.4.1 Описание алгоритма
3.4.2 Эксперимент
3.5 Сводка этой главы
Глава 4 Образец образец и нерапаметр Байесовский метод
4.1 ОДНОЙ случайная выборка
4.1.1 Выборка выборки через функцию обратного кумулятивного распределения
4.1.2 Отбор проб отказа
4.1.3 Отбор выборки
4.2 Последовательность случайная выборка и цепь Малкова Монте -Карло
4.2.1MH Алгоритм
4.2.2 Отбор проб Gibbes
4.2.3 Отбор проб среза (выборка среза)
4.3 непараметтра байесовская модель и процесс Delikrey
4.3.1 нерапаметр Байесовская модель
4.3.2 процесс Delikrey
4.4 Структура процесса Di Likrey
4.4.1 Polia Tanzi процесс
4.4.2 Процесс складной палки
4.4.3 Китайский ресторанный процесс
4.5 Сводка этой главы
Глава 5 Анализ
5.1 Вес сходства данных
5.2 Классический алгоритм кластера
5.2.1 Алгоритм подразделения
5.2.2 Алгоритм кластера уровня
5.2.3 Алгоритм кластера на основе плотности
5.2.4 Алгоритм кластера на основе сетки
5.2.5 Алгоритм кластера на основе модели
Средний алгоритм 5,3 тыс., Алгоритм Центральной точки K и его алгоритм его улучшения
5.3.1k среднего алгоритма
5.3.2K Алгоритм центральной точки
5.3.3. Алгоритм среднего алгоритма ядерного k
5.3.4EM Cluster
5.3.5 Clarans на основе случайного поиска крупных приложений
5.4 Спектр кластер
5.4.1 аналогичная диаграмма
5.4.2 Матрица Лапласа
5.4.3 Алгоритм кластера спектра
5.5 Кластер с ограниченным кластером
5.5.1 Объекты, содержащие препятствия
5.5.2 Анализ кластеризации пользовательских ограничений
5.5.3 Анализ категории кластеризации поли -надзора
5.6 онлайн кластер
5.7 Кластеризация и уменьшение размера
5.8 Резюме этой главы
Глава 6
6.1 Теория статистического обучения
6.1.1 Опыт риска*Миноризация
6.1.2VC измерение
6.1.3 Структурный риск*Маленький?
6.2 Основные принципы поддержки векторных машин
6.3 Классификатор машины поддержки вектора
6.3.1 Классификатор линейной поддержки векторного машины
6.3.2 НЕ -ЛИЛИНАЛЬНО разделенного классификатора вектора поддержки
6.3.3 Классификация
6.3.4 Категория много -категории
6.4 Основная функция
6.4.1 Определение ядерной функции
6.4.2 Структура ядерной функции
6.4.3 Несколько часто используемых ядерных функций
6.5 Возврат вектора поддержки
6.6 Пример применения машины поддержки векторной машины
6.6.1 Классификация изображений
6.6.2 Другие приложения
6.7 Сводка этой главы
Глава 7 Вероятность неограниченная модель
7.1 Вероятность без модели.
7.2 Модель возврата Sanji Logic Sanji
7.2.1 Логическая тонкая функция и распределение
7.2.2. Параметры модели оценки великой вероятности
7.3*Большая модель энтропии
7.3.1*Принципы большой энтропии
7.3.2*Обзор модели большой энтропии
7.4 Повышение состояния
7.4.1 Модель
7.4.2 Ключевые проблемы условий с перкаром
7.5 Сводка этой главы
Глава 8 Вероятность имеет модель диаграммы
8.1 Обзор вероятности к графической модели
8.2 Байесовская сеть
8.2.1 Байесовская теорема
8.2.2 Существует разделение направления
8.2.3 Структура байесовской сети
8.2.4 Byaesian Network Learning
8.3 Скрытая модель Маркова
8.3.1 Описание модели скрытого Маркова
8.3.2 Три основных вопроса модели Hidden Marcov
8.4 Резюме этой главы
Глава 9 Матрица и тензорное разложение
9.1 эквивалентный и низкий матричный разложение матрицы
9.2 Негативная матричная разложение
9.3 Система матричной разложения и рекомендаций
9.4 Разложение объема наконечника
9.5 негативное разложение напряжения
9.6 Сводка этой главы
Глава 10 Машина много -слойного восприятия
10.1 Машина восприятия
10.2 Обзор машины для многослойного восприятия
10.2.1 Алгоритм реакции ошибки
10.2.2 Преимущества и ограничения машины многослойного восприятия
10.2.3BP Улучшение алгоритма
10.3 Резюме этой главы
ГЛАВА 11 СВОИЙ НЕРНАРНАЯ СЕТИ
11.1 Основы сверточной нейронной сети
11.2 Структурные компоненты сверточных нейронных сетей
11.2.1 Свожденный слой
11.2.2 Пендализационный слой
11.2.3 Активационный слой
11.2.4 Полный слой соединения
11.3 Типичная сверточная нейронная сеть
11.3.1AlexNet
11.3.2VGG
11.3.3GoogLeNet
11.3.4ResNet
11.3.5DenseNet
11.4 Навыки обучения для сверточных нейронных сетей
11.4.1 партия нормализации
11.4.2 Случайная потеря
11.5 Сводка этой главы
Глава 12 Круга Нейронная сеть
12.1 Структура круговой нейронной сети
12.2 Обучение циркулирующих нейронных сетей
12.2.1 Функция потери
12.2.2 Алгоритм обратного общения времени
12.2.3 исчезновение градиентного и градиентного взрыва
12.3 Двухчастотная нейронная сеть и нейронная сеть глубокого цикла
12.4 Сеть длинной памяти
12.4.1LSTM Блок памяти
12.4.2LSTM Метод памяти
12,5 блок управления дверью
12.6 Резюме этой главы
Глава 13
13.1 Укрепляйте модель обучения и основные элементы
13.1.1 Укрепление модели обучения
13.1.2 Укрепляйте основные элементы обучения
13.2 Процесс принятия решений Малкова
13.2.1 Малковой процесс
13.2.2 Обзор процесса принятия решений Малкова
13.3 Obly наблюдаемый процесс принятия решений Маркова
13.4 Известное исследование подкрепления модели
13.4.1 Линейное планирование
13.4.2 Стратегия Итерация
13.4.3 Итерация
13.4.4
13.5 Модель неизвестного подкрепления исследования
13.5.1 Метод Монте -Карло
13.5.2 Закон о разнице в времени
13.5.3q Learning и Sarsa Learning
13.5.4-актер-критическое обучение
13.6.
13.6.1 ТД
13.6.2 Метод итерации недавнего значения
13.6.3 Недавняя итерация стратегии
13.7 в укреплении укрепления обучения
13.7.1 Глубокое Q-обучение
13.7.2 глубокое двойное обучение
13.7.3 Асинхронная глубина Q Изучение
13.7.4 Другое обучение глубокому подкреплению
13.8 Резюме этой главы
Рекомендации
об авторе

Ли Кан, профессор, докторант, заместитель директора.Эксперт по обзору национальных ключевых исследований и плана разработок, Национальный эксперт по обзору проектов 863, Пекинский фонд естественных наук/эксперт по обзору фонда Key, эксперт по обзору докторантов, эксперт по обзору фонда, международный журнал NLPR и другие редакторы журнала.Работа или академические исследования в Австралии, Канаде, Гонконге и других странах и регионах.В настоящее время он в основном занимается исследованием машинного обучения, распознавания модели и анализа больших данных.Он председательствовал по ряду специальных проблем национальных ключевых исследований и разработок, National 973 Projects, 863 крупных и национальных фонда естественных наук Китая, и получил множество наград научных исследований, таких как награда по национальной обороне и технологиям и научно и технологические достижения.Почти 100 поисковых документов SCI/EI были опубликованы на академических конференциях, таких как домашние и иностранные журналы, такие как TKDE, IJCAI, ACM MM и другие академические конференции, и более 20 патентов на изобретение.Опубликованы *** и Пекинские бутик-учебники, получили награды за преподавание, такие как награда за искусственный интеллект и премия за преподавание больших данных, премия T-More Neverse Teacher Award, Diwen Leverse Award, Премия Первая премия за преподавание.
Рекомендуемая рекомендация

Эта книга может не только использоваться в качестве учебника для студентов и аспирантов в колледжах и университетах, научных исследовательских институтах, а также исследователей и инженеров, занимающихся машинным обучением.