8 (905) 200-03-37 Владивосток
с 09:00 до 19:00
CHN - 1.14 руб. Сайт - 17.98 руб.

Официальная подлинная глубокая обучение глубоко обучение китайская версия книги машинного обучения Нейронная сеть и глубокое обучение библейской библей

Цена: 2 266руб.    (¥126)
Артикул: 561649413617

Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.

Этот товар на Таобао Описание товара
Продавец:雨润田图书专营店
Адрес:Пекин
Рейтинг:
Всего отзывов:0
Положительных:0
Добавить в корзину
Другие товары этого продавца
¥26.5477руб.
¥25450руб.
¥19.5351руб.
¥ 38 26.83483руб.

Planets

Основная информация

Название: глубокое обучение

Цена: 168 юаней

Автор: Ян·Гуделло

Пресса: People's Puss and Telecommunications Publishing House

Номер книги: 9787115461476

Дата публикации: август 2017 г.

Издание: 1

Код: LJY

Открыто: 16

Установка рамы: Тихоокеанский регион

Оглавление

Глава 1 Введение 1
11 читателей этой письменной ориентации 7
12 Историческая тенденция глубокого обучения 8
121 имена и судьба изменений нейронной сети 8
122 Объем данных, которые увеличиваются ежедневно 12
123 Размер модели с увеличением ежедневной 13
124 Точность, сложность и влияние в реальном мире 15
Часть 1 Основы прикладной математики и машинного обучения
Глава 2 Линейная алгебра 19
21 скаляр, вектор, матрица и тензор 19
22 Матрица и вектор умножение 21
23 единица матрицы и обратная матрица 22
24 Линейная корреляция и общее пространство 23
25 моделей 24
26 Специальный тип матрицы и вектора 25
27 Особенность разложения 26
28 странное разложение значений 28
29 Moore-Penrose Peudo непрерывный 28
210 TRACE комплекс 29

211 ранга 30
212 Пример: анализ основных компонентов 30
Глава 3 Теория вероятности и информации 34
31 Зачем использовать вероятность 34
32 Случайная переменная 35
33 распределение вероятностей 36
331 Дискретная переменная и вероятность массы функции 36
332 Непрерывная переменная и функция плотности вероятности 36
34 Edge вероятность 37
35 Условия вероятности 37
36 Закон о цепочке вероятности 38
37 Независимость и состояние независимости 38
38 Ожидания, дисперсия и скоординированная дисперсия 38
39 Общее распределение вероятностей 39
391 Бернулли Распределение 40
392 Multinolli Distribution 40
393 Gauss Distribution 40
394 Индекс распределение и распределение Лапласа 41
395 Dirac Distribution and Experience Distribution 42
396 Распределение смешано 42
310 Полезный характер часто используемых функций 43
311 Байесовские правила 45
Технические детали 312 непрерывных переменных 45
313 Теория информации 47
314 Структурированная модель вероятности 49
Глава 4 Числовой расчет 52
41 up переполнение и переполнение 52
42 Живое условие 53
43 Метод оптимизации на основе градиента 53
431 Градиент: Якобианская и Гессианская Матрица 56
44 Оптимизация ограничений 60
45 Пример: линейный Z xiaoban 61 61
Глава 5 Основы машинного обучения 63
51 Алгоритм обучения 63
511 Задача T 63
512 Измеритель производительности P 66
513 Опыт E 66
514 Пример: линейный возврат 68
52 емкость, переосмысление и задолженность 70
521 Нет бесплатного обеда
522 регуляризация 74
53 Super Porter and Verification Collection 76
531 Перекрестная проверка 76
54 Оценка, отклонение и дисперсия 77
541 балл Оценка 77
542 отклонение 78
543 Дисперсия и стандартное отклонение 80
544 Основание на основе и дисперсию с Minatireble Form Form Error 81
545 согласованность 82
55 Z Simoro Ran оценивается 82
551 Условия ошибки 84
552 Z аналогичная природа 84
56 Байесовская статистика 85
561 Z Dajie (MAP) оценивается 87
57 Алгоритм обучения надзора 88
571 Обучение вероятности. Обучение 88
572 Поддержка векторной машины 88
573 Другие алгоритмы обучения простым надзору 90
58 Неконтролируемый алгоритм обучения 91
581 Анализ основных компонентов 92
582 K-среднего Polyclass 94
59 случайный градиент падение 94
510 Строительство алгоритма машинного обучения 96
511 Задача для глубокого обучения разработке 96
5111 Dimension Disaster 97
5112 Местная неизменность мир и плавная регуляризация 97
5113 потоковое обучение 99
Часть 2 в сети -современная практика
Глава 6 Сеть глубокого формирования 105
61 Пример: изучить Xor 107
62 Gradient -основанное обучение 110
621 Функция стоимости 111
622 выходной блок 113
63 скрытая единица 119
631 RECETOMA LINEAR BINT и ее расширение 120
632 Логистическая сигмоидальная и двухположительная функция разреза 121
633 Другие скрытые единицы 122
64 Архитектура дизайн 123
6,41 млн. Приблизительного характера и глубины 123
642 рассмотрим в другой архитектуре 126
65 Обратная связь и другой алгоритм микрокомпостерирования 126
651 Расчет Рисунок 127
652 Закон о цепи в исчислении 128
653 Рекурсивно Использовать правила цепи для достижения обратной связи 128
654 Полное соединение расчетов обратной связи в MLP 131
655 Символ для символов производной 131
656 Обобщение обратной связи 133
657 Пример: используется для обратного распространения обучения MLP 135
658 Сложность 137
659 Micro -Divide 137 за пределами индустрии глубокого обучения
6510 High -Level Micro -Score 138
66 ИСТОРИЯ XIAO JIAO 139
Глава 7 Событие глубокого обучения 141
71 модель параметров наказание 142
711 L2 регуляризация параметра 142
712 L1 регуляризация 144
72 как ограниченное наказание 146
73 регуляризация и задолженность ограничений 147
74 Улучшение набора данных 148
75 Шумовая надежность 149
751 Внедрение шума 150 в выходную цель 150
76 половина надзора за обучением 150
77 Multi -Task Learning 150
78 Завершение 151 Заранее 151
79 Привязка параметров и разделение параметров 156
791 Служба нейронная сеть 156
710 разреженное представление 157
711 Методы мешков и других интеграции 158
712 Dropout 159
713 Обучение конфронтации 165
714 Расстояние разрезания, положительное распространение и плавный классификатор положительного разреза 167
Глава 8 Оптимизация в глубокой модели 169
81 Каковы различия между обучением и чистой оптимизацией 169
811 Опыт риска Z Минилизация 169
812 Функция потери доверенности и завершение 170 заранее
813 партийный алгоритм и алгоритм небольшого партии 170
82 Задача в оптимизации нейронной сети 173
821 заболеваемость 173
822 локальное минимальное значение 174
823 Плато, седельные точки и другие плоские области 175
824 Клифф и градиент взрыв 177
825 полагаясь на 177 на долгое время
826 Непревзойденный градиент 178
827 Слабость между местной и глобальной структурой 178
828 Оптимизированный предел теории 179
83 Основной алгоритм 180
831 Случайный градиент падает 180
832 импульс 181
833 Nesterov Momentum 183
84 Стратегия инициализации параметра 184
85 Алгоритм адаптивного обучения 187
851 AdaGrad 187
852 RMSProp 188
853 Adam 189
854 Выберите правильный алгоритм оптимизации 190
86 Second -Примерный метод.
861 Ньютон Дхарма 190
862 Grand Gradient 191
863 BFGS193
87 Стратегия оптимизации и металлическое эггирование 194
871 партия стандартизации 194
872 координаты Drop 196
873 Полик в среднем 197
874 Надзор предварительно подготовка 197
875 Дизайн помогает оптимизировать модель 199
876 Ян Туо Фа и обучение курса 199
ГЛАВА 9 СОЕДИНЕННАЯ СЕТИ 201
91 Операция свертки 201
92 Мотивация 203
93 объединение 207
94 Своялка и объединение как бесконечно сильный приоритет 210
95 Вариант базовой функции свертки 211
96 Структурированный выход 218
97 Тип данных 219
98 Эффективный алгоритм свертки 220
99 Особенности случайного или надзора 220
Фонд нейробиологии 910 Сетки 221
ИСТОРИЯ 911 СОЕДИНЕННА
Глава 10 Моделирование последовательности: цикл и рекурсивная сеть 227
101 Расчет расширения Рисунок 228
102 Круглая нейронная сеть 230
1021 Процесс привода инструктора и сеть выходного цикла 232
1022 Рассчитайте градиент циркулирующей нейронной сети 233
1023 как круговая сеть с направлением Рис. 235
1024 моделирование последовательности RNN на основе контекста 237
103 ДВА -АЙСКИЙ РНН 239
104 Кодовая последовательность в архитектуре последовательности 240
105 Deep Cycling Network 242
106 рекурсивная нейронная сеть 243
107 Задача длительной зависимости 244
108 ECHO Status Network 245
109 Утечка и другие стратегии времени 247
1091 Временный размерный подключение 247
1092 Утечка и серия различных временных шкал 247
1093 Удалить соединение 248
1010 длинная и короткая память и другие дверные управления RNN248
10101 LSTM248
10102 Другое управление дверью RNN 250
1011 Оптимизированная длинная зависимость 251
10111 Градиент усечения 251
10112 Руководство по регуляризации потока информации 252
1012 Память памяти 253
Глава 11 Практическая методология 256
111 производительность 256
112 Мендерная модель по умолчанию 258
113 Решите, собирать ли больше данных 259
114 Выберите Super Porter 259
1141 Ручная корректировка Over -re -Reincarning 259
1142 Алгоритм автоматической оптимизации супер параметров 262
1143 Поиск сетки 262
1144 Случайный поиск 263
1145 Оптимизация суперспекта на основе модели 264
115 Стратегия отладки 264
116 Пример: распознавание с несколькими дигитами 267
Глава 12 Приложение 269
121 Большое глубокое обучение 269
1211 Быстрая реализация процессора 269
1212 Реализация GPU 269
1213 крупная распределенная реализация 271
1214 Сжатие модели 271
1215 Динамическая структура 272
1216 Выделенная аппаратная реализация Deep Network 273
122 Computer Vision 274
1221 Предварительная обработка 275
1222 Улучшение набора данных 277
123 Голосовое распознавание 278
124 Обработка естественного языка 279
1241 n-gram 280
1242 Модель неврологического языка 281
1243 Высокая мощность 282
1244 в сочетании с N-GRA и Neure Language Model 286
1245 Нейро -машинный перевод 287
1246 ИСТОРИЯ Outlook 289
125 других приложений 290
1251 Рекомендуемая система 290
1252 Представление знаний, рассуждение и ответ 292
Часть 3 в исследовании обучения
Глава 13 Модель линейного фактора 297
131 Вероятность PCA и факторный анализ 297
132 Независимый анализ ингредиентов 298
133 Медленный анализ признаков 300
134 Sparse Congoding 301
135 Форма PCA Объяснение 304
Глава 14 Self -coder 306
141 Полный код кода 306
142 Обычный Self -Encoder 307
1421 Sparse Self -Encoder 307
1422 Шум -экодер 309
1423 Руководство по наказанию как обычное 309
143 Указывает способность, размер слоя и глубина 310
144 Случайный энкодер и декодер 310
145 Шум -энкодер подробный объяснение 311
1451 Оценка оценки 312
1452 История перспективы 314
146 Используйте самооборудование, чтобы научиться потоковой передаче 314
147 Сокращение от кодера 317
148 Прогнозируемое разложение 319
149 Приложение кода кода 319
Глава 15 означает обучение 321
151 жадный -бей -слой без присмотра
1511 Когда и почему нет никакого подготовки к подготовку эффективности и эффективна 323
152 миграционное обучение и полевая адаптация 326
153 Половина надзора по объяснению причинных отношений 329
154 Распределенное представление 332
155 Спасибо индексу глубины 336
156 CANDES, которые обнаруживают потенциальные причины 337
Глава 16 Структурная модель вероятности в глубоком обучении 339
161 Задача непрофессионального моделирования 339
162 Используйте рисунок Описание Структура модели 342
1621 Есть модель направления 342
1622 Wuxin Model 344
1623 Сопоставление функции 345
1624 Модель на основе энергии 346
1625 Разделение и D-разделение 347
1626 конвертирует 350
1627 Фактор Рисунок 352
163 образцы образцов из графического модели 353
164 Преимущества структурного моделирования 353
165 Зависимость обучения 354
166 Вывод и приближение вывода 354
167 Структурная модель вероятности Метод глубокого обучения 355
1671 Пример: Limited Bolzmann 356
Глава 17 Метод Монте -Карло 359
171 Отбор проб и метод Монте -Карло 359
1711, почему это должно быть отобрано 359
1712 Образец Монте -Карло 359
172 Важный отбор 360
173 Malcov Chain Monte Carlo Метод 362
174 Гиббс выборка 365
175 смешанных проблем между различными пиковыми значениями 365
1751 Различные пиковые значения смешаны с помощью зажигания 367
Глубина 1752 может помочь смешать 368
Глава 18 Функция синдрома 369
181 пара аналого -глупого градиента 369
182 Случайный Z, как грант и контрастные рассеянные 370
183 псевдо -грант 375
184 Сопоставление счетов и сопоставление соотношений 376
185 Shoom Score Matching 378
186 Оценка сравнения шума 378
187 Оценка Функция брендинга 380
1871 Важный отбор для отбора 382
Отбор проб моста 1872 384
Глава 19 Приблизительный вывод 385
191 См. Вывод как вопрос оптимизации 385
192 ожидание Z Dahua 386
193 Z Dajiu выводы и разреженное кодирование 387
194 Изменение вывода и дифференциального обучения 389
1941 Дискретная потенциальная переменная 390
Метод изменения 1942 года 394
1943 Непрерывная потенциальная переменная 396
1944 г. взаимодействие между обучением и выводом 397
195 xuecheng приблизительный вывод 397
1951 Алгоритм сна 398
Другие формы 1952 года Xuecheng 398
Глава 20 Модель глубокого поколения 399
201 Bolzmann 399
202 Limited Bolzmann 400
2021 Распределение условий 401
2022 Обучение Bolitzmann 402
203 Глубина сети 402
204 Deep Bolzmann 404
2041 Интересная природа 406
2042 DBM Формарный вывод 406
2043 DBM Learning 408
2044 Предварительно подготовка 408
2045 Совместное обучение Deep Bolzmann 410
Bolitzmann 413 по данным реального значения 413
2051 Gaussian-Bernoulli RBM 413
2052 Условное совместное Wuxing Model 414
206 Своилка Болцманн 417
207 Bolzmann 418, используемый для структурированной или последовательности
208 Другой Болцманн 419
209 обратная связь через случайную операцию 419
2091 Обратная связь через дискретную случайную операцию 420
2010 год существует направление генерации сети 422
2010 Sigmoid Vietie Setwork 422
20102 Кабельный микроластор сеть 423
20103 Изменение Self -coder 425
20104 Generation Fighting Network 427
20105 Generating Matchting Setwork 429
20106 Generation Network 430
20107 Самостоятельный возврат к сети 430
20108 линейный самоотражение 430
20109 Нервное возвращение в сеть 431
201010 NADE 432
Self -Encoder Self -Encoder 433
Малкова цепь 434, связанная с любым шумом -беззабоченным самооборотом, связанная с малькевкой 434
201112 Облигации и выборки состояния 434
20113 процесс обучения 435
2012 Генерируйте случайную сеть 435
20121 дифференциал GSN 436
2013 Другое план поколения 436
Оценка 2014 года. Создание модели 437
Заключение 2015 438
Ссылки 439
Индекс 486

Краткое содержание

«Глубокое обучение» написано тремя известными мировыми экспертами Яном Гудфеллоу, Йошуа Бенгио и Аароном Курвиллом.Содержание всей книги включает в себя 3 части: первая часть вводит концепцию базовых математических инструментов и машинного обучения. -Познакомые направления и идеи, и они признаются в центре внимания глубокого обучения будущим исследованиям.
«Глубокое обучение» подходит для всех видов читателей, включая студентов колледжа или аспирантов с соответствующими специальностями, а также инженеров -программистов, у которых нет машинного обучения или статистического происхождения, но хотят быстро дополнить знания о глубоком обучении, чтобы Применить в реальных продуктах или платформах.

...........

Связанный шаблон [END] Узел, не работайте вручную.ПересечениеПересечение