[Работа лауреата премии Тьюринга]
Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.
- Информация о товаре
- Фотографии
Глава 1 Введение 1
11 читателей, которые ориентированы 7
12 Историческая тенденция глубокого обучения 8
121 имена и изменения судьбы в нейронных сетях 8
122 Объем данных, которые увеличиваются ежедневно 12
123 Размер модели с увеличением дня 13
124 Точность, сложность и влияние на реальный мир 15
Часть 1 Основы прикладной математики и машинного обучения
Глава 2 Линейная алгебра 19
21 скаляр, вектор, матрица и тензор 19
22 умножение матрицы и вектора 21
23 единичная матрица и обратная матрица 22
24 линейная корреляция и общее пространство пространства 23
25 моделей 24
26 специальных типов матрицы и вектора 25
27 Особенность разложения 26
28 странное разложение значений 28
29 Мур-Пенроуза псевдо 28
210 трасс 29
211 ранга 30
212 Пример: анализ основной композиции 30
Глава 3 Теория вероятности и информации 34
31 Зачем использовать вероятность 34
32 Случайная переменная 35
33 Распределение вероятностей 36
331 Дискретная переменная и функция качества вероятности 36
332 Непрерывная переменная и функция плотности вероятности 36
34 Край вероятность 37
35 Вероятность состояния 37
36 Правило о вероятности состояния цепочки 38
37 Независимость и условия независимость 38
38 ожиданий, дисперсии и скоординированных различий 38
39 Общее распределение вероятностей 39
391 Бернулли распределение 40
392 Multinolli Distribution 40
393 Гаусс распределение 40
394 Распределение индексов и распределение Лапласа 41
395 Dirac Distribution and Experience Distribution 42
396 Распределение смешано 42
310 полезный характер широко используемых функций 43
311 Байесовские правила 45
Технические детали 312 непрерывных переменных 45
313 Теория информации 47
314 Структурированная модель вероятности 49
Глава 4 Численное расчет 52
41 верхний переполнение и переполнение 52
42 патологические условия 53
43 метод оптимизации на основе градиента 53
431 Градиент: Якобианская и Гессианская Матрица 56
44 Оптимизация ограничений 60
45 Пример: Linear Zui Little Multipocy 61
Глава 5 Основы машинного обучения 63
51 Алгоритм обучения 63
511 Задача T. 63
512 Измерение производительности P 66
513 Опыт e 66
514 Пример: линейная регрессия 68
52 емкость, переосмысление и задолженность 70
521 Нет бесплатного обеда исправлена теорема 73
522 регуляризация 74
53 Super -Porter and Verification Collection 76
531 Крест -ретификация 76
54 Оценка, отклонение и дисперсия 77
541 Оценка 77
542 отклонение 78
543 дисперсия и стандартное отклонение 80
544 На основе смещения и квадратных различий с ошибками миниатюризации Zui. 81
545 последовательность 82
55 Zui, похоже, рассчитано 82
551 Условия в количестве и ошибках акций 84
552 Подобная природа Зуи 84
56 Байесовская статистика 85
561 Zui Protponement (MAP) Оценка 87
57 Алгоритм обучения надзора 88
571 Наблюдение за вероятностью и обучение 88
572 Служба поддержки векторной машины 88
573 Другие простые алгоритмы обучения надзору 90
58 Неконтролируемый алгоритм обучения 91
581 Анализ основных компонентов 92
582 K-среднего кластера 94
59 Случайный градиент уменьшается 94
510 Построить алгоритм машинного обучения 96
511 Задача для развития глубокого обучения 96
5111 аварийное бедствие 97
5112 Местный неразливающий мир и плавная регуляризация 97
5113 потоковое обучение 99
Часть 2 в сети -современная практика
Глава 6 Сеть глубоких формирования 105
61 Пример: изучить Xor 107
62 Обучение на основе градиента 110
621 Функция стоимости 111
622 выходной блок 113
63 Скрытая единица 119
631 Устранение линейного блока и его расширения 120
632 Логистическая сигмоидальная и биспронс -функция положительного разреза 121
633 Другие скрытые единицы 122
64 Архитектура дизайн 123
6,41 млн. Приблизительного характера и глубины 123
642 рассмотрение другой архитектуры 126
65 обратная связь и другие алгоритмы микро -дивизиона 126
651 Расчет диаграммы 127
652 Закон о цепи в исчислении 128
653 Рекурсивно Использовать цепные правила для достижения обратной связи 128
654 Расчет обратной связи в полном соединении MLP 131
655 Символ к руководству по количеству символов 131
656 ОБЩАЯ Обратная связь 133
657 Пример: используется для MLP Training обратную связь 135
658 Сложность 137
659 Micro -Score 659 137
6510 High -Level Micro -Score 138
66 ИСТОРИЯ 139
Глава 7 Регуляризация глубокого обучения 141
71 Наказание модели параметра 142
711 регуляризация параметров L2 142
712 L1 регуляризация 144
72 как модель ограничения наказание 146
73 Вопрос о регуляризации и задолженности с ограниченностью 147
74 Набор данных 148
75 Шумовая надежность 149
751 Введите шум в выходную цель 150
76 Полу -супервизимое обучение 150
77 Многочисленное обучение задач 150
78 Замахи заранее 151
79 Связывание параметров и совместное использование параметров 156
791 Служба нейронная сеть 156
710 разреженное представление 157
711 Методы мешков и других интеграции 158
712 Dropout 159
713 Обучение конфронтации 165
714 Расстояние разрезания, положительное рассечение и классификаторы плавного и положительного разреза 167
Глава 8 Оптимизация в глубокой модели 169
81 Каковы различия между обучением и чистой оптимизацией 169
811 испытать риск zui small 169
812 Заранее функция потери прокси и прекращение 170
813 партийный алгоритм и алгоритм небольшого партии 170
82 проблемы в оптимизации нейронной сети 173
821 заболеваемость 173
822 локальная стоимость 174
823 плато, седловые точки и другие плоские зоны 175
824 Клифф и градиент взрыв 177
825 длительные зависимости 177
826 Непревзойденный градиент 178
827 Слабая соответствие между локальными и глобальными структурами 178
828 Оптимизированное теоретическое ограничение 179
83 Основной алгоритм 180
831 Случайное уменьшение градиента 180
832 импульс 181
833 Nesterov Immentum 183
84 стратегия инициализации параметра 184
85 Алгоритм адаптивного обучения 187
851 AdaGrad 187
852 RMSProp 188
853 Adam 189
854 Выберите правильный алгоритм оптимизации 190
86 второй метод приближения заказа 190
861 Ньютоновский метод 190
862 капральный градиент 191
863 BFGS 193
87 Стратегия оптимизации и мета -алгоритм 194
871 партия стандартизации 194
872 координаты падения 196
873 Полик Средний 197
874 Наблюдение за контролем 197
875 Дизайн помогает оптимизировать модели 199
876 Ян Туо Закон и учебу курса 199
ГЛАВА 9 СВОБОДАЦИЯ 201
91 СООБЩЕНИЯ Операция 201
92 Мотивация 203
93 бассейна 207
94 Своилка и объединение в качестве приоритета бесконечной силы 210
95 вариант базовой функции свертки 211
96 Структурированный выход 218
97 Тип данных 219
98 Эффективный алгоритм свертки 220
99 Характеристики случайного или неверного надзора 220
Фонд нейробиологии из 910 сети сверток 221
История 911 Convolution Network и глубокое обучение 226
Глава 10 Моделирование последовательности: цикл и рекурсивная сеть 227
101 Разверните диаграмму расчета 228
102 Круглувая нейронная сеть 230
1021 Процесс вождения наставника и сеть выходного цикла 232
1022 Рассчитайте градиент циркулирующей нейронной сети 233
1023 в качестве круговой сети с моделью диаграммы 235
1024 моделирование последовательности RNN на основе контекста 237
103 ДВУГ 239
104 Кодовая последовательность кода в архитектуру последовательности 240
105 Глубокая велосипедная сеть 242
106 рекурсивная нейронная сеть 243
107 Проблемы с этой длительной зависимостью 244
108 Статусная сеть Echo 245
109 Утечка и другие стратегии времени -масштабные стратегии 247
1091 Jump Connection измерения времени 247
1092 Утечка и серия различных стандартов времени 247
1093 Удалить соединение 248
1010 длинная и короткая память и другие дверные управления RNN 248
10101 LSTM 248
10102 Другое управление дверью RNN 250
1011 Оптимизированные долгосрочные зависимости 251
10111 градиент усечения 251
10112 Руководство по регуляризации потока информации 252
1012 отображать память 253
Глава 11 Практическая методология 256
111 Измерение производительности 256
112 Мендерная модель по умолчанию 258
113 Решите, собирать ли больше данных 259
114 Выберите Ulin 259
1141 вручную отрегулируйте супер -восприятие номера 259
1142 Алгоритм оптимизации автоматической супер параметров 262
1143 Поиск сетки 262
1144 Случайный поиск 263
1145 Оптимизация гиперпараметров на основе модели на основе модели 264
115 Стратегия отладки 264
116 Пример: идентификация мульти -дигита 267
Глава 12 Приложение 269
121 Большое глубокое обучение 269
1211 Быстрая реализация процессора 269
1212 Реализация графического процессора 269
1213 крупная распределенная реализация 271
1214 Сжатие модели 271
1215 Динамическая структура 272
1216 Выделенная аппаратная реализация глубоких сетей 273
122 компьютерное зрение 274
1221 Предварительная обработка 275
1222 Улучшение набора данных 277
123 Голосовое распознавание 278
124 Лечение естественного языка 279
1241 n-gram 280
1242 Модель неврологического языка 281
1243 Высокая мощность 282
1244 в сочетании с моделями N-грамма и нейронного языка 286
1245 Нейро -машинный перевод 287
1246 История перспективы 289
125 других приложений 290
1251 Рекомендационная система 290
1252 Представление знаний, рассуждение и ответ 292
Часть 3 в исследовании обучения
Глава 13 Модель линейного фактора 297
131 Вероятность PCA и факторный анализ 297
132 Независимый анализ ингредиентов 298
133 Медленный анализ признаков 300
134 Sparse Encoding 301
135 Объяснение потока PCA 304
Глава 14 Self -Coder 306
141 завершенный самообороды 306
142 регулярный самододер 307
1421 Sparse Self -Encoder 307
1422 Шумо -экодер 309
1423 Руководство по наказанию является обычным 309
143 указывает на способность, размер слоя и глубину 310
144 Случайный энкодер и декодер 310
145 Шумо -кодер подробный объяснение 311
1451 Оценка оценки 312
1452 Исторический взгляд 314
146 Используйте самооборотник, чтобы научиться течь 314
147 сокращающийся 317
148 Прогнозируемое разреженное разложение 319
149 Применение кодера кода 319
Глава 15 выражает обучение 321
151 жадный -блюдо без приспособленного предварительного обучения 322
1511, когда и почему нет надзора предварительного подготовки и эффективного 323
152 миграционное обучение и полевая адаптация 326
153 Половина надзора объяснения причин и последствий 329
154 Распределенное представление 332
155 Благодаря увеличению индекса глубины 336
156 предоставляет подсказки для обнаружения потенциальных причин 337
Глава 16 Структурная модель вероятности в глубоком обучении 339
161 Задача неструктурированного моделирования 339
162 Используйте рисунок Описание Структура модели 342
1621 Есть модель 342
1622 Wuxin Model 344
1623 Соответствующая функция 345
1624 Модель на основе энергии 346
1625 Разделение и D-разделение 347
1626 Преобразовано в модели направленной и модели вселенной 350
1627 Факторная диаграмма 352
163 выборка из модели рисунка 353
164 Структурные преимущества моделирования 353
165 Зависимость обучения 354
166 Вывод и приблизительный вывод 354
167 в методе обучения -модели структурированной вероятности структурированной вероятности 355
1671 Пример: Ограниченная машина Bolzmann 356
Глава 17 Метод Монте -Карло 359
171 Способ отбора проб и Монте -Карло 359
1711, зачем это нужно отбирать 359
1712 Основная основание образца Монте -Карло 359
172 Важный отбор 360
173 Метод Malcov Chain Monte Carlo 362
174 Отбор проб Гиббса 365
175 смешанных проблем между различными пиковыми значениями 365
1751 Различные пиковые значения смешаны с помощью зажигания 367
1752 Глубина может помочь смешать 368
Глава 18 Столкнув функцию деления 369
181 пара чисел, таких как градиент 369
182 Случайный Zui, по -видимому, предоставляется и контрастирует 370
183 псевдо -грант 375
184 сопоставление счетов и сопоставление соотношений 376
185 соответствие баллов шума 378
186 Оценка сравнения шума 378
187 Оценка функции брендинга 380
1871 Важный отбор проб 382
Отбор проб моста 1872 года 384
Глава 19 Последний вывод 385
191 Считает вывод как проблему оптимизации 385
192 ожидает Zui 386
193 Zui большой срок вывода и редкого кодирования 387
194 Изменение вывода и изменение обучения 389
1941 Дискретная потенциальная переменная 390
Метод изменения 1942 года 394
1943 г. непрерывная подводная переменная 396
1944 г. взаимодействие между обучением и выводом 397
195 xuecheng приблизительный вывод 397
1951 Алгоритм сна 398
1952 другие формы вывод 398
Глава 20 Модель глубокого поколения 399
201 Bolzmann 399
202 Ограниченный Больцманн 400
2021 Распределение условий 401
2022 Обучение Limited Bolzmann 402
203 Сеть веров глубины 402
204 Глубокий Болцманн 404
2041 Интересная природа 406
2042 DBM Университетский полевой вывод 406
2043 DBM Learning Learning 408
2044 Предварительный слой по слою 408
2045 Объединение 410
205 Bolzmann в данных о реальных значениях 413
2051 Gaussian-Bernoulli RBM 413
2052 Модели незаметных 414
206 Своилка Болцманн 417
207 Bolzmann, который используется для структурированной или последовательности 418
208 Другой Болцманн 419
209 обратная связь через случайную работу 419
2091 обратная передача через дискретную случайную работу 420
2010 есть естественная сеть 422
2010 Сигмоидальная сеть верований 422
20102 кабельная микроггенераторная сеть 423
20103 Изменение самостоятельного кодера 425
20104 Generation Fighting Network 427
20105 Generating Satching Setworking сеть 429
20106 сеть генерации свертки 430
20107 Самостоятельный возврат к сети 430
20108 линейная сеть самостоятельного самооценка 430
20109 Нервное возвращение в сеть 431
201010 NADE 432
Self -Encoder Self -Encoder 433
Сеть Малкев, связанная с любым отшелушивающим самооборотом в 2011 году. 434
20112 зажима и отбор проб и состояния 434
Процесс обучения 20113 года. 435
2012 Генерировать случайную сеть 435
20121 дифференциал GSN 436
2013 Другой план поколения 436
2014 г. модель оценки 437
Заключение 2015 года 438
Рекомендации 439
индекс
«Глубокое обучение» написана Яном Гудфеллоу, Йошуа Бенгио и Аароном Курвилем, тремя экспертами в Жиминге, является классическим учебником в области глубокого обучения.Содержание книги включает в себя 3 части: первая часть вводит концепцию основных математических инструментов и машинного обучения. Они представляют собой знание глубокого обучения; часть 2 систематически объясняет зрелые методы глубокого обучения сегодня; Взглянув направления и идеи, и они признаны в центре внимания будущих исследований.
«Глубокое обучение» подходит для всех видов читателей, включая студентов колледжа или аспирантов с соответствующими специальностями, а также инженеров -программистов, у которых нет машинного обучения или статистического происхождения, но хотят быстро дополнить знания о глубоком обучении, чтобы Применить в реальных продуктах или платформах.
555191140768