8 (905) 200-03-37 Владивосток
с 09:00 до 19:00
CHN - 1.14 руб. Сайт - 17.98 руб.

[Работа лауреата премии Тьюринга]

Цена: 2 230руб.    (¥124)
Артикул: 617514545667

Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.

Этот товар на Таобао Описание товара
Продавец:鑫达图书专营店
Рейтинг:
Всего отзывов:0
Положительных:0
Добавить в корзину
Другие товары этого продавца
¥35.8644руб.
¥33594руб.
¥ 69.8 46.8842руб.
¥ 79 55.91 006руб.

 

Параметры продукта


Оглавление

Глава 1 Введение                                        1 

11 читателей, которые ориентированы                                  7 

12 Историческая тенденция глубокого обучения                                8 

121 имена и изменения судьбы в нейронных сетях                         8 

122 Объем данных, которые увеличиваются ежедневно                               12 

123 Размер модели с увеличением дня                             13 

124 Точность, сложность и влияние на реальный мир                  15 


Часть 1 Основы прикладной математики и машинного обучения 

Глава 2 Линейная алгебра                                     19 

21 скаляр, вектор, матрица и тензор                             19 

22 умножение матрицы и вектора                                 21 

23 единичная матрица и обратная матрица                                22 

24 линейная корреляция и общее пространство пространства                              23 

25 моделей                                       24 

26 специальных типов матрицы и вектора                              25 

27 Особенность разложения                                     26 

28 странное разложение значений                                    28 

29 Мур-Пенроуза псевдо                                28 

210 трасс                                      29 

211 ранга                                      30 

212 Пример: анализ основной композиции                               30 

Глава 3 Теория вероятности и информации                                  34 

31 Зачем использовать вероятность                                34 

32 Случайная переменная                                     35 

33 Распределение вероятностей                                     36 

331 Дискретная переменная и функция качества вероятности                          36 

332 Непрерывная переменная и функция плотности вероятности                          36 

34 Край вероятность                                     37 

35 Вероятность состояния                                     37 

36 Правило о вероятности состояния цепочки                               38 

37 Независимость и условия независимость                               38 

38 ожиданий, дисперсии и скоординированных различий                               38 

39 Общее распределение вероятностей                                   39 

391 Бернулли распределение                                40 

392 Multinolli Distribution                               40 

393 Гаусс распределение                                   40 

394 Распределение индексов и распределение Лапласа                           41 

395 Dirac Distribution and Experience Distribution                             42 

396 Распределение смешано                                  42 

310 полезный характер широко используемых функций                              43 

311 Байесовские правила                                   45 

Технические детали 312 непрерывных переменных                             45 

313 Теория информации                                      47 

314 Структурированная модель вероятности                                 49 

Глава 4 Численное расчет                                     52 

41 верхний переполнение и переполнение                                    52 

42 патологические условия                                     53 

43 метод оптимизации на основе градиента                               53 

431 Градиент: Якобианская и Гессианская Матрица                      56 

44 Оптимизация ограничений                                     60 

45 Пример: Linear Zui Little Multipocy                               61 

Глава 5 Основы машинного обучения                                  63 

51 Алгоритм обучения                                     63 

511 Задача T.                                   63 

512 Измерение производительности P                                  66 

513 Опыт e                                    66 

514 Пример: линейная регрессия                                68 

52 емкость, переосмысление и задолженность                              70 

521 Нет бесплатного обеда исправлена ​​теорема                               73 

522 регуляризация                                    74 

53 Super -Porter and Verification Collection                                 76 

531 Крест -ретификация                                   76 

54 Оценка, отклонение и дисперсия                                77 

541 Оценка                                    77 

542 отклонение                                     78 

543 дисперсия и стандартное отклонение                                 80 

544 На основе смещения и квадратных различий с ошибками миниатюризации Zui.                       81 

545 последовательность                                    82 

55 Zui, похоже, рассчитано                                   82 

551 Условия в количестве и ошибках акций                           84 

552 Подобная природа Зуи                                84 

56 Байесовская статистика                                    85 

561 Zui Protponement (MAP) Оценка                             87 

57 Алгоритм обучения надзора                                   88 

571 Наблюдение за вероятностью и обучение                                 88 

572 Служба поддержки векторной машины                                  88 

573 Другие простые алгоритмы обучения надзору                           90 

58 Неконтролируемый алгоритм обучения                                 91 

581 Анализ основных компонентов                                  92 

582 K-среднего кластера                                  94 

59 Случайный градиент уменьшается                                   94 

510 Построить алгоритм машинного обучения                                96 

511 Задача для развития глубокого обучения                            96 

5111 аварийное бедствие                                  97 

5112 Местный неразливающий мир и плавная регуляризация                           97 

5113 потоковое обучение                                  99 


Часть 2 в сети -современная практика 

Глава 6 Сеть глубоких формирования                                  105 

61 Пример: изучить Xor                                107 

62 Обучение на основе градиента                                 110 

621 Функция стоимости                                  111 

622 выходной блок                                  113 

63 Скрытая единица                                    119 

631 Устранение линейного блока и его расширения                            120 

632 Логистическая сигмоидальная и биспронс -функция положительного разреза                        121 

633 Другие скрытые единицы                                122 

64 Архитектура дизайн                                    123 

6,41 млн. Приблизительного характера и глубины                            123 

642 рассмотрение другой архитектуры                              126 

65 обратная связь и другие алгоритмы микро -дивизиона                          126 

651 Расчет диаграммы                                   127 

652 Закон о цепи в исчислении                            128 

653 Рекурсивно Использовать цепные правила для достижения обратной связи                      128 

654 Расчет обратной связи в полном соединении MLP                        131 

655 Символ к руководству по количеству символов                              131 

656 ОБЩАЯ Обратная связь                              133 

657 Пример: используется для MLP Training обратную связь                       135 

658 Сложность                                   137 

659 Micro -Score 659                            137 

6510 High -Level Micro -Score                                  138 

66 ИСТОРИЯ                                    139 

Глава 7 Регуляризация глубокого обучения                              141 

71 Наказание модели параметра                                  142 

711 регуляризация параметров L2                                142 

712 L1 регуляризация                                  144 

72 как модель ограничения наказание                              146 

73 Вопрос о регуляризации и задолженности с ограниченностью                              147 

74 Набор данных                                   148 

75 Шумовая надежность                                   149 

751 Введите шум в выходную цель                            150 

76 Полу -супервизимое обучение                                   150 

77 Многочисленное обучение задач                                   150 

78 Замахи заранее                                    151 

79 Связывание параметров и совместное использование параметров                              156 

791 Служба нейронная сеть                                156 

710 разреженное представление                                   157 

711 Методы мешков и других интеграции                           158 

712 Dropout                                    159 

713 Обучение конфронтации                                   165 

714 Расстояние разрезания, положительное рассечение и классификаторы плавного и положительного разреза                     167 

Глава 8 Оптимизация в глубокой модели                               169 

81 Каковы различия между обучением и чистой оптимизацией                            169 

811 испытать риск zui small                               169 

812 Заранее функция потери прокси и прекращение                           170 

813 партийный алгоритм и алгоритм небольшого партии                            170 

82 проблемы в оптимизации нейронной сети                             173 

821 заболеваемость                                    173 

822 локальная стоимость                                 174 

823 плато, седловые точки и другие плоские зоны                          175 

824 Клифф и градиент взрыв                               177 

825 длительные зависимости                                  177 

826 Непревзойденный градиент                                 178 

827 Слабая соответствие между локальными и глобальными структурами                          178 

828 Оптимизированное теоретическое ограничение                               179 

83 Основной алгоритм                                    180 

831 Случайное уменьшение градиента                                180 

832 импульс                                    181 

833 Nesterov Immentum                               183 

84 стратегия инициализации параметра                                 184 

85 Алгоритм адаптивного обучения                                187 

851 AdaGrad                                  187 

852 RMSProp                                  188 

853 Adam                                    189 

854 Выберите правильный алгоритм оптимизации                            190 

86 второй метод приближения заказа                                  190 

861 Ньютоновский метод                                   190 

862 капральный градиент                                  191 

863 BFGS                                   193 

87 Стратегия оптимизации и мета -алгоритм                                194 

871 партия стандартизации                                  194 

872 координаты падения                                  196 

873 Полик Средний                                 197 

874 Наблюдение за контролем                                 197 

875 Дизайн помогает оптимизировать модели                            199 

876 Ян Туо Закон и учебу курса                              199 

ГЛАВА 9 СВОБОДАЦИЯ                                    201 

91 СООБЩЕНИЯ Операция                                    201 

92 Мотивация                                       203 

93 бассейна                                       207 

94 Своилка и объединение в качестве приоритета бесконечной силы                       210 

95 вариант базовой функции свертки                              211 

96 Структурированный выход                                   218 

97 Тип данных                                    219 

98 Эффективный алгоритм свертки                                 220 

99 Характеристики случайного или неверного надзора                              220 

Фонд нейробиологии из 910 сети сверток                            221 

История 911 Convolution Network и глубокое обучение                          226 

Глава 10 Моделирование последовательности: цикл и рекурсивная сеть                          227 

101 Разверните диаграмму расчета                                   228 

102 Круглувая нейронная сеть                                 230 

1021 Процесс вождения наставника и сеть выходного цикла                        232 

1022 Рассчитайте градиент циркулирующей нейронной сети                          233 

1023 в качестве круговой сети с моделью диаграммы                         235 

1024 моделирование последовательности RNN на основе контекста                        237 

103 ДВУГ                                   239 

104 Кодовая последовательность кода в архитектуру последовательности                       240 

105 Глубокая велосипедная сеть                                 242 

106 рекурсивная нейронная сеть                                 243 

107 Проблемы с этой длительной зависимостью                                244 

108 Статусная сеть Echo                                 245 

109 Утечка и другие стратегии времени -масштабные стратегии                       247 

1091 Jump Connection измерения времени                            247 

1092 Утечка и серия различных стандартов времени                       247 

1093 Удалить соединение                                  248 

1010 длинная и короткая память и другие дверные управления RNN                         248 

10101 LSTM                                  248 

10102 Другое управление дверью RNN                              250 

1011 Оптимизированные долгосрочные зависимости                                251 

10111 градиент усечения                                 251 

10112 Руководство по регуляризации потока информации                            252 

1012 отображать память                                   253 

Глава 11 Практическая методология                                  256 

111 Измерение производительности                                   256 

112 Мендерная модель по умолчанию                                258 

113 Решите, собирать ли больше данных                             259 

114 Выберите Ulin                                   259 

1141 вручную отрегулируйте супер -восприятие номера                              259 

1142 Алгоритм оптимизации автоматической супер параметров                            262 

1143 Поиск сетки                                  262 

1144 Случайный поиск                                  263 

1145 Оптимизация гиперпараметров на основе модели на основе модели                           264 

115 Стратегия отладки                                   264 

116 Пример: идентификация мульти -дигита                              267 

Глава 12 Приложение                                     269 

121 Большое глубокое обучение                                269 

1211 Быстрая реализация процессора                              269 

1212 Реализация графического процессора                                 269 

1213 крупная распределенная реализация                            271 

1214 Сжатие модели                                  271 

1215 Динамическая структура                                  272 

1216 Выделенная аппаратная реализация глубоких сетей                          273 

122 компьютерное зрение                                   274 

1221 Предварительная обработка                                   275 

1222 Улучшение набора данных                                 277 

123 Голосовое распознавание                                   278 

124 Лечение естественного языка                                 279 

1241 n-gram                                  280 

1242 Модель неврологического языка                                281 

1243 Высокая мощность                                  282 

1244 в сочетании с моделями N-грамма и нейронного языка                        286 

1245 Нейро -машинный перевод                                287 

1246 История перспективы                                  289 

125 других приложений                                   290 

1251 Рекомендационная система                                  290 

1252 Представление знаний, рассуждение и ответ                            292 


Часть 3 в исследовании обучения 

Глава 13 Модель линейного фактора                                 297 

131 Вероятность PCA и факторный анализ                             297 

132 Независимый анализ ингредиентов                                 298 

133 Медленный анализ признаков                                   300 

134 Sparse Encoding                                   301 

135 Объяснение потока PCA                                304 

Глава 14 Self -Coder                                    306 

141 завершенный самообороды                                306 

142 регулярный самододер                                 307 

1421 Sparse Self -Encoder                                307 

1422 Шумо -экодер                                309 

1423 Руководство по наказанию является обычным                             309 

143 указывает на способность, размер слоя и глубину                           310 

144 Случайный энкодер и декодер                             310 

145 Шумо -кодер подробный объяснение                               311 

1451 Оценка оценки                                  312 

1452 Исторический взгляд                                  314 

146 Используйте самооборотник, чтобы научиться течь                             314 

147 сокращающийся                                 317 

148 Прогнозируемое разреженное разложение                                 319 

149 Применение кодера кода                                319 

Глава 15 выражает обучение                                    321 

151 жадный -блюдо без приспособленного предварительного обучения                             322 

1511, когда и почему нет надзора предварительного подготовки и эффективного                     323 

152 миграционное обучение и полевая адаптация                             326 

153 Половина надзора объяснения причин и последствий                             329 

154 Распределенное представление                                   332 

155 Благодаря увеличению индекса глубины                             336 

156 предоставляет подсказки для обнаружения потенциальных причин                            337 

Глава 16 Структурная модель вероятности в глубоком обучении                         339 

161 Задача неструктурированного моделирования                             339 

162 Используйте рисунок Описание Структура модели                             342 

1621 Есть модель                                  342 

1622 Wuxin Model                                  344 

1623 Соответствующая функция                                  345 

1624 Модель на основе энергии                              346 

1625 Разделение и D-разделение                               347 

1626 Преобразовано в модели направленной и модели вселенной                        350 

1627 Факторная диаграмма                                   352 

163 выборка из модели рисунка                                353 

164 Структурные преимущества моделирования                               353 

165 Зависимость обучения                                 354 

166 Вывод и приблизительный вывод                                354 

167 в методе обучения -модели структурированной вероятности структурированной вероятности                       355 

1671 Пример: Ограниченная машина Bolzmann                            356 

Глава 17 Метод Монте -Карло                                 359 

171 Способ отбора проб и Монте -Карло                             359 

1711, зачем это нужно отбирать                              359 

1712 Основная основание образца Монте -Карло                            359 

172 Важный отбор                                   360 

173 Метод Malcov Chain Monte Carlo                            362 

174 Отбор проб Гиббса                                  365 

175 смешанных проблем между различными пиковыми значениями                          365 

1751 Различные пиковые значения смешаны с помощью зажигания                        367 

1752 Глубина может помочь смешать                           368 

Глава 18 Столкнув функцию деления                                 369 

181 пара чисел, таких как градиент                                 369 

182 Случайный Zui, по -видимому, предоставляется и контрастирует                            370 

183 псевдо -грант                                     375 

184 сопоставление счетов и сопоставление соотношений                             376 

185 соответствие баллов шума                                 378 

186 Оценка сравнения шума                                 378 

187 Оценка функции брендинга                                 380 

1871 Важный отбор проб                                382 

Отбор проб моста 1872 года                                  384 

Глава 19 Последний вывод                                    385 

191 Считает вывод как проблему оптимизации                             385 

192 ожидает Zui                                   386 

193 Zui большой срок вывода и редкого кодирования                            387 

194 Изменение вывода и изменение обучения                             389 

1941 Дискретная потенциальная переменная                                390 

Метод изменения 1942 года                                   394 

1943 г. непрерывная подводная переменная                                396 

1944 г. взаимодействие между обучением и выводом                         397 

195 xuecheng приблизительный вывод                                 397 

1951 Алгоритм сна                                  398 

1952 другие формы вывод                            398 

Глава 20 Модель глубокого поколения                                 399 

201 Bolzmann                                   399 

202 Ограниченный Больцманн                                400 

2021 Распределение условий                                  401 

2022 Обучение Limited Bolzmann                            402 

203 Сеть веров глубины                                 402 

204 Глубокий Болцманн                                404 

2041 Интересная природа                                 406 

2042 DBM Университетский полевой вывод                              406 

2043 DBM Learning Learning                              408 

2044 Предварительный слой по слою                                 408 

2045 Объединение                          410 

205 Bolzmann в данных о реальных значениях                            413 

2051 Gaussian-Bernoulli RBM                          413 

2052 Модели незаметных                           414 

206 Своилка Болцманн                                417 

207 Bolzmann, который используется для структурированной или последовательности                      418 

208 Другой Болцманн                                419 

209 обратная связь через случайную работу                            419 

2091 обратная передача через дискретную случайную работу                        420 

2010 есть естественная сеть                                422 

2010 Сигмоидальная сеть верований                             422 

20102 кабельная микроггенераторная сеть                              423 

20103 Изменение самостоятельного кодера                               425 

20104 Generation Fighting Network                              427 

20105 Generating Satching Setworking сеть                              429 

20106 сеть генерации свертки                               430 

20107 Самостоятельный возврат к сети                                430 

20108 линейная сеть самостоятельного самооценка                              430 

20109 Нервное возвращение в сеть                              431 

201010 NADE                                  432 

Self -Encoder Self -Encoder                                433 

Сеть Малкев, связанная с любым отшелушивающим самооборотом в 2011 году.                    434 

20112 зажима и отбор проб и состояния                              434 

Процесс обучения 20113 года.                               435 

2012 Генерировать случайную сеть                                435 

20121 дифференциал GSN                                436 

2013 Другой план поколения                                436 

2014 г. модель оценки                                437 

Заключение 2015 года                                      438 

Рекомендации                                         439 

индекс          

 


Введение

«Глубокое обучение» написана Яном Гудфеллоу, Йошуа Бенгио и Аароном Курвилем, тремя экспертами в Жиминге, является классическим учебником в области глубокого обучения.Содержание книги включает в себя 3 части: первая часть вводит концепцию основных математических инструментов и машинного обучения. Они представляют собой знание глубокого обучения; часть 2 систематически объясняет зрелые методы глубокого обучения сегодня; Взглянув направления и идеи, и они признаны в центре внимания будущих исследований.


«Глубокое обучение» подходит для всех видов читателей, включая студентов колледжа или аспирантов с соответствующими специальностями, а также инженеров -программистов, у которых нет машинного обучения или статистического происхождения, но хотят быстро дополнить знания о глубоком обучении, чтобы Применить в реальных продуктах или платформах.

 

555191140768