Tensorflow 2 Фактическое боевое машинное обучение глубокое обучение самоуправление
Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.
- Информация о товаре
- Фотографии
«TensorFlow2 Faction Bight» сначала объясняет базовые знания о глубоком обучении и TensorFlow2, а затем использует примеры обработки и обработки естественного языка, чтобы помочь читателям дополнительно овладеть применением глубокого обучения. После* ведущих читателей в глубоком обучении.«Tensorflow2» подходит для программистов, которые хотят изучать и понимать технологию искусственного интеллекта и глубокого обучения. Они также могут использоваться в качестве учебников и учебных школ для компьютерных профессиональных учителей и учащихся в колледжах и университетах.
Оглавление
*Глава 1 Конфигурация среды 1
1.1 Введение в ноутбук Yun. 1
1.2 Подготовка местной среды ноутбука 1
1.2.1 Построить среду Python 2
1.2.2 Создайте виртуальную среду 2
1.2.3 Установите JupyterLab 3
1.3 Установите TensorFlow 6
1.4 Спецификации кода этой книги 7
Резюме этой главы 8
*2 главы Введение общих инструментов 9
2.1 NumPy 9
2.1.1 Создать массив 10
2.1.2 Индекс массива 11
2.1.3 Массивное срез 11
2.1.4 Расчет математики 12
2.1.5 Данные из представления нейронной сети 13
2.2 Pandas 14
2.2.1 Читать данные 14
2.2.2 Изучение данных 15
2.2.3 Данные фильтра 16
2.2.4 Метод применения 17
2.2.5 Данные реконструкции 17
2.2.6 Сохранить данные 18
2.3 Matplotlib 18
2.3.1 Простая графика 19
2.3.2 Sub -Chart 20
2.3.3 РАСПРАВЛЕНИЕ Рисунок 21
2.3.4 Название, лейбл и легенда 21
2.3.5 3D графика 22
2.3.6 в сочетании с пандами 23
Резюме этой главы 24
Глава 3 Создайте нейронную сеть с нуля 25
3.1 Построить нейрон 26
3.2 Создайте нейронную сеть 28
3.3 Пример портальной связи 28
3.4 Обучение нейронной сети 30
3.4.1 Потеря 31
3.4.2 Пример расчета 31
3.5 Оптимизировать нейронную сеть 32
3.6 Случайный градиент падение 35
3.7 Полная реализация кода 36
Резюме этой главы 41
Глава 4 Основы глубокого обучения 42
4.1 Основная концепция 42
4.1.1 Нейроны 42
4.1.2 Нейронная сеть 44
4.1.3 Функция потери 45
4.1.4 Обучение нейронной сети 45
4.1.5 Основной термин глубокого обучения 46
4.1.6 4 ветви глубокого обучения 48
4.2 Оценка модели глубокого обучения 49
4.2.1 Просто оставьте проверку 49
4.2.2 K Складная проверка 50
4.2.3 Случайная повторная проверка складывания K 50
4.2.4 Меры предосторожности для оценки модели 50
4.3 переосмысление и задолженность 51
4.3.1 Уменьшите размер модели 51 нейронной сети 51
4.3.2 Добавить стандартизированные правила 52
4.3.3 Добавить регуляризацию отсева 52
Резюме этой главы 52
Глава 5 Прогноз выжившего Титаника 53
5.1 Набор данных обработки 53
5.2 Модель определения 57
5.3 Модель компиляции 57
5.4 Тренировочная модель 59
5.5 Модель оценки 60
5.6 Прогноз 63
5.7 Сводка кода 64
Резюме этой главы 66
Глава 6 Tensorflow 2 Введение 67
6.1 Tensorflow 2 Базовые знания и обучение дороги Рисунок 67
6.1.1 Основные знания 67
6.1.2 Карта маршрута обучения 69
6.2 Сохранить и восстановление моделей 70
6.2.1 Сохранить всю модель 70
6.2.2 Сохранить как формат SaveDmodel 71
6.2.3 Сохраните структуру модели только 71
6.2.4 Сохраните только вес 72 модели 72
6.3 Модели Инкрементное обновление 72
6.4.
6.4.1. Контрольная точка модели и завершение заранее 73
6.4.2 Скорость обучения динамической корректировки 73
6.4.3 Индивидуальная функция обратного вызова 74
6.5 визуализация Tensorboard 76
Резюме этой главы 78
Глава 7 Распознавание изображений Введение 79
7.1 Набор данных мод-мнист. 79
7.1.1 Набор данных Введение 79
7.1.2 Обработка набора данных 80
7.2 ВСЕ -КОНСПЕРТИРОВАННАЯ НЕРНАЛЬНАЯ СЕТИ 82
7.2.1 Строительная модель 83
7.2.2 Модель компиляции 83
7.2.3 Обучающая модель 84
7.2.4 Модель оценки 84
7.2.5 Прогноз 84
7.2.6 Сводка кода 87
7.3 Служба нейронная сеть 88
7.3.1 Принципы сверточной нейронной сети 88
7.3.2 Снутренний слой и объединение слоя 89
7.3.3 Внедрение сверточной нейронной сети 91
Резюме этой главы 92
Глава 8 Распознавание изображений продвинуто 93
8.1 Обработка набора данных 93
8.1.1 Набор данных подготовки 93
8.1.2 Обработка набора данных 96
8.1.3 Простая сверточная нейронная сеть 97
8.1.4 Улучшение данных 99
8.2 Migration Learning 102
8.2.1 VGG16 Предварительная модель 103
8.2.2 Извлечение элементов 105
8.2.3 Модель 108
8.2.4 Сохранить модель 110
8.3 TensorFlow Hub 111
Резюме этой главы 113
Глава 9 Миграция стиля изображения 114
9.1 Принципы миграции нервного стиля 114
9.1.1 Потеря контента 116
9.1.2 Потеря в стиле 117
9.2 Внедрение алгоритма миграции нейронного стиля 117
Резюме этой главы 127
*10: начало лечения естественного языка 128
10.1 Запись 128
10.1.1 сегментация английского языка 128
10.1.2 Китайские слова 129
10.2 Языковая модель 131
10.2.1 Driven Code 131
10.2.2 Слово встроено 133
10.2.3 встроено как 134 от текста к словам
10.2.4 Обучение миграции в области лечения естественного языка 137
10.3 Европейская нейронная сеть 139
10.3.1 Принципы циркулирующей нейронной сети 139
10.3.2 Используйте Numpy для реализации слоя RNN вперед, чтобы распространить 140
10.3.3 Проблемы, существующие в круговой нейронной сети 142
10.3.4 сеть длинной памяти 143
Эта глава - саммит 143
*11 Глава голоса помощника значения категория 144
11.1 Набор данных 144
11.1.1 Набор данных загрузки 145
11.1.2 Предварительная обработка данных 146
11.2 Двухночечная сеть краткосрочной памяти длиной длиной 151
11.3
11.4 Сохранить и загружать модель 155
Резюме этой главы 157
*12: Поколение естественного языка 158
12.1 Используйте языковую модель для написания стихов 158
12.1.1 Применение языковой модели 158
12.1.2 Стратегия выборки 159
12.1.3 Используйте языковую модель LSTM для написания стихов 159
12.2 SEQ2SEQ Language Model 167
12.2.1 Кодер 167
12.2.2 Декодер 168
12.3 Используйте модель языка SEQ2SEQ, чтобы реализовать перевод китайского и английского языка 168
12.3.1 Модель функции 168 в tf.keras
12.3.2 Предварительная обработка данных 169
12.3.3 Обучение модели перевода SEQ2SEQ 171
12.3.4 Прогнозирование модели перевода SEQ2SEQ 173
Резюме этой главы 176
*13: Китайская физическая идентификация фактическая боевая бой 177
13.1 Признание газетной организации 177
13.1.1 Набор данных 177
13.1.2 Тренировочная модель 181
13.1.3 Метка последовательности оценки 182
13.2 Используйте Bert для миграции и изучения физической идентификации 183
13.2.1 Загрузите BERT Model 184 в TF.KERAS
13.2.2 Строительство миграционной модели 186
Резюме этой главы 188
*Глава 14 генерирует конфронтационную сеть 189
14.1 генерирует принцип конфронтационной сети 189
14.2 Создание генерирующей сети конфронтации 190
14.2.1 Генератор 190
14.2.2 Дифференциал 191
14.2.3 Завершите построение конфронтационной сети 191
14.3 Обучение поколению конфронтационной сети 192
14.4 Вспомогательная категория генерирует конфронтационную сеть 196
14,5 Оценка Ган 201
14.5.1 Inception Score 202
14.5.2 FréЧет -начальное расстояние 203
Резюме этой главы 205
*15 Укрепление главы обучения 206
15.1 Укреплять обзор обучения 206
15.1.1 Основной контент 206
15.1.2.
15.1.3 Стратегия случайных действий 210
15.2 Q-Learning 212
15.1 q-обучение введение 212
15.2 Реализация Q-обучения 213
15.3 Deep Q-Learning 216
15.3.1 Lunar Lander v2 216
15.3.2 Агент случайного движения 217
15.3.3 DQN Training 219
Эта глава - саммит 225
*16 Модель развертывания 226
16.1 Используйте колбу для развертывания 226
16.1.1 Колба начинается 226
16.1.2 Используйте модель классификации изображений изображений.
16.2 TensorFlow Serving 229
16.2.1 Используйте инструмент командной строки для развертывания 230
16.2.2 Используйте Docker для развертывания 231
16.2.3 Позвоните в остальный интерфейс 232
16.2.4 Управление версией 233
Эта глава - саммит 234
«TensorFlow2 Faction Bight» сначала объясняет базовые знания о глубоком обучении и TensorFlow2, а затем использует примеры обработки и обработки естественного языка, чтобы помочь читателям дополнительно овладеть применением глубокого обучения. После* ведущих читателей в глубоком обучении.«Tensorflow2» подходит для программистов, которые хотят изучать и понимать технологию искусственного интеллекта и глубокого обучения. Они также могут использоваться в качестве учебников и учебных школ для компьютерных профессиональных учителей и учащихся в колледжах и университетах.
Оглавление
*Глава 1 Конфигурация среды 1
1.1 Введение в ноутбук Yun. 1
1.2 Подготовка местной среды ноутбука 1
1.2.1 Построить среду Python 2
1.2.2 Создайте виртуальную среду 2
1.2.3 Установите JupyterLab 3
1.3 Установите TensorFlow 6
1.4 Спецификации кода этой книги 7
Резюме этой главы 8
*2 главы Введение общих инструментов 9
2.1 NumPy 9
2.1.1 Создать массив 10
2.1.2 Индекс массива 11
2.1.3 Массивное срез 11
2.1.4 Расчет математики 12
2.1.5 Данные из представления нейронной сети 13
2.2 Pandas 14
2.2.1 Читать данные 14
2.2.2 Изучение данных 15
2.2.3 Данные фильтра 16
2.2.4 Метод применения 17
2.2.5 Данные реконструкции 17
2.2.6 Сохранить данные 18
2.3 Matplotlib 18
2.3.1 Простая графика 19
2.3.2 Sub -Chart 20
2.3.3 РАСПРАВЛЕНИЕ Рисунок 21
2.3.4 Название, лейбл и легенда 21
2.3.5 3D графика 22
2.3.6 в сочетании с пандами 23
Резюме этой главы 24
Глава 3 Создайте нейронную сеть с нуля 25
3.1 Построить нейрон 26
3.2 Создайте нейронную сеть 28
3.3 Пример портальной связи 28
3.4 Обучение нейронной сети 30
3.4.1 Потеря 31
3.4.2 Пример расчета 31
3.5 Оптимизировать нейронную сеть 32
3.6 Случайный градиент падение 35
3.7 Полная реализация кода 36
Резюме этой главы 41
Глава 4 Основы глубокого обучения 42
4.1 Основная концепция 42
4.1.1 Нейроны 42
4.1.2 Нейронная сеть 44
4.1.3 Функция потери 45
4.1.4 Обучение нейронной сети 45
4.1.5 Основной термин глубокого обучения 46
4.1.6 4 ветви глубокого обучения 48
4.2 Оценка модели глубокого обучения 49
4.2.1 Просто оставьте проверку 49
4.2.2 K Складная проверка 50
4.2.3 Случайная повторная проверка складывания K 50
4.2.4 Меры предосторожности для оценки модели 50
4.3 переосмысление и задолженность 51
4.3.1 Уменьшите размер модели 51 нейронной сети 51
4.3.2 Добавить стандартизированные правила 52
4.3.3 Добавить регуляризацию отсева 52
Резюме этой главы 52
Глава 5 Прогноз выжившего Титаника 53
5.1 Набор данных обработки 53
5.2 Модель определения 57
5.3 Модель компиляции 57
5.4 Тренировочная модель 59
5.5 Модель оценки 60
5.6 Прогноз 63
5.7 Сводка кода 64
Резюме этой главы 66
Глава 6 Tensorflow 2 Введение 67
6.1 Tensorflow 2 Базовые знания и обучение дороги Рисунок 67
6.1.1 Основные знания 67
6.1.2 Карта маршрута обучения 69
6.2 Сохранить и восстановление моделей 70
6.2.1 Сохранить всю модель 70
6.2.2 Сохранить как формат SaveDmodel 71
6.2.3 Сохраните структуру модели только 71
6.2.4 Сохраните только вес 72 модели 72
6.3 Модели Инкрементное обновление 72
6.4.
6.4.1. Контрольная точка модели и завершение заранее 73
6.4.2 Скорость обучения динамической корректировки 73
6.4.3 Индивидуальная функция обратного вызова 74
6.5 визуализация Tensorboard 76
Резюме этой главы 78
Глава 7 Распознавание изображений Введение 79
7.1 Набор данных мод-мнист. 79
7.1.1 Набор данных Введение 79
7.1.2 Обработка набора данных 80
7.2 ВСЕ -КОНСПЕРТИРОВАННАЯ НЕРНАЛЬНАЯ СЕТИ 82
7.2.1 Строительная модель 83
7.2.2 Модель компиляции 83
7.2.3 Обучающая модель 84
7.2.4 Модель оценки 84
7.2.5 Прогноз 84
7.2.6 Сводка кода 87
7.3 Служба нейронная сеть 88
7.3.1 Принципы сверточной нейронной сети 88
7.3.2 Снутренний слой и объединение слоя 89
7.3.3 Внедрение сверточной нейронной сети 91
Резюме этой главы 92
Глава 8 Распознавание изображений продвинуто 93
8.1 Обработка набора данных 93
8.1.1 Набор данных подготовки 93
8.1.2 Обработка набора данных 96
8.1.3 Простая сверточная нейронная сеть 97
8.1.4 Улучшение данных 99
8.2 Migration Learning 102
8.2.1 VGG16 Предварительная модель 103
8.2.2 Извлечение элементов 105
8.2.3 Модель 108
8.2.4 Сохранить модель 110
8.3 TensorFlow Hub 111
Резюме этой главы 113
Глава 9 Миграция стиля изображения 114
9.1 Принципы миграции нервного стиля 114
9.1.1 Потеря контента 116
9.1.2 Потеря в стиле 117
9.2 Внедрение алгоритма миграции нейронного стиля 117
Резюме этой главы 127
*10: начало лечения естественного языка 128
10.1 Запись 128
10.1.1 сегментация английского языка 128
10.1.2 Китайские слова 129
10.2 Языковая модель 131
10.2.1 Driven Code 131
10.2.2 Слово встроено 133
10.2.3 встроено как 134 от текста к словам
10.2.4 Обучение миграции в области лечения естественного языка 137
10.3 Европейская нейронная сеть 139
10.3.1 Принципы циркулирующей нейронной сети 139
10.3.2 Используйте Numpy для реализации слоя RNN вперед, чтобы распространить 140
10.3.3 Проблемы, существующие в круговой нейронной сети 142
10.3.4 сеть длинной памяти 143
Эта глава - саммит 143
*11 Глава голоса помощника значения категория 144
11.1 Набор данных 144
11.1.1 Набор данных загрузки 145
11.1.2 Предварительная обработка данных 146
11.2 Двухночечная сеть краткосрочной памяти длиной длиной 151
11.3
11.4 Сохранить и загружать модель 155
Резюме этой главы 157
*12: Поколение естественного языка 158
12.1 Используйте языковую модель для написания стихов 158
12.1.1 Применение языковой модели 158
12.1.2 Стратегия выборки 159
12.1.3 Используйте языковую модель LSTM для написания стихов 159
12.2 SEQ2SEQ Language Model 167
12.2.1 Кодер 167
12.2.2 Декодер 168
12.3 Используйте модель языка SEQ2SEQ, чтобы реализовать перевод китайского и английского языка 168
12.3.1 Модель функции 168 в tf.keras
12.3.2 Предварительная обработка данных 169
12.3.3 Обучение модели перевода SEQ2SEQ 171
12.3.4 Прогнозирование модели перевода SEQ2SEQ 173
Резюме этой главы 176
*13: Китайская физическая идентификация фактическая боевая бой 177
13.1 Признание газетной организации 177
13.1.1 Набор данных 177
13.1.2 Тренировочная модель 181
13.1.3 Метка последовательности оценки 182
13.2 Используйте Bert для миграции и изучения физической идентификации 183
13.2.1 Загрузите BERT Model 184 в TF.KERAS
13.2.2 Строительство миграционной модели 186
Резюме этой главы 188
*Глава 14 генерирует конфронтационную сеть 189
14.1 генерирует принцип конфронтационной сети 189
14.2 Создание генерирующей сети конфронтации 190
14.2.1 Генератор 190
14.2.2 Дифференциал 191
14.2.3 Завершите построение конфронтационной сети 191
14.3 Обучение поколению конфронтационной сети 192
14.4 Вспомогательная категория генерирует конфронтационную сеть 196
14,5 Оценка Ган 201
14.5.1 Inception Score 202
14.5.2 FréЧет -начальное расстояние 203
Резюме этой главы 205
*15 Укрепление главы обучения 206
15.1 Укреплять обзор обучения 206
15.1.1 Основной контент 206
15.1.2.
15.1.3 Стратегия случайных действий 210
15.2 Q-Learning 212
15.1 q-обучение введение 212
15.2 Реализация Q-обучения 213
15.3 Deep Q-Learning 216
15.3.1 Lunar Lander v2 216
15.3.2 Агент случайного движения 217
15.3.3 DQN Training 219
Эта глава - саммит 225
*16 Модель развертывания 226
16.1 Используйте колбу для развертывания 226
16.1.1 Колба начинается 226
16.1.2 Используйте модель классификации изображений изображений.
16.2 TensorFlow Serving 229
16.2.1 Используйте инструмент командной строки для развертывания 230
16.2.2 Используйте Docker для развертывания 231
16.2.3 Позвоните в остальный интерфейс 232
16.2.4 Управление версией 233
Эта глава - саммит 234
«TensorFlow2 Faction Bight» сначала объясняет базовые знания о глубоком обучении и TensorFlow2, а затем использует примеры обработки и обработки естественного языка, чтобы помочь читателям дополнительно овладеть применением глубокого обучения. После* ведущих читателей в глубоком обучении.«Tensorflow2» подходит для программистов, которые хотят изучать и понимать технологию искусственного интеллекта и глубокого обучения. Они также могут использоваться в качестве учебников и учебных школ для компьютерных профессиональных учителей и учащихся в колледжах и университетах.
Оглавление
*Глава 1 Конфигурация среды 1
1.1 Введение в ноутбук Yun. 1
1.2 Подготовка местной среды ноутбука 1
1.2.1 Построить среду Python 2
1.2.2 Создайте виртуальную среду 2
1.2.3 Установите JupyterLab 3
1.3 Установите TensorFlow 6
1.4 Спецификации кода этой книги 7
Резюме этой главы 8
*2 главы Введение общих инструментов 9
2.1 NumPy 9
2.1.1 Создать массив 10
2.1.2 Индекс массива 11
2.1.3 Массивное срез 11
2.1.4 Расчет математики 12
2.1.5 Данные из представления нейронной сети 13
2.2 Pandas 14
2.2.1 Читать данные 14
2.2.2 Изучение данных 15
2.2.3 Данные фильтра 16
2.2.4 Метод применения 17
2.2.5 Данные реконструкции 17
2.2.6 Сохранить данные 18
2.3 Matplotlib 18
2.3.1 Простая графика 19
2.3.2 Sub -Chart 20
2.3.3 РАСПРАВЛЕНИЕ Рисунок 21
2.3.4 Название, лейбл и легенда 21
2.3.5 3D графика 22
2.3.6 в сочетании с пандами 23
Резюме этой главы 24
Глава 3 Создайте нейронную сеть с нуля 25
3.1 Построить нейрон 26
3.2 Создайте нейронную сеть 28
3.3 Пример портальной связи 28
3.4 Обучение нейронной сети 30
3.4.1 Потеря 31
3.4.2 Пример расчета 31
3.5 Оптимизировать нейронную сеть 32
3.6 Случайный градиент падение 35
3.7 Полная реализация кода 36
Резюме этой главы 41
Глава 4 Основы глубокого обучения 42
4.1 Основная концепция 42
4.1.1 Нейроны 42
4.1.2 Нейронная сеть 44
4.1.3 Функция потери 45
4.1.4 Обучение нейронной сети 45
4.1.5 Основной термин глубокого обучения 46
4.1.6 4 ветви глубокого обучения 48
4.2 Оценка модели глубокого обучения 49
4.2.1 Просто оставьте проверку 49
4.2.2 K Складная проверка 50
4.2.3 Случайная повторная проверка складывания K 50
4.2.4 Меры предосторожности для оценки модели 50
4.3 переосмысление и задолженность 51
4.3.1 Уменьшите размер модели 51 нейронной сети 51
4.3.2 Добавить стандартизированные правила 52
4.3.3 Добавить регуляризацию отсева 52
Резюме этой главы 52
Глава 5 Прогноз выжившего Титаника 53
5.1 Набор данных обработки 53
5.2 Модель определения 57
5.3 Модель компиляции 57
5.4 Тренировочная модель 59
5.5 Модель оценки 60
5.6 Прогноз 63
5.7 Сводка кода 64
Резюме этой главы 66
Глава 6 Tensorflow 2 Введение 67
6.1 Tensorflow 2 Базовые знания и обучение дороги Рисунок 67
6.1.1 Основные знания 67
6.1.2 Карта маршрута обучения 69
6.2 Сохранить и восстановление моделей 70
6.2.1 Сохранить всю модель 70
6.2.2 Сохранить как формат SaveDmodel 71
6.2.3 Сохраните структуру модели только 71
6.2.4 Сохраните только вес 72 модели 72
6.3 Модели Инкрементное обновление 72
6.4.
6.4.1. Контрольная точка модели и завершение заранее 73
6.4.2 Скорость обучения динамической корректировки 73
6.4.3 Индивидуальная функция обратного вызова 74
6.5 визуализация Tensorboard 76
Резюме этой главы 78
Глава 7 Распознавание изображений Введение 79
7.1 Набор данных мод-мнист. 79
7.1.1 Набор данных Введение 79
7.1.2 Обработка набора данных 80
7.2 ВСЕ -КОНСПЕРТИРОВАННАЯ НЕРНАЛЬНАЯ СЕТИ 82
7.2.1 Строительная модель 83
7.2.2 Модель компиляции 83
7.2.3 Обучающая модель 84
7.2.4 Модель оценки 84
7.2.5 Прогноз 84
7.2.6 Сводка кода 87
7.3 Служба нейронная сеть 88
7.3.1 Принципы сверточной нейронной сети 88
7.3.2 Снутренний слой и объединение слоя 89
7.3.3 Внедрение сверточной нейронной сети 91
Резюме этой главы 92
Глава 8 Распознавание изображений продвинуто 93
8.1 Обработка набора данных 93
8.1.1 Набор данных подготовки 93
8.1.2 Обработка набора данных 96
8.1.3 Простая сверточная нейронная сеть 97
8.1.4 Улучшение данных 99
8.2 Migration Learning 102
8.2.1 VGG16 Предварительная модель 103
8.2.2 Извлечение элементов 105
8.2.3 Модель 108
8.2.4 Сохранить модель 110
8.3 TensorFlow Hub 111
Резюме этой главы 113
Глава 9 Миграция стиля изображения 114
9.1 Принципы миграции нервного стиля 114
9.1.1 Потеря контента 116
9.1.2 Потеря в стиле 117
9.2 Внедрение алгоритма миграции нейронного стиля 117
Резюме этой главы 127
*10: начало лечения естественного языка 128
10.1 Запись 128
10.1.1 сегментация английского языка 128
10.1.2 Китайские слова 129
10.2 Языковая модель 131
10.2.1 Driven Code 131
10.2.2 Слово встроено 133
10.2.3 встроено как 134 от текста к словам
10.2.4 Обучение миграции в области лечения естественного языка 137
10.3 Европейская нейронная сеть 139
10.3.1 Принципы циркулирующей нейронной сети 139
10.3.2 Используйте Numpy для реализации слоя RNN вперед, чтобы распространить 140
10.3.3 Проблемы, существующие в круговой нейронной сети 142
10.3.4 сеть длинной памяти 143
Эта глава - саммит 143
*11 Глава голоса помощника значения категория 144
11.1 Набор данных 144
11.1.1 Набор данных загрузки 145
11.1.2 Предварительная обработка данных 146
11.2 Двухночечная сеть краткосрочной памяти длиной длиной 151
11.3
11.4 Сохранить и загружать модель 155
Резюме этой главы 157
*12: Поколение естественного языка 158
12.1 Используйте языковую модель для написания стихов 158
12.1.1 Применение языковой модели 158
12.1.2 Стратегия выборки 159
12.1.3 Используйте языковую модель LSTM для написания стихов 159
12.2 SEQ2SEQ Language Model 167
12.2.1 Кодер 167
12.2.2 Декодер 168
12.3 Используйте модель языка SEQ2SEQ, чтобы реализовать перевод китайского и английского языка 168
12.3.1 Модель функции 168 в tf.keras
12.3.2 Предварительная обработка данных 169
12.3.3 Обучение модели перевода SEQ2SEQ 171
12.3.4 Прогнозирование модели перевода SEQ2SEQ 173
Резюме этой главы 176
*13: Китайская физическая идентификация фактическая боевая бой 177
13.1 Признание газетной организации 177
13.1.1 Набор данных 177
13.1.2 Тренировочная модель 181
13.1.3 Метка последовательности оценки 182
13.2 Используйте Bert для миграции и изучения физической идентификации 183
13.2.1 Загрузите BERT Model 184 в TF.KERAS
13.2.2 Строительство миграционной модели 186
Резюме этой главы 188
*Глава 14 генерирует конфронтационную сеть 189
14.1 генерирует принцип конфронтационной сети 189
14.2 Создание генерирующей сети конфронтации 190
14.2.1 Генератор 190
14.2.2 Дифференциал 191
14.2.3 Завершите построение конфронтационной сети 191
14.3 Обучение поколению конфронтационной сети 192
14.4 Вспомогательная категория генерирует конфронтационную сеть 196
14,5 Оценка Ган 201
14.5.1 Inception Score 202
14.5.2 FréЧет -начальное расстояние 203
Резюме этой главы 205
*15 Укрепление главы обучения 206
15.1 Укреплять обзор обучения 206
15.1.1 Основной контент 206
15.1.2.
15.1.3 Стратегия случайных действий 210
15.2 Q-Learning 212
15.1 q-обучение введение 212
15.2 Реализация Q-обучения 213
15.3 Deep Q-Learning 216
15.3.1 Lunar Lander v2 216
15.3.2 Агент случайного движения 217
15.3.3 DQN Training 219
Эта глава - саммит 225
*16 Модель развертывания 226
16.1 Используйте колбу для развертывания 226
16.1.1 Колба начинается 226
16.1.2 Используйте модель классификации изображений изображений.
16.2 TensorFlow Serving 229
16.2.1 Используйте инструмент командной строки для развертывания 230
16.2.2 Используйте Docker для развертывания 231
16.2.3 Позвоните в остальный интерфейс 232
16.2.4 Управление версией 233
Эта глава - саммит 234