Многоуровневые прямые волосы Синьхуа книжного магазина.
Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.
- Информация о товаре
- Фотографии
- Автор:Ван Сяохуа
- Письмо,:Ван Сяохуа
- Фрагментация:Оплата в мягкой обложке
- Индийский:1
- Цены:79.00
- ISBN:9787302604365
- Издательство:Tsinghua University Press
- формат:16
- Время печати:Никто на данный момент
- Язык:Никто на данный момент
- Опубликованная дата:2022-06-01
- Количество страниц:256
- Внешний номер:1202658447
- Версия:1
- размер товара:Никто на данный момент
Глава JAX Zero Zero
1.1 JAX уже здесь
1.1.1 Что такое JAX
1.1.2 Почему JAX
1.2 Установка и использование JAX
1.2.1 Подсистема Windows для установки Linux
1.2.2 Установка и проверка JAX
1.2.3 Скачать и установка Pycharm
1.2.4 Использование PyCharm и JAX
1.2.5 JAX's Python Code Небольшая практика: вычислить функцию SELU
1.3 Боевой JAX — распознавание почерка MNIST
Шаг 1.3.1: Подготовьте набор данных
1.3.2 Шаг 2: Конструкция модели
1.3.3 Третий шаг: обучение модели
1.4 Резюме этой главы
Глава 2 Верхняя точка, еще один слой машины восприятия и автоматическая микрокомпания, который будет изучен, как только вы узнаете
2.1 Многослойный персептрон
2.1.1.
2.1.2 Используйте JAX для реализации полного уровня соединения
2.1.3 Полная функция подключения к большему количеству функций
2.2 Фактическая классификация цветов JAX -Iyningwei
2.2.1 Подготовка и анализ данных цветов Yingwei
2.2.2.
2.2.3 Написание модели линейной регрессии на основе JAX
2.2.4 Многослойный персептрон и нейронная сеть
2.2.5 Функция активации на основе JAX, функция softmax и функция перекрестной энтропии
2.2.6 На основании классификации цветов Yingwei на основе мульти -слойного восприятия машина
2.3 Автоматическое микро -диск.
2.3.1 Что такое дифференциатор
2.3.2 Авто -дифференциальный в JAX
2.4 Сводка этой главы
Глава 3 Теория глубокого обучения
3.1 Введение в нейронную сеть БП
3.2 Подробное объяснение двух основных алгоритмов нейронной сети БП.
3.2.1 Подробное объяснение двух -мультипейного метода
3.2.2 История алгоритма падения вниз по горным веществам
3.2.3 Алгоритм падения градиента двух методов -мультиплизации и реализации реализации JAX
3.3 Введение в алгоритм обратного распространения ошибки нейронной сети с обратной связью
3.3.1 Глубокое обучение основы
3.3.2 Правило цепной производной
3.3.3 Принцип нейронной сети с обратной связью и вывод формулы
3.3.4 Функция активации принципа нейронной сети с обратной связью
3.3.5 Реализация принципа нейронной сети с обратной связью в Python
3.4 Сводка этой главы
Глава 4. Общие характеристики XLA и JAX
4.1 JAX и XLA
4.1.1 Как работает XLA
4.1.2 Как работает XLA
4.2 Общие характеристики JAX
4.2.1 Использование JIT для ускорения работы программы
4.2.2 Автоматическая функция микро -сплайттер
4.2.3 Автоматическая векторизация -VMAP Функция
. краткое содержание главы
Глава 5 Специальная
5.1 JAX и NumPy
5.1.1 JAX работает как NumPy
5.1.2 Базовая реализация JAX слабая
5.1.3 Механизм параллельного JIT и сценарии, в которых JIT не подходит
5.1.4 Подробное объяснение параметров JIT
5.2 Требования к спецификациям для написания программ JAX
5.2.1 Функция JAX должна быть чистой функцией
5.2.2 Спецификации массива в JAX
5.2.3 Ветви управления в JIT
5.2.4 функции сканирования if, while, for в JAX
5.3 Резюме этой главы
Глава 6. Некоторые подробности о JAX
6.1 Численные расчеты в JAX
6.1.1 Подробности использования функции grad в JAX
6.1.2 Не пишите разницу в побочных эффектах -разница между JAX и Numpy
6.1.3 Простая подгонка уравнения регрессии линии
6.2 Функциональность JAX
6.2.1 Процесс преобразования JIT
6.2.2 JIT не может отслеживать параметры неопределенных параметров
6.2.3 Понимание предварительной компиляции и кэширования в JAX
6.3 Функция автоматического пакета в jax -vmap
6.3.1 Погружение лука -руга
6.3.2 написать капусту -аутоматическую векторизацию функцию VMAP в JAX
6.3.3 JAX MID до высокого уровня обработки руководства
6.4 Метод сохранения структуры в JAX Pytrees
6.4.1 Что такое Pytree
6.4.2 Общие функции pytree
6. Управление параметрами модели глубокого обучения (модель линии)
6.4.4 Управление параметрами модели глубокого обучения (не -линейная модель)
6.4.5 Пользовательские узлы Pytree
6.4.6 Механизм работы числовых вычислений JAX
6.5 Сводка этой главы
Глава 7. Свертки в JAX
7.1 Что такое свертка
7.1.1 Операция свертки
7.1.2 Расчет одномерной свертки и многомерной свертки в JAX
7.1.3 Вычисление и представление общей свертки в JAX.lax
7.2 Боевой JAX — классификация наборов данных MNIST на основе архитектуры VGG
7.2.1 Архитектура глубокого обучения группе геометрии (VGG) (VGG)
7.2.2 Внедрение и реализация компонентов, используемых в VGG
7.2.3 Классификация набора данных MNIST на основе VGG6
7.3 Краткое содержание главы
Глава 8. Сравнение и взаимодействие JAX и TensorFlow
8.1 Классификация MNIST на основе TensorFlow
8.2 Взаимодействие между TensorFlow и JAX
8.2.1 Классификация наборов данных TensorFlow на основе JAX
8.2.2 Введение в библиотеку наборов данных TensorFlow
8.3 Резюме этой главы
Глава 9 Избегайте пользовательской функции в соответствии с основными правилами функции JAX
9.1 Основные правила функций JAX
9.1.1 Используйте существующие примитивы
9.1.2 Пользовательский JVP и обратный VJP
9.1.3 Advanced JAX.Custom_JVP и JAX.Custom_VJP Использование функции
9.2 Использование интерпретатора Jaxpr
9.2.1 Jaxpr tracer
9.2.2 Пользовательские функции, которые можно отслеживать с помощью Jaxpr
9.3 Использование имен измерений JAX
9.3.1 Имена измерений для JAX
9.3.2 Пользовательский векторный тензор в JAX
9.4 Резюме этой главы
Глава 0 Сумки в JAX
10.1 мешки в JAX
10.1.1 Использование jax.numpy
10.1.2 Использование jax.nn
10.2 jax.exper atntal bag и jax.example_libraries
10.2.1 Использование jax.experimental.sparse
10.2 jax.exper mental.optimizers module
10.2.3 Использование jax.experimental.stax
10.3 Краткое содержание главы
Нимфо
Ван Сяохуа, профессиональный лектор по компьютеру, направление исследований - облачные вычисления, большие данные и искусственный интеллект.У него есть автор «Практика машинного обучения Spark Mllib», «Практика применения в глубоком обучении Tensorflow», «Глубокое обучение OpenCV+TensorFlow и компьютерный визуальный фактический бой», «Карта знаний TensorFlow, фактическая борьба», «TensorFlow Human Perciety Pright Price , «Распознавание голоса TensorFlow», «TensorFlow 2. 0 Том» реальность кумулятивной нейронной сети »,« Фактическая боевая практика Керас: глубокое обучение, основанная на TensorFlow2.2 »,« Тенорфлоу глубокое обучение от математических принципов и реализации от нулевого обучения в области глубокого обучения ».
JAX -это библиотека Python для расчета значений с высокой энергией, которая предназначена для вычислений с высокой энергией в области глубокого обучения.В этой книге объясняются соответствующие знания о глубоком обучении JAX Framework и анализируют три фактических боевых случая: используйте RESNET для завершения классификации наборов данных CIFAR, интересных слов, внедряющих и генерирующих сеть конфронтации.Эта книга поддерживает пример исходного кода, программа курса PPT, наборы данных, среда и услуги допроса.