8 (905) 200-03-37 Владивосток
с 09:00 до 19:00
CHN - 1.14 руб. Сайт - 17.98 руб.

Многоуровневые прямые волосы Синьхуа книжного магазина.

Цена: 1 053руб.    (¥58.53)
Артикул: 732480071012

Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.

Этот товар на Таобао Описание товара
Продавец:名壹堂图书企业店
Рейтинг:
Всего отзывов:0
Положительных:0
Добавить в корзину
Другие товары этого продавца
¥29.9538руб.
¥24.9448руб.
¥45.84825руб.
¥29.76536руб.
  • Автор:Ван Сяохуа
  • Письмо,:Ван Сяохуа
  • Фрагментация:Оплата в мягкой обложке
  • Индийский:1
  • Цены:79.00
  • ISBN:9787302604365
  • Издательство:Tsinghua University Press
  • формат:16
  • Время печати:Никто на данный момент
  • Язык:Никто на данный момент
  • Опубликованная дата:2022-06-01
  • Количество страниц:256
  • Внешний номер:1202658447
  • Версия:1
  • размер товара:Никто на данный момент

Глава JAX Zero Zero

1.1 JAX уже здесь

1.1.1 Что такое JAX

1.1.2 Почему JAX

1.2 Установка и использование JAX

1.2.1 Подсистема Windows для установки Linux

1.2.2 Установка и проверка JAX

1.2.3 Скачать и установка Pycharm

1.2.4 Использование PyCharm и JAX

1.2.5 JAX's Python Code Небольшая практика: вычислить функцию SELU

1.3 Боевой JAX — распознавание почерка MNIST

Шаг 1.3.1: Подготовьте набор данных

1.3.2 Шаг 2: Конструкция модели

1.3.3 Третий шаг: обучение модели

1.4 Резюме этой главы

Глава 2 Верхняя точка, еще один слой машины восприятия и автоматическая микрокомпания, который будет изучен, как только вы узнаете

2.1 Многослойный персептрон

2.1.1.

2.1.2 Используйте JAX для реализации полного уровня соединения

2.1.3 Полная функция подключения к большему количеству функций

2.2 Фактическая классификация цветов JAX -Iyningwei

2.2.1 Подготовка и анализ данных цветов Yingwei

2.2.2.

2.2.3 Написание модели линейной регрессии на основе JAX

2.2.4 Многослойный персептрон и нейронная сеть

2.2.5 Функция активации на основе JAX, функция softmax и функция перекрестной энтропии

2.2.6 На основании классификации цветов Yingwei на основе мульти -слойного восприятия машина

2.3 Автоматическое микро -диск.

2.3.1 Что такое дифференциатор

2.3.2 Авто -дифференциальный в JAX

2.4 Сводка этой главы

Глава 3 Теория глубокого обучения

3.1 Введение в нейронную сеть БП

3.2 Подробное объяснение двух основных алгоритмов нейронной сети БП.

3.2.1 Подробное объяснение двух -мультипейного метода

3.2.2 История алгоритма падения вниз по горным веществам

3.2.3 Алгоритм падения градиента двух методов -мультиплизации и реализации реализации JAX

3.3 Введение в алгоритм обратного распространения ошибки нейронной сети с обратной связью

3.3.1 Глубокое обучение основы

3.3.2 Правило цепной производной

3.3.3 Принцип нейронной сети с обратной связью и вывод формулы

3.3.4 Функция активации принципа нейронной сети с обратной связью

3.3.5 Реализация принципа нейронной сети с обратной связью в Python

3.4 Сводка этой главы

Глава 4. Общие характеристики XLA и JAX

4.1 JAX и XLA

4.1.1 Как работает XLA

4.1.2 Как работает XLA

4.2 Общие характеристики JAX

4.2.1 Использование JIT для ускорения работы программы

4.2.2 Автоматическая функция микро -сплайттер

4.2.3 Автоматическая векторизация -VMAP Функция

. краткое содержание главы

Глава 5 Специальная

5.1 JAX и NumPy

5.1.1 JAX работает как NumPy

5.1.2 Базовая реализация JAX слабая

5.1.3 Механизм параллельного JIT и сценарии, в которых JIT не подходит

5.1.4 Подробное объяснение параметров JIT

5.2 Требования к спецификациям для написания программ JAX

5.2.1 Функция JAX должна быть чистой функцией

5.2.2 Спецификации массива в JAX

5.2.3 Ветви управления в JIT

5.2.4 функции сканирования if, while, for в JAX

5.3 Резюме этой главы

Глава 6. Некоторые подробности о JAX

6.1 Численные расчеты в JAX

6.1.1 Подробности использования функции grad в JAX

6.1.2 Не пишите разницу в побочных эффектах -разница между JAX и Numpy

6.1.3 Простая подгонка уравнения регрессии линии

6.2 Функциональность JAX

6.2.1 Процесс преобразования JIT

6.2.2 JIT не может отслеживать параметры неопределенных параметров

6.2.3 Понимание предварительной компиляции и кэширования в JAX

6.3 Функция автоматического пакета в jax -vmap

6.3.1 Погружение лука -руга

6.3.2 написать капусту -аутоматическую векторизацию функцию VMAP в JAX

6.3.3 JAX MID до высокого уровня обработки руководства

6.4 Метод сохранения структуры в JAX Pytrees

6.4.1 Что такое Pytree

6.4.2 Общие функции pytree

6. Управление параметрами модели глубокого обучения (модель линии)

6.4.4 Управление параметрами модели глубокого обучения (не -линейная модель)

6.4.5 Пользовательские узлы Pytree

6.4.6 Механизм работы числовых вычислений JAX

6.5 Сводка этой главы

Глава 7. Свертки в JAX

7.1 Что такое свертка

7.1.1 Операция свертки

7.1.2 Расчет одномерной свертки и многомерной свертки в JAX

7.1.3 Вычисление и представление общей свертки в JAX.lax

7.2 Боевой JAX — классификация наборов данных MNIST на основе архитектуры VGG

7.2.1 Архитектура глубокого обучения группе геометрии (VGG) (VGG)

7.2.2 Внедрение и реализация компонентов, используемых в VGG

7.2.3 Классификация набора данных MNIST на основе VGG6

7.3 Краткое содержание главы

Глава 8. Сравнение и взаимодействие JAX и TensorFlow

8.1 Классификация MNIST на основе TensorFlow

8.2 Взаимодействие между TensorFlow и JAX

8.2.1 Классификация наборов данных TensorFlow на основе JAX

8.2.2 Введение в библиотеку наборов данных TensorFlow

8.3 Резюме этой главы

Глава 9 Избегайте пользовательской функции в соответствии с основными правилами функции JAX

9.1 Основные правила функций JAX

9.1.1 Используйте существующие примитивы

9.1.2 Пользовательский JVP и обратный VJP

9.1.3 Advanced JAX.Custom_JVP и JAX.Custom_VJP Использование функции

9.2 Использование интерпретатора Jaxpr

9.2.1 Jaxpr tracer

9.2.2 Пользовательские функции, которые можно отслеживать с помощью Jaxpr

9.3 Использование имен измерений JAX

9.3.1 Имена измерений для JAX

9.3.2 Пользовательский векторный тензор в JAX

9.4 Резюме этой главы

Глава 0 Сумки в JAX

10.1 мешки в JAX

10.1.1 Использование jax.numpy

10.1.2 Использование jax.nn

10.2 jax.exper atntal bag и jax.example_libraries

10.2.1 Использование jax.experimental.sparse

10.2 jax.exper mental.optimizers module

10.2.3 Использование jax.experimental.stax

10.3 Краткое содержание главы

Нимфо

Ван Сяохуа, профессиональный лектор по компьютеру, направление исследований - облачные вычисления, большие данные и искусственный интеллект.У него есть автор «Практика машинного обучения Spark Mllib», «Практика применения в глубоком обучении Tensorflow», «Глубокое обучение OpenCV+TensorFlow и компьютерный визуальный фактический бой», «Карта знаний TensorFlow, фактическая борьба», «TensorFlow Human Perciety Pright Price , «Распознавание голоса TensorFlow», «TensorFlow 2. 0 Том» реальность кумулятивной нейронной сети »,« Фактическая боевая практика Керас: глубокое обучение, основанная на TensorFlow2.2 »,« Тенорфлоу глубокое обучение от математических принципов и реализации от нулевого обучения в области глубокого обучения ».

JAX -это библиотека Python для расчета значений с высокой энергией, которая предназначена для вычислений с высокой энергией в области глубокого обучения.В этой книге объясняются соответствующие знания о глубоком обучении JAX Framework и анализируют три фактических боевых случая: используйте RESNET для завершения классификации наборов данных CIFAR, интересных слов, внедряющих и генерирующих сеть конфронтации.Эта книга поддерживает пример исходного кода, программа курса PPT, наборы данных, среда и услуги допроса.