[Dangdang непосредственно управляется] Решение с крупным модельным применением основано на Антонио Гулли, обработке естественного языка обработки естественного языка архитектуры трансформатора, такой как CHATGPT и GPT-4, в качестве упорядоченной рекомендации
Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.
- Информация о товаре
- Фотографии
Примечание. Начиная с 1-2 уплотнений, крышка изменяется, и две крышки случайным образом отправляются.
Менее чем за 4 года в сообществе НЛП быстро появилась модель трансформатора с его сильной производительностью и инновационными идеями, побив записи за последние 30 лет.Такие модели, как BERT, T5 и GPT, теперь стали новыми приложениями для компьютерного зрения, распознавания голоса, трансляции, секвенирования белка, кодирования и т. Д. В различных областях.Поэтому Стэнфордский университет недавно предложил“Базовая модель”Этот термин используется для определения серии крупных языковых моделей на основе гигантского предварительного трансформатора.Весь этот прогресс связан с некоторыми простыми идеями.
Естественная языковая обработка архитектуры трансформатора, основанная на GPT-3, CHATGPT, GPT-4 и т. Д. «Может использоваться в качестве справочника, который заинтересован в принципах принципов работы трансформатора.Автор проделал выдающуюся работу как в теоретических, так и в практических аспектах, объясняя, как постепенно использовать трансформатор подробно.После прочтения этой книги вы сможете использовать эту техническую коллекцию для повышения вашей способности к глубокому обучению.До этой книги представлены Bert, Roberta, T5 и GPT-3, сначала рассказывает архитектуре трансформатора, чтобы заложить прочную основу для вашего обучения.В этой книге также рассказывается, как применить трансформатор ко многим случаям, такие как резюме текста, маркировка изображений, вопросы и ответ, эмоциональный анализ и анализ фальшивых новостей.
Если вы заинтересованы в этих темах, то эта книга стоит прочитать.
——Antonio Gulli
Директор по инженерному инженеру Google Антонио Гулли
наименование товара: | формат: | 16 | |
Автор: | [Метод] Данис·Денис Ротман переведен ею Веймин | Цены: | 99.80 |
Номер ISBN: | 9787302648727 | Опубликованная дата: | 2024-01-01 |
Издательство: | Tsinghua University Press | Время печати: | 2024-01-01 |
Версия: | 1 | Индийский: | 1 |
Глава 1 Модель трансформатора Введение 1
1.1 Экосистема трансформатора 2
1.1.1 Индустрия 4.0 2
1.1.2 Основная модель 3
1.2 Используйте трансформатор для оптимизации модели NLP 6
1.3 Какие ресурсы мы должны использовать 8
1.3.1 Трансформатор 4.0 Беспланный API RIST 9
1.3.2 выбрал использование библиотеки привода использования API 11
1.3.3 Выберите модель трансформатора 11
1.3.4 Требования к навыкам эксперта в отрасли 4.0. 12
1.4 Резюме этой главы 13
1.5 Практические вопросы 14
Глава 2 Введение архитектуры трансформатора 15
2.1 Восстание трансформатора: Внимание - это все 16
2.1.1 Укладка кодера 17
2.1.2 стек декодеров 37
2.2 Обучение и производительность 40
2.3 Модель трансформатора обнимающегося лица 40
2.4 Сводка этой главы 41
2.5 Практический вопрос 42
Глава 3 фильтрация модели Берта 43
3.1 BERT Architecture 44
3.2 Фильтрация Берта 50
3.2.1 Выберите аппаратное обеспечение 50
3.2.2 Установите интерфейс Pytorch с обнимающейся лицом, необходимый для использования модели BERT 50
3.2.3 Модуль импорта 50
3.2.4 Укажите факел для использования CUDA 51
3.2.5 Загрузить набор данных 51
3.2.6 Создание предложений, списков метки и добавить [CLS] и [SEP] слова 53
3.2.7 Активируйте анализатор Bert Word Yuan 53
3.2.8 Обработка данных 54
3.2.9 Предотвратить рассчитывать внимание на элемент заполнения. 54
3.2.10 Снос данных в учебный набор и набор проверки 54
3.2.11 Преобразовать все данные в тензор Torch 55
3.2.12 Выберите размер партии и создайте итераторы 55
3.2.13 Конфигурация модели BERT 56
3.2.14.
3.2.15 Оптимальные параметры группы 59
3.2.16 Хирургия тренировочного цикла 59
3.2.17 Тренировочный цикл 60
3.2.18 Оценить обучение 61
3.2.19 Используйте тестовый набор данных для прогнозирования и оценки 62
3.2.20 Использование взаимосвязи между фазовой связи Мэтьюза для оценки 63
3.2.21 Каждый балл партии 63
3.2.22 Оценка Matthews всего набора данных 64
3.3 Резюме этой главы 64
3.4 Практические вопросы 65
Глава 4 Запуск предварительного подготовки модели Роберты 66
4.1 Анализатор обучения элемента слова и предварительный трансформатор 67
4.2 Начиная с нуля, Кантай Берт 68
4.2.1 Шаг 1: Загрузите набор данных 68
4.2.2 Шаг 2: Установка библиотеки трансформаторов HuggingFice 69
4.2.3 Шаг 3: Анализатор обучаемого элемента слов 70
4.2.4 Шаг 4: Сохраните содержание слов на диске 72
4.2.5 Шаг 5: Загрузите предварительно обученный файл анализатора элементов слов 73
4.2.6 Шаг 6: Проверьте конфигурацию учебной машины: GPU и CUDA 74
4.2.7 Шаг 7: Определите конфигурацию модели 75
4.2.8 Шаг 8: Загрузите анализатор элемента слова для модели трансформатора 75
4.2.9 Шаг 9: Инициализировать модель с нуля 75
4.2.10 Шаг 10: Создайте набор данных 79
4.2.11 Шаг 11: Определите приливное устройство данных 80
4.2.12 Шаг 12: Учебное устройство по инициализации 80
4.2.13 Шаг 13: 81
4.2.14 Шаг 14: Сохраните окончательную модель (конфигурация анализатора Ciyuan) на диск 81
4.2.15 Шаг 15: Используйте Fillmask-Pipeline для языкового моделирования 82
4.3. 83
4.4 Резюме этой главы 83
4.5 Практические вопросы 84
Глава 5 Используйте трансформатор для обработки нисходящих задач NLP 85
5.1 Передача и восприятие трансформатора 86
5.1.1 Человеческий интеллектуальный стек 86
5.1.2 Машина Smart Stack 88
5.2 Трансформатор 89
5.2.1 Оценка индекса измерения производительности модели 89
5.2.2 Датомическая задача и набор данных 90
5.2.3. Определите справочную задачу SuperGlue 94
5.3 выполнять вниз по течению задач 99
5.3.1 Лингвистика приемлемое пол расчеты (COLA) 99
5.3.2 Стэнфордская библиотека эмоциональных деревьев (SST-2) 100
5.3.3 Microsoft Исследование интерпретации Corner Store (MRPC) 101
5.3.4 Режим винографии 102
5.4 Сводка этой главы 102
5.5 Практические вопросы 103
Глава 6 Машинный перевод 104
6.1 Что такое машинный перевод 105
6.1.1 Человеческая передача и перевод 105
6.1.2 Передача и перевод машины 106
6.2 Предварительная обработка набора данных WMT 106
6.2.1 Подготовьте исходные данные 107
6.2.2 Завершите оставшуюся предварительную работу 109
6.3 Используйте Bleu, чтобы оценить машинный перевод 112
6.3.1 Геометрическая оценка 112
6.3.2 Гладкая технология 114
6.4 Google Перевод 115
6.5 Используйте Trax для перевода 116
6.5.1 Установить Trax 116
6.5.2 Создать оригинальную модель трансформатора 117
6.5.3 Используйте модель инициализации веса предварительно подготовки 117
6.5.4 Чрезвычайно метафизический 117
6.5.5 Декодирование от трансформатора 118
6.5.6 Извлечение и отображение результатов перевода 118
6.6 Сводка этой главы 119
6.7 Практические вопросы 119
Глава 7 GPT-3 120
7.1 Super Human NLP с моделью трансформатора GPT-3 121
7.2 Архитектура модели трансформатора Openai GPT &......
Трансформатор подрывает поле ИИ.На рынке есть такие платформы и трансформаторные модели, какие потребности ваших потребностей?Это приведет вас к миру трансформатора, который сообщит преимущества различных моделей и платформ и укажет, как устранить недостатки и проблемы модели.Эта книга поможет вам предварительно обучать модель Роберты с нуля, включая наборы данных построения данных, композиторы данных определения и учебные модели.«Натуральная языковая обработка архитектуры трансформатора, такая как GPT-3, CHATGPT, GPT-4 и т. Д.»Изучите задачи NLP, такие как машинный перевод, передача голоса, передача текста, викторина, вопрос и ответ, и вводят технологии, которые решают проблему НЛП, и даже помогают вам справиться с фальшивыми новостями (см. Главу 13).Из книги можно узнать, что платформа высокого уровня, такая как OpenAI, расширяет трансформатор в поле языка и поле компьютерного видения, и позволяет использовать Dall-E 2, CHATGPT и GPT-4 для создания кода.Благодаря этой книге вы узнаете о принципе работы трансформатора и о том, как реализовать трансформатор для решения проблемы НЛП.
основное содержание
• Понять новые технологии для решения сложных языковых задач
? Сравнение результатов GPT-3 с T5, GPT-2
• Используйте Tensorflow, Pytorch и GPT-3 для проведения эмоционального анализа, тексте-рефератов, неформального языка, машинного перевода и других задач и других задач
• Поймите, как изображения витатных и клип-этикетки (включая нечеткий), и используйте Dall-E для генерации изображений из текста
• Изучите CHATGPT и GPT-4 Advanced Rampence Engineering Mechanys
Денис Ротман окончил Парижский университет, Париж и Университет Дидро.Его карьера началась для МоëT et Chandon предлагает роботов чата NLP (обработка естественного языка) и предоставляет тактическую оборонительную оптимизаторы AI для компании Airbus (ранее известной как Aerospatiale).С тех пор Денис разработал оптимизаторы ресурсов искусственного интеллекта для брендов IBM и роскоши и в конечном итоге превратился в решения APS (передовое планирование и планирование), используемые во всем мире.