[Официальные подлинные] Трансформеры профилей: построить наиболее продвинутую модель NLP -модели.
Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.
- Информация о товаре
- Фотографии
Заголовок: | Опытный в трансформаторе: построить расширенную модель NLP с нуля: создайте современные модели с нуля с помощью расширенных методов обработки природы |
Автор: | (Земля) Саавы·Савас Йилдирим, (Иран) Мессам·Асгури |
Издательство: | Пекинг Институт технологий Press Co., Ltd. Co., Ltd. |
Дата публикации: | |
Версия: | |
ISBN: | 9787576322279 |
Рыночная цена: | 99.0 |
Введение Часть 1: Новая разработка, инсталляция окружающей среды и привет;
Глава 1
1.1 Технические требования // 004
1.2 Процесс эволюции обработки естественного языка в Transfmeer // 005
1.3 Понять распределенную семантику // 007
1.3.1 Реализация технологии CI Bag // 008
1.3.2. Проблема измерения // 009
1.3.3 Языковое моделирование и поколение // 010
1.4 Используйте глубокое обучение // 012
1.4.1 ИССЛЕДОВАНИЕ СЛОВО ВКЛЮЧЕНИЯ // 012
1.4.2 Обзор нейронной сети Circle // 014
1.4.3.
1.4.4 Обзор сверточных нейронных сетей // 018
1.5;
1.5.1 Механизм внимания // 021
1.5.2 Механизм внимания с несколькими головами // 023
1.6;
1.7 Сводка этой главы // 029
Глава 2;
2.1 Технические требования // 032
2.2;
2.2.1 Установить Anaconda // 032 в операционной системе Linux
2.2.2 Установите Anaconda // 033 в операционной системе Windows
2.2.3 Установите Anaconda // 034 в операционной системе MacOS
2.2.4;
2.2.5;
2.3 Используйте языковую модель и разделение слов // 037
2.4 Используйте модель, предоставленную сообществом // 034
2.5 Используйте тест на эталон и несколько эпизодов // 042
2.5.1 Важный эталонный тест // 042
2.5.2 Наборы данных в интерфейсе интерфейса интерфейсов программирования приложения // 0442.
O Скорость и эталона памяти Первый тест //0522.7 Резюме этой главы // 050
Часть 2;
Глава 3;
3.2 Оба R: модель якодирования самостоятельного кодирования // 060
3.2.1;
3.2.2 Глубокое исследование на языковой модели // 062
8.3 Self -кодирование языковой модели обучение подходит для любого языка // 064
3.4 Модель обмена с сообществом // 073
3.5 Изучите другую модель самостоятельного кодирования // 074
3.5.1;
3.5.2;
3.5.3;
3.6;
3.6.1 байт до кодирования // 081
3.6.2;
3.6.3_;
3.6,4;tokeniensp;fe//083
3.7 Сводка этой главы // 08%
Глава 4;
4.2;
4.2.1 Введение и обучение поколения должно быть моделью обучения // 091
4.2.2;
4.2.3%1Net Model // 694
4.3;
4.3.1;
4.3.2;
4.4;
……
Часть 3 Тема
Глава 8;
8.1 Технические требования // 184
8.2, легкий, быстрый трансформатор // 185
8.3 Реализация масштаба модели // 186
8.3.1;
8.3.2 филиалы // 188
8.3.3;
8.4 Используется механизм самостоятельного присмотра // 192
8.4.1 Редкий механизм внимания в фиксированном режиме // 192
8.4.2 может выучить // 202
8.4.3 Декомпозиция с низким уровнем фактора, ядерная функция и другие методы // 207
8.5;
Глава 9;
9.1 Технические требования // 209
9.2 Моделирование языка перевода и обмен знаниями по перекрестному языке // 210
9.3;
9.3.1;mBERT//212
9.3.2;XLM//213
9.4 Cross -Language аналогичные задачи // 216
9.4.1 Cross -Language Text аналогичный // 216
9.4.2 Визуализированное сходство по перекрестному языковому тексту // 218
9.5 Крестная классификация // 222
9.6 Cross -Language Zero Sample Learning // 226
9.7 Основные ограничения многослойной модели // 229
9.8 Фильтрация многоотражающей модели CAN // 230
9.9 Резюме этой главы // 232
Глава 10;
10,1 Технические требования // 234
10.2;
10.3;
10.4;
10.5;
10.6;
Глава 11 Визуализация внимания и экспериментальная следов глаз
11.1 Технические потребности // 245
11.2 Интерпретация внимания голова // 246
11.2.1 Используйте Exbert для визуализации Head Head // 246
11.2.2 Используйте Bentvis Multi -Scale Visualization Head Head // 251
11.2.3 Использование классификатора обнаружения для понимания внутренней структуры BEBT // 259
11.3 Индекс измерения модели отслеживания // 259
11,3.1;
11.3.2 Используйте w&B Отслеживание времени отслеживает процесс обучения // 263
11, 4 Резюме этой главы // 266
Краеугольный камень в области ИИ, тех инженеров, которые до сих пор одержимы N, RNN предупреждают: сдаться в борьбу и сдаться трансформеру!
За последние два десятилетия исследование по лечению естественного языка претерпела огромные изменения.В течение этого времени обработка естественного языка испытывала различные парадигмы обработки и в конечном итоге вошла в новую эру с магической архитектурой трансформатора.Архитектура глубокого обучения трансформатора генерируется унаследованием многих методов.В различных методах естественного языка на основе нервов архитектура трансформатора постепенно превратилась в внимательную“Кодимер-декодер”Архитектура и непрерывное развитие по сей день.Теперь мы видели новый вариант этой архитектуры в литературе.В настоящее время исследование было обнаружено моделью, которая использует только часть энкодера в архитектуре трансформатора, такую как BERT (двунаправленные представления энкодера от трансформаторов, трансформеров в двухэтажном кодировании); Полем
Эта книга охватывает эти методы естественного языка.Основываясь на библиотеке Transformer в сообществе об объятиях обнимающих лиц, мы можем легко использовать трансформатор слегка.Эта книга постепенно предоставляет решения различных задач обработки естественного языка: от краткого изложения документов до вопросов.Мы увидим, что передовые результаты могут быть достигнуты на основе трансформатора.
;;За последние 20 лет обработка естественного языка прошла через разные парадигмы и в конечном итоге вошла в эру архитектуры трансформатора.Все эти парадигмы помогут пользователям лучше выражать слова и документы, используемые для решения проблем.Распределенная семантика использует векторное описание значения слов или документов и просмотреть распределенные доказательства через набор документов.Векторное представление может решить много проблем в обучении надзора и каналам обучения, не связанного с отсутствием.Для проблем генерации языка, модель N-грамма языка использовалась в качестве традиционного метода в течение многих лет.Тем не менее, в этих традиционных методах есть много недостатков, и в этой главе будут обсуждаться эти недостатки.
;;Эти архитектуры улучшают способность обработки естественного языка и преодолевают ограничения традиционных методов.Тем не менее, эти модели также имеют разные проблемы.Основная причина заключается в том, что трансформатор эффективно улучшает способность многопрофильного языкового и многопрофильного обработки естественного языка).Эти вклад улучшают выполнимость миграционного обучения в обработке естественного языка (перенос; обучение, TL), так что модель может использоваться для разных задач или разных языков.
; Для простоты выберите в качестве краткого примера кода введения, насколько это возможно.
В этой главе будет представлена следующая тема.
(1) Эволюционный процесс обработки естественного языка для трансформатора.
(2) Понять распределенную семантику.
(3) Используйте глубокое обучение.
(4) Transfommer;
(5) в сочетании с трансформатором в миграционном обучении.
1.1 Технические потребности
В этой главе используется Jupyter;
(1);sklearn;
(2) nltk (версия 3.5.0);
(3) генизм (версия 3.8.3);
(4);fasttext;
(5) кера (не менее 2,3,0);
(6) Трансформаторы (не менее 4,0,0).
Вы можете получить все в этой главе, чтобы получить все в этой главе, чтобы практиковать Jobyter;
Sgithub.;