8 (905) 200-03-37 Владивосток
с 09:00 до 19:00
CHN - 1.14 руб. Сайт - 17.98 руб.

[Официальные подлинные] Трансформеры профилей: построить наиболее продвинутую модель NLP -модели.

Цена: 801руб.    (¥44.5)
Артикул: 724053090639

Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.

Этот товар на Таобао Описание товара
Продавец:时代蔚蓝图书专营店
Адрес:Пекин
Рейтинг:
Всего отзывов:0
Положительных:0
Добавить в корзину
Другие товары этого продавца
¥32.9592руб.
¥68.11 225руб.
¥94.91 707руб.
¥15.8285руб.
Основная информация
 
Заголовок:  Опытный в трансформаторе: построить расширенную модель NLP с нуля: создайте современные модели с нуля с помощью расширенных методов обработки природы
Автор:  (Земля) Саавы·Савас Йилдирим, (Иран) Мессам·Асгури
Издательство:  Пекинг Институт технологий Press Co., Ltd. Co., Ltd.
Дата публикации:  
Версия:  
ISBN:  9787576322279
Рыночная цена:  99.0
Оглавление
 

Введение Часть 1: Новая разработка, инсталляция окружающей среды и привет;

Глава 1

1.1 Технические требования // 004

1.2 Процесс эволюции обработки естественного языка в Transfmeer // 005

1.3 Понять распределенную семантику // 007

1.3.1 Реализация технологии CI Bag // 008

1.3.2. Проблема измерения // 009

1.3.3 Языковое моделирование и поколение // 010

1.4 Используйте глубокое обучение // 012

1.4.1 ИССЛЕДОВАНИЕ СЛОВО ВКЛЮЧЕНИЯ // 012

1.4.2 Обзор нейронной сети Circle // 014

1.4.3.

1.4.4 Обзор сверточных нейронных сетей // 018

1.5;

1.5.1 Механизм внимания // 021

1.5.2 Механизм внимания с несколькими головами // 023

1.6;

1.7 Сводка этой главы // 029

Глава 2;

2.1 Технические требования // 032

2.2;

2.2.1 Установить Anaconda // 032 в операционной системе Linux

2.2.2 Установите Anaconda // 033 в операционной системе Windows

2.2.3 Установите Anaconda // 034 в операционной системе MacOS

2.2.4;

2.2.5;

2.3 Используйте языковую модель и разделение слов // 037

2.4 Используйте модель, предоставленную сообществом // 034

2.5 Используйте тест на эталон и несколько эпизодов // 042

2.5.1 Важный эталонный тест // 042

2.5.2 Наборы данных в интерфейсе интерфейса интерфейсов программирования приложения // 0442.

O Скорость и эталона памяти Первый тест //0522.7 Резюме этой главы // 050

Часть 2;

Глава 3;

3.2 Оба R: модель якодирования самостоятельного кодирования // 060

3.2.1;

3.2.2 Глубокое исследование на языковой модели // 062

8.3 Self -кодирование языковой модели обучение подходит для любого языка // 064

3.4 Модель обмена с сообществом // 073

3.5 Изучите другую модель самостоятельного кодирования // 074

3.5.1;

3.5.2;

3.5.3;

3.6;

3.6.1 байт до кодирования // 081

3.6.2;

3.6.3_;

3.6,4;tokeniensp;fe//083

3.7 Сводка этой главы // 08%

Глава 4;

4.2;

4.2.1 Введение и обучение поколения должно быть моделью обучения // 091

4.2.2;

4.2.3%1Net Model // 694

4.3;

4.3.1;

4.3.2;

4.4;

……

Часть 3 Тема

Глава 8;

8.1 Технические требования // 184

8.2, легкий, быстрый трансформатор // 185

8.3 Реализация масштаба модели // 186

8.3.1;

8.3.2 филиалы // 188

8.3.3;

8.4 Используется механизм самостоятельного присмотра // 192

8.4.1 Редкий механизм внимания в фиксированном режиме // 192

8.4.2 может выучить // 202

8.4.3 Декомпозиция с низким уровнем фактора, ядерная функция и другие методы // 207

8.5;

Глава 9;

9.1 Технические требования // 209

9.2 Моделирование языка перевода и обмен знаниями по перекрестному языке // 210

9.3;

9.3.1;mBERT//212

9.3.2;XLM//213

9.4 Cross -Language аналогичные задачи // 216

9.4.1 Cross -Language Text аналогичный // 216

9.4.2 Визуализированное сходство по перекрестному языковому тексту // 218

9.5 Крестная классификация // 222

9.6 Cross -Language Zero Sample Learning // 226

9.7 Основные ограничения многослойной модели // 229

9.8 Фильтрация многоотражающей модели CAN // 230

9.9 Резюме этой главы // 232

Глава 10;

10,1 Технические требования // 234

10.2;

10.3;

10.4;

10.5;

10.6;

Глава 11 Визуализация внимания и экспериментальная следов глаз

11.1 Технические потребности // 245

11.2 Интерпретация внимания голова // 246

11.2.1 Используйте Exbert для визуализации Head Head // 246

11.2.2 Используйте Bentvis Multi -Scale Visualization Head Head // 251

11.2.3 Использование классификатора обнаружения для понимания внутренней структуры BEBT // 259

11.3 Индекс измерения модели отслеживания // 259

11,3.1;

11.3.2 Используйте w&B Отслеживание времени отслеживает процесс обучения // 263

11, 4 Резюме этой главы // 266

Введение
 

Краеугольный камень в области ИИ, тех инженеров, которые до сих пор одержимы N, RNN предупреждают: сдаться в борьбу и сдаться трансформеру!

За последние два десятилетия исследование по лечению естественного языка претерпела огромные изменения.В течение этого времени обработка естественного языка испытывала различные парадигмы обработки и в конечном итоге вошла в новую эру с магической архитектурой трансформатора.Архитектура глубокого обучения трансформатора генерируется унаследованием многих методов.В различных методах естественного языка на основе нервов архитектура трансформатора постепенно превратилась в внимательную“Кодимер-декодер”Архитектура и непрерывное развитие по сей день.Теперь мы видели новый вариант этой архитектуры в литературе.В настоящее время исследование было обнаружено моделью, которая использует только часть энкодера в архитектуре трансформатора, такую ​​как BERT (двунаправленные представления энкодера от трансформаторов, трансформеров в двухэтажном кодировании); Полем

Эта книга охватывает эти методы естественного языка.Основываясь на библиотеке Transformer в сообществе об объятиях обнимающих лиц, мы можем легко использовать трансформатор слегка.Эта книга постепенно предоставляет решения различных задач обработки естественного языка: от краткого изложения документов до вопросов.Мы увидим, что передовые результаты могут быть достигнуты на основе трансформатора.


Чтение в Интернете
 

;;За последние 20 лет обработка естественного языка прошла через разные парадигмы и в конечном итоге вошла в эру архитектуры трансформатора.Все эти парадигмы помогут пользователям лучше выражать слова и документы, используемые для решения проблем.Распределенная семантика использует векторное описание значения слов или документов и просмотреть распределенные доказательства через набор документов.Векторное представление может решить много проблем в обучении надзора и каналам обучения, не связанного с отсутствием.Для проблем генерации языка, модель N-грамма языка использовалась в качестве традиционного метода в течение многих лет.Тем не менее, в этих традиционных методах есть много недостатков, и в этой главе будут обсуждаться эти недостатки.

;;Эти архитектуры улучшают способность обработки естественного языка и преодолевают ограничения традиционных методов.Тем не менее, эти модели также имеют разные проблемы.Основная причина заключается в том, что трансформатор эффективно улучшает способность многопрофильного языкового и многопрофильного обработки естественного языка).Эти вклад улучшают выполнимость миграционного обучения в обработке естественного языка (перенос; обучение, TL), так что модель может использоваться для разных задач или разных языков.

; Для простоты выберите в качестве краткого примера кода введения, насколько это возможно.

В этой главе будет представлена ​​следующая тема.

(1) Эволюционный процесс обработки естественного языка для трансформатора.

(2) Понять распределенную семантику.

(3) Используйте глубокое обучение.

(4) Transfommer;

(5) в сочетании с трансформатором в миграционном обучении.

1.1 Технические потребности

В этой главе используется Jupyter;

(1);sklearn;

(2) nltk (версия 3.5.0);

(3) генизм (версия 3.8.3);

(4);fasttext;

(5) кера (не менее 2,3,0);

(6) Трансформаторы (не менее 4,0,0).

Вы можете получить все в этой главе, чтобы получить все в этой главе, чтобы практиковать Jobyter;

Sgithub.;

СМИ обзор