Прикладное машинное обучение 4. Self Attention. Transformer.

preview_player
Показать описание
Лекция от 27.09.2019
Лектор: Радослав Нейчев

0:00:07 Тест по предыдущей лекции
0:07:20 Напоминание про Attention
0:12:48 Архитектура Transformer'а
0:17:56 Self-Attention
0:40:28 Positional encoding
1:00:30 Layer Normalization

Снимал: Михаил Кревский
Монтировал: Артём Сапожников
Рекомендации по теме
Комментарии
Автор

0:00:07 Тест по предыдущей лекции
0:07:20 Напоминание про Attention
0:12:48 Архитектура Transformer'а
0:17:56 Self-Attention
0:40:28 Positional encoding
1:00:30 Layer Normalization

lectory_fpmi
Автор

Ноутбук отличный и хорошо показывает практику, но теория что из лекции, что из семинара вообще не зашла.
идеальное по моему описание процесса.

rnj
Автор

А оригинальную статью про Positional Encoding кто-нибудь нашел? Формулу я нашел эту только в Attention is all you need.

rnj