filmov
tv
Лекция. Elmo, GPT, BERT
Показать описание
Занятие ведёт Антон Астахов.
---
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
ФПМИ МФТИ
--
План лекции:
0:00 Вступление
3:36 ELMO
18:05 GPT
32:10 BERT
--
---
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
ФПМИ МФТИ
--
План лекции:
0:00 Вступление
3:36 ELMO
18:05 GPT
32:10 BERT
--
Лекция. Elmo, GPT, BERT
14. Глубокое обучение и вообще: трансформеры, BERT, GPT
Языковые модели для чайников: просто и полезно про BERT и GPT | Вебинар 2021-02-18...
СПбГУ -- 2023.10.21 -- Механизмы внимания, Transformer, BERT и GPT
12.1 Глубокое обучение и вообще: автокодировщики, нейросети для графов, fasttext, ELMO...
Transformer, explained in detail | Igor Kotenkov | NLP Lecture (in Russian)
13.1 Deep Learning etc: трансформер, BERT
BERT – универсальный инструмент NLP. Лекция 6 по обработке естественного языка....
Иван Бондаренко: NLU по русски: ELMo vs BERT
Лекция. BERT и его вариации. Masked Language Modelling
Lecture 5.5 ELMo, Word2Vec
What is BERT
ELMo (Deep contextualized word representations)
NLU по-русски: ELMo vs. BERT
Прикладное машинное обучение. Семинар 5. BERT for text classification...
Лекция 7: Трансформеры (Часть 2). GPT. МФК «Нейронные сети и их применение в научных исследованиях»....
Практическое занятие по BERT
Прикладное машинное обучение 5. Context based models. BERT overview
Доп. главы машинного обучения, Карпачёв Н.Е., лекция 4, 26.02.2024...
Lecture 12.3 Famous transformers (BERT, GPT-2, GPT-3)
ELMo(Deep contextualized word representations) explained by Abhilash | NLP | Deep Learning
Руслан Забалуев: BERT в сегментации многостраничных документов...
Aртём Чумаченко — «Как сжать BERT до 2 Мбайт»
Есть ли AGI после GPT? (круглый стол) — Семинар AGI
Комментарии