Содержание курса
1. Трансформеры
9 уроков
56
31
51м
0
Открытый
1.1
Вступление
↗
25
6
5м 36с
0
Закрытый
1.2
Google переводчик на RNN, это больше не SOTA?
↗
4
3
-
0
Закрытый
1.3
Механизм внимания (attention)
↗
5
3
4м 53с
0
Закрытый
1.4
Механизм самовнимания (self-attention)
↗
5
3
11м 31с
0
Закрытый
1.5
Позиционное кодирование
↗
4
3
13м 2с
0
Закрытый
1.6
Углубляемся в энкодер дальше
↗
3
3
2м 30с
0
Закрытый
1.7
Трансформер (режим обучения)
↗
3
3
8м 16с
0
Закрытый
1.8
Трансформер (режим инференса)
↗
4
4
3м 39с
0
Закрытый
1.9
Трансформер (дополнение)
↗
3
3
6м 30с
0
2. Практика и домашка (PyTorch)
3 урока
7
4
59м
0
Закрытый
2.1
Первая модель seq2seq (практика)
↗
3
1
41м 49с
0
Закрытый
2.2
Решение домашки №1
↗
3
2
9м 59с
0
Закрытый
2.3
Решение домашки №2
↗
1
1
9м 3с
0
3. BERT и токенизация в моделях
3 урока
3
3
20м
0
Закрытый
3.1
Вступление + Задача ЯМ
↗
1
1
2м 49с
0
Закрытый
3.2
Основные алгоритмы токенизации
↗
1
1
4м 54с
0
Закрытый
3.3
Алгоритм BERT
↗
1
1
15м 38с
0