Чему вы научитесь
- Все вопросы перед оплатой можно задать здесь: 📞 t.me/SOFTMAX19
- Разбираться, как работают RNN и механизм внимания, и почему трансформеры вытеснили рекуррентные сети.
- Разберем вопросы, которые могут задач
- Обучать и улучшать seq2seq-модели на PyTorch с вниманием и teacher forcing.
- Понимать внутреннюю логику трансформеров и LLM, их архитектуру и принципы работы внимания.
- Использовать трансформеры и применять их к своим задачам.
О курсе
Полный курс по LLM и трансформерам с нуля: видеообъяснения, код на PyTorch и реальные проекты. Не сухая теория — а практическое понимание того, с чего зарождался ChatGPT
Для кого этот курс
Этот курс для тех, кто хочет понять и использовать трансформеры на практике, а не просто читать про них.
🧠 Если вы знаете основы Python и немного работали с PyTorch — вы сможете пройти весь путь от RNN с вниманием до применения готовых LLM.
Подойдёт студентам, дата-сайентистам, инженерам и всем, кто хочет разобраться, как устроен ChatGPT “под капотом”.
Начальные требования
-
Базовое владение Python (умение писать простые функции, работать со списками и циклами).
-
Минимальное представление о том, что такое нейросети (что есть “вход”, “выход”, “обучение”).
-
Желательно начальное знакомство с PyTorch, но все ключевые моменты разбираются на видео.
-
Готовность писать и запускать код, экспериментировать и разбираться в результатах.
Преподаватели курса
Как проходит обучение
Видеоразборы (лекции + практика)
Домашка (все разборы домашек открыты, но лучше сначала попробовать самому)
Нагрузка
3 часа в неделю