Перейти к основному содержанию

Трансформерные архитектуры в больших языковых моделях (Мамырбаев Оркен) (ICT2032) (2025) (Осень) (Магистратура) (Рус.яз)

Smart LMS
Цель: Изучение и понимание принципов и методов работы трансформерных архитектур в больших языковых моделях.
Содержание курса включают в себя основы теории обработки естественного языка (NLP), изучение архитектуры трансформеров, включая механизм внимания, многоуровневые представления и механизмы обучения. Также рассматриваются современные языковые модели, такие как BERT, GPT и их применение в различных задачах NLP. Практические занятия включают эксперименты с обучением и использованием.

Записаться

Полезная информация

Длительность 4 месяца

Начало обучения: 21 августа 2025 года

Конец обучения: 12 января 2026 года

Записаться