Трансформерные архитектуры в больших языковых моделях (Мамырбаев Оркен) (ICT2032) (2025) (Осень) (Магистратура) (Рус.яз)
Цель: Изучение и понимание принципов и методов работы трансформерных архитектур в больших языковых моделях.
Содержание курса включают в себя основы теории обработки естественного языка (NLP), изучение архитектуры трансформеров, включая механизм внимания, многоуровневые представления и механизмы обучения. Также рассматриваются современные языковые модели, такие как BERT, GPT и их применение в различных задачах NLP. Практические занятия включают эксперименты с обучением и использованием.