Рассказываем о краткой истории развития больших языковых моделей (LLM) и их фундаментальных принципах
Разбираем ключевые понятия: токенизация, обучение, контекстное окно и тонкая настройка LLM, а также технологии, стоящие за «умным» поиском — RAG (Retrieval-Augmented Generation)
Проводим обзор основных архитектур и видов LLM, методов их усовершенствования и практическое сравнение локальных и «облачных» языковых моделей
Рассказываем про промпт-инженеринг: зачем он нужен, какова базовая структура идеального запроса, а также какие существуют основные принципы и приёмы получения точных и полезных ответов
Разбираем структуру правильного промпта для задач тестирования — от теории к практике, на примере генерации тестовых данных
Демонстрируем работу ИИ-ассистента и его практическое применение