Введение
Современные проблемы больших генеративных моделей
Что модель в 100 млрд параметров может не помнить?
Почему переобучать LLM дорого и больно?
Откуда берутся галлюцинации?
Что такое RAG (retrieval-augmented generation) и почему сейчас все этим занимаются?
Как мы сделали GigaSearch?
Предпосылки старта проекта
Этапы реализации
Итоговый прирост по качеству
Как попробовать GigaSearch в GigaChat самому?
Что дальше?
Планы развития проекта
Закончил МФТИ ФОПФ.
Работал 6 лет разработчиком C++ в компаниях 3DLiga, Mentor Graphics и Megaputer. Занимался в числе прочего построением производительных алгоритмов для высоконагруженной системы обработки текстовой информации PolyAnalyst™️, тогда же начал заниматься NLP. Автор мобильных приложений: «Победи ЕГЭ 2015», «Цвета и фигуры для малышей», «Gimme Collage».
В компании Iponweb (AdTech) разрабатывал модели предсказания CTR, CVR. Работал с большими данными на кластерах Spark, Hadoop.
В Сбере создал с нуля центр компетенции по обработке документов в банке (NLP) — команду из 6 DS’ов. Автор DL-фреймворка для обработки документов — AutoNER. Сейчас фреймворком пользуются больше 10 DS-команд в Сбере и экосистеме банка.
С начала 2022 года работает в должности Lead Data Scientist в команде SmartNLP Sber. Devices. Команда SmartNLP разрабатывает «мозг» виртуального ассистента Салют. Значительно улучшил качество основной модели NER Салюта. Отвечает за ML-часть проекта GigaSearch.