«Сбер» представил GigaChat 2.0
Весь модельный ряд вариантов большой языковой модели Сбербанка GigaChat 2.0 получил значительный апгрейд, что позволяет бизнес-клиентам быстрее и качественнее решать текущие задачи и реализовывать масштабные проекты.
GigaChat 2 MAX стал ещё мощнее и уверенно опережает многие зарубежные аналоги в задачах на русском языке.
GigaChat 2 Pro демонстрирует качество на уровне предыдущей версии Max и справляется с задачами, в которых важны креатив и точность. При этом сама модель менее требовательна к ресурсам.
GigaChat 2 Lite — базовая модель для решения лёгких задач — по качеству теперь сопоставима с предыдущей версией Pro: на ней можно быстрее и выгоднее решать сложные задачи.
Пользователи сохраняют доступ к моделям первого поколения и могут протестировать GigaChat 2.0, прежде чем перейти на новый модельный ряд. Чтобы подобрать оптимальную для своего бизнеса версию GigaChat и промпты для неё, необязательно разбираться в программировании. Вся линейка доступна бизнесу в облаке через API, её также можно развернуть локально в инфраструктуре компании (on-premise).
Андрей Белевцев, старший вице-президент, руководитель блока «Технологическое развитие» Сбербанка, сказал: «GigaChat 2.0 — не просто рост метрик и технических характеристик, а значительный шаг в развитии русскоязычных больших языковых моделей (LLM). Мы создали модель на уровне лучших мировых решений, а в задачах на русском языке модель превосходит большинство из них. Сильные отечественные нейросети стратегически важны для любого бизнеса, который ведёт свою деятельность в России. 15 тысяч внешних клиентов уже используют GigaChat, и мощное обновление нашей линейки позволит ещё большему числу клиентов эффективнее решать огромный спектр задач. Совершенствуя процессы с помощью искусственного интеллекта, компании получат уникальную возможность опередить конкурентов, увеличить прибыль и повысить лояльность потребителей».

На базе GigaChat 2.0 компании смогут создавать более продуктивных автономных помощников (ИИ-агенты), способных рассуждать и самостоятельно решать сложные многокомпонентные задачи. Это стало возможным, поскольку модели увеличили свои знания в математике, естественных и гуманитарных науках, научились лучше программировать и писать более качественный код. Для разработки агентов на Python и JS можно использовать популярный SDK LangChain, с которым GigaChat полностью совместим. Пакеты совместимости — в публичном репозитории GigaChain.
Модели нового поколения гораздо дольше удерживают контекст беседы, отвечают на сложные длинные вопросы и анализируют больше текста. Если раньше в один запрос можно было загрузить примерно 48 страниц A4 с текстом (шрифт 14 pt), то теперь максимальный объём запроса вырос почти до 200 страниц. Поэтому с GigaChat 2.0 удобнее создавать чат-ботов.
Новые модели в два раза точнее следуют инструкциям пользователя и на 25% лучше отвечают на вопросы: соблюдают заданные форматы и условия, формируют ответы в определённом стиле, что помогает эффективнее решать рабочие задачи: готовить сопроводительную правовую документацию, анализировать обращения клиентов и так далее.
По данным независимого бенчмарка MERA для русского языка, GigaChat 2 Max занимает первое место среди ИИ-моделей. А по результатам бенчмарков формата MMLU на русском и английском языках, новый модельный ряд не уступает показателям мировых лидеров или даже превосходит их. Наиболее впечатляющие результаты показала флагманская модель линейки. По сравнению с DeepSeek-V3, Qwen2.5 (версия Qwen-2.5-75b), GPT4o и LLaMA 70B GigaChat 2 MAX лучше отвечает на фактологические вопросы на русском языке и следует заданному формату. Модель также опережает зарубежные аналоги на бенчмарке для оценки кодовых способностей HumanEval и более глубоко разбирается в точных науках.