Новости
7K

Сбер представил GigaChat 2.0 — новое поколение нейросети

25
Сбер представил GigaChat 2.0 — новое поколение нейросети
Аватар автора

Николай Абатуров

два ядра два гига

Страница автора

В компании называют GigaChat 2.0 сильнейшей нейросетью на русском языке. Пока она доступна только бизнес-клиентам. Расскажу, что изменилось.

Все модели GigaChat получили апгрейд производительности. Как заявляют в Сбере, модели нового поколения обрабатывают в четыре раза больше контекста: максимальный объем запроса вырос с 48 до 200 страниц А4. Всего новых моделей три:

  1. GigaChat 2.0 MAX — самая мощная в линейке.
  2. GigaChat 2.0 Pro — для задач, в которых важны креатив и точность.
  3. GigaChat 2.0 Lite — для решения простых задач.

GigaChat 2.0 в два раза лучше решает рабочие задачи. Модели точнее следуют инструкциям и на 25% лучше отвечают на вопросы, соблюдают условия и отвечают в заданном формате. Производительность GigaChat 2.0 Pro теперь на уровне MAX предыдущего поколения, а GigaChat 2.0 Lite — на уровне прошлой Pro-версии.

Сравнение GigaChat 2.0 MAX с другими ИИ-моделями в ряде бенчмарков 

КатегорияНазвание бенчмаркаGigaChat 2 MAXQwen 2.5 72BLlama 3.3 70BGPT-4oDeepSeek-V3
Общие знанияMMLU (RU)80,4678,3065,0880,0073,74
MMLU (EN)86,0083,8578,5788,7085,24
МатематикаGSM8K95,6895,0792,8795,0094,99
MATH77,2678,7462,8076,6085,48
Работа с кодомHumanEval87,2086,6086,0084,0091,46
Следование инструкциямIFEVAL (RU)83,6284,2775,1280,2484,37
IFEVAL (EN)89,9990,4390,8388,5192,21

Сравнение GigaChat 2.0 MAX с другими ИИ-моделями в ряде бенчмарков 

Общие знания. MMLU (RU)
GigaChat 2 MAX80,46
Qwen 2.5 72B78,30
Llama 3.3 70B65,08
GPT-4o80,00
DeepSeek-V373,74
Общие знания. MMLU (EN)
GigaChat 2 MAX86,00
Qwen 2.5 72B83,85
Llama 3.3 70B78,57
GPT-4o88,70
DeepSeek-V385,24
Математика. GSM8K
GigaChat 2 MAX95,68
Qwen 2.5 72B95,07
Llama 3.3 70B92,87
GPT-4o95,00
DeepSeek-V394,99
Математика. MATH
GigaChat 2 MAX77,26
Qwen 2.5 72B78,74
Llama 3.3 70B62,80
GPT-4o76,60
DeepSeek-V385,48
Работа с кодом. HumanEval
GigaChat 2 MAX87,20
Qwen 2.5 72B86,60
Llama 3.3 70B86,00
GPT-4o84,00
DeepSeek-V391,46
Следование инструкциям. IFEVAL (RU)
GigaChat 2 MAX83,62
Qwen 2.5 72B84,27
Llama 3.3 70B75,12
GPT-4o80,24
DeepSeek-V384,37
Следование инструкциям. IFEVAL (EN)
GigaChat 2 MAX89,99
Qwen 2.5 72B90,43
Llama 3.3 70B90,83
GPT-4o88,51
DeepSeek-V392,21

На русском языке GigaChat 2.0 MAX опережает GPT-4o и DeepSeek-V3. Среди ИИ-моделей новая MAX-версия занимает первое место в бенчмарке MERA для оценки больших языковых моделей для русского языка, а GigaChat 2.0 Pro — второе. При работе на английском языке нейросеть «не уступает мировым лидерам», утверждают в Сбере.

На базе GigaChat 2.0 можно создавать ИИ-агентов, которые способны рассуждать и решать сложные задачи без участия человека. Для этого моделям расширили знания в математике, естественных и гуманитарных науках, программировании.

Линейка GigaChat 2.0 пока доступна только для бизнеса. Ее можно протестировать в облаке через API или развернуть в локальной инфраструктуре компании. Когда модели станут доступны обычным пользователям, неизвестно.

Мы постим кружочки, красивые карточки и новости о технологиях и поп-культуре в нашем телеграм-канале. Подписывайтесь, там классно: @t_technocult

Николай АбатуровЧем пользуетесь чаще, GigaChat или ChatGPT?
    Вот что еще мы писали по этой теме