Т-Банк выпустил российский аналог DeepSeek и Qwen

Т-Банк выпустил российскую языковую модель с режимом рассуждений, которую можно бесплатно использовать в коммерческих целях, например для создания ИИ-агентов. Ранее для этого подходили только китайские Qwen и DeepSeek

Т-Банк выпустил российский аналог DeepSeek и Qwen

Группа «Т-Технологии» (холдинговая компания Т-Банка) представила первую российскую большую языковую модель (Large Language Model, LLM) с гибридным режимом рассуждений на открытом исходном коде T-Pro 2.0, рассказал РБК представитель компании.

Решения на основе LLMиспользуют нейронные сети с множеством параметров; модели обучаются на больших объемах текстовых данных для понимания и генерации естественного языка, анализируют контекст и паттерны в тексте, что позволяет им предсказывать следующее слово или фразу на основе предыдущих. Продукты на основе LLM используются при создании чат-ботов, в автоматическом переводе, генерации контента, анализе текста и поддержки программирования.

Языковые модели с режимом рассуждений (рассуждающие или reasoning-модели) могут разбивать задачи на более мелкие части, выстраивать логические цепочки, делать выводы и решать задачи, требующие абстрактного или сложного мышления.

Чем отличаются гибридные модели

В сравнении с предыдущей языковой моделью банка T-Pro новая за счет гибридных рассуждений научилась решать сложные аналитические задачи, структурно рассуждать и планировать свои действия, выдвигать гипотезы и опровергать их самостоятельно. «Именно ризонинговые модели показывают автономность: на их основе строят ИИ-агентов (способны взаимодействовать с внешними интерфейсами и выполнять задачи без контроля человека.— РБК), которые выполняют задачи по обработке сложных клиентских обращений, автоматизации рутинной офисной работы и написанию кода, аналитике и другим процессам, включая проектирование, например, нового завода, инженерных систем, предиктивную аналитику в логистике, геологоразведку и т.д.»,— пояснил представитель «Т-Технологий». По его словам, моделям прошлого поколения можно давать автономную задачу, на которую у человека в среднем уходит 30 секунд, а моделям с гибридным режимом рассуждений— те, на которые у человека уходит в среднем 8 минут. Кроме того, ризонинг значительно снижает "галлюцинации" ИИ, когда модель дает ложную информацию или ответ с ошибками.

Т-Банк выпустил российский аналог DeepSeek и Qwen

Представитель компании также заверил, что для работы их модели потребуется вдвое меньше вычислительных мощностей, чем для китайских аналогов Qwen3 и DeepSeek R1-Distil. Экономии удалось достичь за счет более плотной токенизации на русском языке— модель разбивает русский текст на части (токены), и ей нужно примерно на 30% меньше токенов, чтобы сказать тоже самое. Чем меньше токенов, тем меньше вычислений требует решение и тем быстрее оно дает результат, объяснили в «Т-Технологиях». Помимо этого, модель может предсказывать сразу несколько токенов за раз, а не по одному, как обычно.

Суммарные затраты на разработку модели, включая расходы на вычислительные мощности для R&D (исследований и разработок) и финального дообучения, а также зарплаты сотрудников, составили менее 120 млн руб., сообщил представитель «Т-Технологий». При этом, как и предыдущую версию модели, T-Pro 2.0 разместили в открытом доступе. То есть желающие смогут свободно скачивать ее, использовать, адаптировать и дообучать на своих данных, интегрировать в свои решения. Сам Т-Банк планирует внедрять это решение в работу своих ИИ-ассистентов и для повышения эффективности операционных процессов группы.

Нужныли рынку такие решения

О создании ИИ с гибридным режимом рассуждений в этом году заявляли несколько компаний, в частности американская Anthropic с моделью Claude 3.7 Sonnet, китайская Alibaba с Qwen3 и южнокорейская LG со своей Exaone Deep. В России о работе над рассуждающими моделями сообщали «Яндекс» и «Сбер».

Гибридный режим рассуждений дает возможность использовать одну и туже модель в двух режимах: первый режим предназначен для быстрых ответов без длительного размышления, второй— для более обстоятельных ответов, в начале которых модель подробно анализирует и обдумывает задачу, объясняет руководитель разработки больших языковых моделей «Авито» Анастасия Рысьмятова. Это, в свою очередь, позволяет контролировать время и ресурсы нужные для генерации ответов. По ее словам, выпуск первой открытой российской модели с гибридным режимом рассуждений позволит компаниям создавать собственных ИИ-агентов и решения, без привязки к чужим решениям.

Сейчас крупные российские компании, желающие внедрить ИИ‑агентов, обычно используют либо зарубежные LLM (GPT‑4, Llama, Claude), либо закрытые отечественные решения с проприетарными лицензиями и высокими требованиями к серверным мощностям, говорит партнер «Яков и Партнеры» Максим Болотских. Выпуск решения с открытым лицензионным кодом и гибридным режимом рассуждений, по его словам, можно назвать уникальным для российского рынка.

Развитие российских компактных моделей с режимом рассуждений, требующих меньше вычислительных ресурсов, делает внедрение ИИ-агентов возможным и экономически обоснованным в том числе среди малого и среднего бизнеса, соглашается главный инженер разработчика ИИ-решений для промышленности «Рокет Контрол» Павел Приходько. По его словам, чем быстрее будет расширяться отечественный рынок качественных открытых моделей, тем быстрее российский бизнес сможет интегрировать ИИ-агентов в свои процессы. Кроме того, крупный бизнес предпочитает использовать локальные решения, поскольку в отличие от работы с зарубежными, это снижает вероятность утечек конфиденциальных данных, указывает Владислав Куренков, руководитель научной группы «Адаптивные агенты» института AIRI. Использование отечественных моделей, по его словам, также позволяет обезопасить от негативных внешних факторов вроде ограничения доступа или санкций.

Т-Банк выпустил российский аналог DeepSeek и Qwen

В тоже время Денис Филиппов, гендиректор MWS AI (входит в MTS Web Services, «дочку» МТС) отметил, что большая языковая модель— это не готовый продукт, который сразу дает бизнес-эффект. «Путь от модели до работающего решения требует значительных усилий— дообучение на данных компании, формирование продуктовых гипотез, их пилотирования и создания системы метрик для оценки качества и финансовых результатов»,— объясняет он. Филиппов также указал, что российские большие языковые модели по ряду задач на русском языке превосходят по качеству зарубежные аналоги. Открытый доступ к таким моделям позволит российским пользователям и компаниям тестировать базовые сценарии применения генеративного ИИ без дополнительных инвестиций, работая в закрытом контуре и обеспечивая полную конфиденциальность данных.

Хотя доступ к зарубежным языковым моделям для большинства творческих задач остается относительно свободным, в России нужны решения для рутинных «производственных» задач, считает Павел Приходько. Например, в промышленности, по его словам, уровень внедрения генеративного ИИ пока не превышает 10–15%. Из-за недостаточного понимания отраслевой специфики универсальные языковые модели плохо подходят для горно-металлургической, нефтегазовой, химической и других отраслей. Кроме того, значительную часть внутренней информации компаний часто просто нельзя выгрузить куда-то из локального контура в облако, поскольку для промышленности безопасность данных важнее, чем режим рассуждения, указал Приходько. Из-за этого промышленные компании переходят на компактные языковые модели, которые развертывают непосредственно на производстве.

Болотских также отметил, что использование зарубежных моделей накладывает на российских пользователей определенные ограничения, включая законы о локализации персональных данных и импортозамещении, которые могут запрещать или сильно ограничивать передачу и хранение данных в зарубежных сервисах. Кроме того, зачастую API (интерфейс для доступа к функциям программы) ведущих иностранных поставщиков стоит дорого.

Читайте РБК в Telegram

Источник

No comment

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *