OpenAI представила новую модель ИИ
OpenAI представила новую модель ИИ — GPT-4.5
Новая версия GPT‑4.5 лучше реагирует на подсказки пользователей, что делает ее полезной для письма и программирования. В OpenAI ожидают, что эт модель ИИ будет меньше ошибаться, чем предыдущие
Глава OpenAI Сэм Альтман
Американская компания OpenAI представила новую модель искусственного интеллекта GPT-4.5.
«Мы выпускаем предварительную версию GPT‑4.5— нашей крупнейшей и лучшей модели для чат-бота. <…> GPT‑4.5 улучшает способность распознавать подсказки, устанавливать связи и генерировать творческие идеи без рассуждений»,— говорится в сообщении.
Новая версия лучше реагирует на подсказки пользователей, что делает ее полезной для письма и программирования. В OpenAI ожидают, что GPT-4.5 будет меньше ошибаться, чем предыдущие модели.
Там отметили, что GPT‑4.5— это «пример масштабирования обучения без учителя. Эту модель обучали на суперкомпьютерах Microsoft Azure. Она «обладает более широкими знаниями и более глубоким пониманием мира», что позволит сократить количество галлюцинаций ИИ и сделать ее более надежной.
На прошлой неделе издание The Verge анонсировало выпуск модели чат-бота GPT-4.5 под кодовым названием Orion, она станет последней моделью OpenAI, которая не будет основана на технологии глубоко рассуждения. Ожидается, что GPT-4.5 будет намного мощнее предыдущей модели — GPT-4. Одновременно компания работает над моделью GPT-5, ее анонс запланирован на конец мая.
GPT-4— самая продвинутая на данный момент модель искусственного интеллекта. Она способна обрабатывать запросы в виде картинок и текста, а затем выдавать текстовые ответы. OpenAI представила ее в марте 2023 года. GPT-4 работает на «уровне человека» в различных профессиональных и академических тестах, утверждают разработчики модели. В среднем она набирает в этих тестах 88% и более.
GPT-4 обучали, используя программы состязательного тестирования, а также ChatGPT, что привело к улучшению ее управляемости. Модель по сравнению с предшественником, GPT-3.5, на 82% реже отвечает на запросы о запрещенном контенте и на 40% чаще генерирует корректные ответы. Кроме того, в запросе к нейросети теперь можно задавать стиль ответа, а также назначать ей роль.
Тем не менее модель по-прежнему «галлюцинирует» и иногда ошибается в суждениях. В одном примере чат-бот назвал Элвиса Пресли «сыном актера».
Читайте РБК в Telegram.
No comment