Новости

Найпотужніший ШІ від OpenAI: презентована нова модель GPT-5.4 з функцією “мислення”

Користувачі можуть стежити за "ходом думок" нової моделі ШІ, до того ж вона значно менше помиляється

Сьогодні, 5 березня, OpenAI презентувала нову модель ШІ GPT-5.4, яку називає "найпотужнішою та найефективнішою".

Про це повідомляє РБК-Україна з посиланням на Techcrunch.

Читайте також: Операція "Корм для риб": OpenAI зупинила масштабну фабрику ІПСО Кремля у ChatGPT

Окрім стандартної версії, користувачам доступні варіанти GPT‑5.4 Thinking (для мислення) та GPT‑5.4 Pro (для високої продуктивності).

Версія для розробників здатна одночасно опрацьовувати до мільйона одиниць інформації (токенів) – це найбільший обсяг даних серед усіх продуктів OpenAI.

Модель також стала економнішою: вона виконує ті ж завдання, витрачаючи значно менше ресурсів, ніж її попередня версія.

Крім того, GPT-5.4 показала рекордні результати в тестах на вміння працювати з комп'ютером, а також на рівень загальних знань та виконання професійних завдань

Особливості нової моделі GPT

За словами гендиректора компанії Mercor Брендана Фуді, нова модель стала лідером у тестах на професійні знання в галузях права та фінансів. Також GPT-5.4 стала значно точнішою: вона на 33% рідше помиляється в конкретних фактах і на 18% рідше дає загальні хибні відповіді порівняно з попередньою версією.

OpenAI оновила і технічну частину, додавши функцію Tool Search. Тепер штучний інтелект не завантажує інструкції до всіх інструментів одразу, а шукає потрібні лише за потреби. Це робить роботу системи швидшою та дешевшою.

Окрему увагу приділили безпеці: розробники запровадили перевірку "ходу думок" моделі. Це дозволяє бачити внутрішні міркування ШІ під час виконання складних завдань. Такий контроль потрібен, щоб переконатися, що нейромережа не приховує свою справжню логіку від розробників

"Обман менш ймовірний у Thinking‑версії GPT-5.4, що свідчить про відсутність у моделі здатності приховати свої міркування, а моніторинг ланцюга мислення залишається ефективним інструментом безпеки", – зазначає OpenAI.

Нагадаємо, дослідження показало, що чат-боти на базі штучного інтелекту втрачають надійність та частіше припускаються помилок під час тривалих розмов.

Зокрема, під час виконання однієї команди моделі демонструють успішність у 90%, проте в багатоходових діалогах цей показник падає до 65%. Хоча загальна придатність моделей до роботи знижується лише на 15%, їхня ненадійність зростає на 112%.