НОВИНИ

OpenAI запустила публічну платформу для оцінювання безпеки ШІ-моделей

15 Травня 2025, 10:00
2 хв читання
Марія Молдавчук Редакторка стрічки новин
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання

Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

Engadget повідомляє, що OpenAI відкрила нову вебсторінку — «Центр оцінки безпеки», щоб регулярно публікувати дані про продуктивність своїх моделей, розповідаємо деталі.

Що сталося

OpenAI представила «Центр оцінки безпеки» — нову сторінку, яка має забезпечити більшу прозорість у роботі її моделей. На сторінці компанія ділиться результатами оцінювання безпеки моделей, зокрема GPT-4.1–4.5, і планує регулярно її оновлювати.

Ресурс фокусується на чотирьох напрямах: наскільки часто моделі надають неправдиву інформацію, чи створюють шкідливий контент, як точно дотримуються інструкцій та чи вдається користувачам обійти обмеження системи. OpenAI заявляє, що це доповнює її системні картки, які раніше публікувались лише під час запуску нових моделей, і тепер дані оновлюватимуться постійно.

У компанії підкреслюють: «У міру розвитку науки про оцінку штучного інтелекту ми прагнемо поділитися нашим прогресом у розробці більш масштабованих способів вимірювання можливостей та безпеки моделі». OpenAI сподівається, що публікація частини результатів сприятиме загальній прозорості у сфері ШІ.

На сторінці можна побачити окремі розділи для кожної моделі. Проте OpenAI застерігає, що це лише «моментальний знімок», а для повнішої картини слід звертатися до системних карток, технічних оцінок та релізів.

Запуск хабу відбувається на тлі юридичних суперечок: компанію звинувачують у незаконному використанні контенту, захищеного авторським правом. Зокрема, The New York Times стверджує, що OpenAI випадково видалила докази у справі про плагіат проти неї.

Що це означає

Хоча OpenAI позиціює Центр оцінки безпеки як крок до прозорості, критики зазначають, що компанія самостійно проводить тести та вирішує, які результати оприлюднювати. Це означає, що громадськість не має гарантій щодо повноти представлених даних.

Більше про це

01 НОВИНИ

OpenAI додав у пошук ChatGPT функцію покупок 

Додати в закладки

Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

Партнерські матеріали

Мільйон на дрони й мистецький маніфест: як синергія креативників, бізнесу та громади долає глобальні виклики
01 БІЗНЕС
Мільйон на дрони й мистецький маніфест: як синергія креативників, бізнесу та громади долає глобальні виклики
Як зробити креативні тендери прозорими та справедливими: презентація нових правил 16 травня
02 КРЕАТИВ
Як зробити креативні тендери прозорими та справедливими: презентація нових правил 16 травня
Як змінюється ринок праці для молоді: аналітика robota.ua й День кар’єри в КАІ
03 БІЗНЕС
Як змінюється ринок праці для молоді: аналітика robota.ua й День кар’єри в КАІ
Онлайн-конференція про карʼєру в оборонці: що таке Defence Tech і як туди потрапити
04 ТЕХНОЛОГІЇ
Онлайн-конференція про карʼєру в оборонці: що таке Defence Tech і як туди потрапити
Завантаження...