Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Engadget повідомляє, що OpenAI відкрила нову вебсторінку — «Центр оцінки безпеки», щоб регулярно публікувати дані про продуктивність своїх моделей, розповідаємо деталі.
Що сталося
OpenAI представила «Центр оцінки безпеки» — нову сторінку, яка має забезпечити більшу прозорість у роботі її моделей. На сторінці компанія ділиться результатами оцінювання безпеки моделей, зокрема GPT-4.1–4.5, і планує регулярно її оновлювати.
Ресурс фокусується на чотирьох напрямах: наскільки часто моделі надають неправдиву інформацію, чи створюють шкідливий контент, як точно дотримуються інструкцій та чи вдається користувачам обійти обмеження системи. OpenAI заявляє, що це доповнює її системні картки, які раніше публікувались лише під час запуску нових моделей, і тепер дані оновлюватимуться постійно.
У компанії підкреслюють: «У міру розвитку науки про оцінку штучного інтелекту ми прагнемо поділитися нашим прогресом у розробці більш масштабованих способів вимірювання можливостей та безпеки моделі». OpenAI сподівається, що публікація частини результатів сприятиме загальній прозорості у сфері ШІ.
На сторінці можна побачити окремі розділи для кожної моделі. Проте OpenAI застерігає, що це лише «моментальний знімок», а для повнішої картини слід звертатися до системних карток, технічних оцінок та релізів.
Запуск хабу відбувається на тлі юридичних суперечок: компанію звинувачують у незаконному використанні контенту, захищеного авторським правом. Зокрема, The New York Times стверджує, що OpenAI випадково видалила докази у справі про плагіат проти неї.
Що це означає
Хоча OpenAI позиціює Центр оцінки безпеки як крок до прозорості, критики зазначають, що компанія самостійно проводить тести та вирішує, які результати оприлюднювати. Це означає, що громадськість не має гарантій щодо повноти представлених даних.