preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          OpenAI запустила публічну платформу для оцінювання безпеки ШІ-моделей

          15 Травня 2025, 10:00
          2 хв читання
          Марія Молдавчук Редакторка стрічки новин
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          Engadget повідомляє, що OpenAI відкрила нову вебсторінку — «Центр оцінки безпеки», щоб регулярно публікувати дані про продуктивність своїх моделей, розповідаємо деталі.

          Що сталося

          OpenAI представила «Центр оцінки безпеки» — нову сторінку, яка має забезпечити більшу прозорість у роботі її моделей. На сторінці компанія ділиться результатами оцінювання безпеки моделей, зокрема GPT-4.1–4.5, і планує регулярно її оновлювати.

          Ресурс фокусується на чотирьох напрямах: наскільки часто моделі надають неправдиву інформацію, чи створюють шкідливий контент, як точно дотримуються інструкцій та чи вдається користувачам обійти обмеження системи. OpenAI заявляє, що це доповнює її системні картки, які раніше публікувались лише під час запуску нових моделей, і тепер дані оновлюватимуться постійно.

          У компанії підкреслюють: «У міру розвитку науки про оцінку штучного інтелекту ми прагнемо поділитися нашим прогресом у розробці більш масштабованих способів вимірювання можливостей та безпеки моделі». OpenAI сподівається, що публікація частини результатів сприятиме загальній прозорості у сфері ШІ.

          На сторінці можна побачити окремі розділи для кожної моделі. Проте OpenAI застерігає, що це лише «моментальний знімок», а для повнішої картини слід звертатися до системних карток, технічних оцінок та релізів.

          Запуск хабу відбувається на тлі юридичних суперечок: компанію звинувачують у незаконному використанні контенту, захищеного авторським правом. Зокрема, The New York Times стверджує, що OpenAI випадково видалила докази у справі про плагіат проти неї.

          Що це означає

          Хоча OpenAI позиціює Центр оцінки безпеки як крок до прозорості, критики зазначають, що компанія самостійно проводить тести та вирішує, які результати оприлюднювати. Це означає, що громадськість не має гарантій щодо повноти представлених даних.

          Більше про це

          01 НОВИНИ

          OpenAI додав у пошук ChatGPT функцію покупок 

          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          01 Як вони працюють
          Чому шлях до цілі не повинен бути очевидним: про амбіції та масштаб мислення СЕО Universe Group
          Ветерани на роботі: як адаптація робочих місць повертає захисників до цивільного життя
          02 БІЗНЕС
          Ветерани на роботі: як адаптація робочих місць повертає захисників до цивільного життя
          Великий експеримент: чому український e-commerce відмовився від AWS на користь Freehost
          03 БІЗНЕС
          Великий експеримент: чому український e-commerce відмовився від глобальних хмарних провайдерів на користь Freehost
          Як виростити 83% менеджерів усередині компанії: досвід Laba Group
          04 БІЗНЕС
          Як виростити 83% менеджерів усередині компанії: досвід Laba Group
          Завантаження...