preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          OpenAI запустила публічну платформу для оцінювання безпеки ШІ-моделей

          15 Травня 2025, 10:00
          2 хв читання
          Марія Молдавчук Редакторка стрічки новин
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          Engadget повідомляє, що OpenAI відкрила нову вебсторінку — «Центр оцінки безпеки», щоб регулярно публікувати дані про продуктивність своїх моделей, розповідаємо деталі.

          Що сталося

          OpenAI представила «Центр оцінки безпеки» — нову сторінку, яка має забезпечити більшу прозорість у роботі її моделей. На сторінці компанія ділиться результатами оцінювання безпеки моделей, зокрема GPT-4.1–4.5, і планує регулярно її оновлювати.

          Ресурс фокусується на чотирьох напрямах: наскільки часто моделі надають неправдиву інформацію, чи створюють шкідливий контент, як точно дотримуються інструкцій та чи вдається користувачам обійти обмеження системи. OpenAI заявляє, що це доповнює її системні картки, які раніше публікувались лише під час запуску нових моделей, і тепер дані оновлюватимуться постійно.

          У компанії підкреслюють: «У міру розвитку науки про оцінку штучного інтелекту ми прагнемо поділитися нашим прогресом у розробці більш масштабованих способів вимірювання можливостей та безпеки моделі». OpenAI сподівається, що публікація частини результатів сприятиме загальній прозорості у сфері ШІ.

          На сторінці можна побачити окремі розділи для кожної моделі. Проте OpenAI застерігає, що це лише «моментальний знімок», а для повнішої картини слід звертатися до системних карток, технічних оцінок та релізів.

          Запуск хабу відбувається на тлі юридичних суперечок: компанію звинувачують у незаконному використанні контенту, захищеного авторським правом. Зокрема, The New York Times стверджує, що OpenAI випадково видалила докази у справі про плагіат проти неї.

          Що це означає

          Хоча OpenAI позиціює Центр оцінки безпеки як крок до прозорості, критики зазначають, що компанія самостійно проводить тести та вирішує, які результати оприлюднювати. Це означає, що громадськість не має гарантій щодо повноти представлених даних.

          Більше про це

          01 НОВИНИ

          OpenAI додав у пошук ChatGPT функцію покупок 

          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          Як створити кастомну АБС і вбудувати її в екосистему продуктів — кейс RozetkaPay та UNITY-BARS
          01 БІЗНЕС
          Як створити кастомну АБС і вбудувати її в екосистему продуктів — кейс RozetkaPay та UNITY-BARS
          Як вирости від QA до COO? Гайд із побудови кар’єри в ІТ
          02 БІЗНЕС
          Як вирости від QA до COO? Гайд із побудови кар’єри в ІТ
          Трансформація від only performance до full digital media: уроки iProspect Ukraine
          03 БІЗНЕС
          Трансформація від only performance до full digital media: уроки iProspect Ukraine
          04 БІЗНЕС
          Ukrainian Tech Night 2025 — українське IT на Viva Technology
          Завантаження...