preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          Галюцинації ШІ: OpenAI пояснила, чому ChatGPT помиляється

          08 Вересня 2025, 10:00
          2 хв читання
          Марія Молдавчук Редакторка стрічки новин
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          OpenAI опублікувала дослідження, яке пояснює, чому мовні моделі, зокрема GPT-5 і ChatGPT, створюють хибні твердження. Дослідники вважають, що проблема не лише в навчанні моделей, а й у тому, як їх оцінюють. Про це пише TechCrunch.

          Що сталося

          Нещодавно проводилось дослідження, яке пояснило, чому мовні моделі, зокрема GPT-5 і ChatGPT, створюють неправильні відповіді. Компанія OpenAI назвала галюцинації фундаментальною проблемою великих мовних моделей, яку неможливо повністю усунути. Дослідники навели приклад: запитавши чат-бота про дисертацію та день народження науковця Адама Калая, вони отримали кілька різних відповідей — усі неправильні.

          На думку OpenAI, моделі помиляються не лише через те, що під час навчання вони вчаться передбачати наступне слово, а не відрізняти істину від хибності, а й через неправильну систему оцінювання.

          Сучасні тести винагороджують лише правильні відповіді та заохочують моделей робити здогадки замість того, щоб визнавати «я не знаю». Дослідники пропонують змінити підхід: карати за впевнені помилки більше, ніж за невизначеність, і частково зараховувати відповіді, що виражають сумнів.

          Нагадуємо, раніше ми писали, що Сем Альтман опублікував есе, в якому описав своє бачення розвитку штучного інтелекту. Він вважає, що людство вже на порозі появи суперінтелекту, а ШІ незабаром автоматизує не лише інтелектуальну працю, а й фізичну.

          Більше про це

          01 НОВИНИ

          У 2026 ШІ створюватиме нові ідеї — Сем Альтман поділився черговим прогнозом

          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          01 БІЗНЕС
          Коли банк не пропускає гроші: як підприємцям робити безпечні та легальні перекази за кордон?
          02 КРЕАТИВ
          «Майбутнє вдома»: savED збирає кошти на безпечний освітній простір для дітей Сумщини
          Favbet Tech увійшов у «Топ-50 IT-компаній України» за версією DOU та показав найбільший приріст команди
          03 БІЗНЕС
          Favbet Tech увійшов у «Топ-50 IT-компаній України» за версією DOU та показав найбільший приріст команди
          У США скасовують безмитний поріг у $800: що це означає для відправлень з України
          04 Як це працює
          У США скасовують безмитний поріг у $800: що це означає для відправлень з України
          Завантаження...