preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          Галюцинації ШІ: OpenAI пояснила, чому ChatGPT помиляється

          08 Вересня 2025, 10:00
          2 хв читання
          Марія Молдавчук Редакторка стрічки новин
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          OpenAI опублікувала дослідження, яке пояснює, чому мовні моделі, зокрема GPT-5 і ChatGPT, створюють хибні твердження. Дослідники вважають, що проблема не лише в навчанні моделей, а й у тому, як їх оцінюють. Про це пише TechCrunch.

          Що сталося

          Нещодавно проводилось дослідження, яке пояснило, чому мовні моделі, зокрема GPT-5 і ChatGPT, створюють неправильні відповіді. Компанія OpenAI назвала галюцинації фундаментальною проблемою великих мовних моделей, яку неможливо повністю усунути. Дослідники навели приклад: запитавши чат-бота про дисертацію та день народження науковця Адама Калая, вони отримали кілька різних відповідей — усі неправильні.

          На думку OpenAI, моделі помиляються не лише через те, що під час навчання вони вчаться передбачати наступне слово, а не відрізняти істину від хибності, а й через неправильну систему оцінювання.

          Сучасні тести винагороджують лише правильні відповіді та заохочують моделей робити здогадки замість того, щоб визнавати «я не знаю». Дослідники пропонують змінити підхід: карати за впевнені помилки більше, ніж за невизначеність, і частково зараховувати відповіді, що виражають сумнів.

          Нагадуємо, раніше ми писали, що Сем Альтман опублікував есе, в якому описав своє бачення розвитку штучного інтелекту. Він вважає, що людство вже на порозі появи суперінтелекту, а ШІ незабаром автоматизує не лише інтелектуальну працю, а й фізичну.

          Більше про це

          01 НОВИНИ

          У 2026 ШІ створюватиме нові ідеї — Сем Альтман поділився черговим прогнозом

          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          Що мотивує креативників у 2025: результати опитування robota.ua
          01 БІЗНЕС
          Що мотивує креативників у 2025: результати опитування robota.ua
          Як подолати кадровий голод і вікову дискримінацію: у Києві відбудеться «WORK DAY» від фонду «Життєлюб»
          02 БІЗНЕС
          Як подолати кадровий голод і вікову дискримінацію: у Києві відбудеться WORK DAY від фонду «Життєлюб»
          «Ментальне здоров’я — це теж зброя»: Repower і New Flame запускають кампанію на підтримку військових медиків
          03 КРЕАТИВ
          «Ментальне здоров’я — це теж зброя»: Repower і New Flame запускають кампанію на підтримку військових медиків
          Експедиція на Антарктиду: як пройшов концептуальний поп-ап від IQOS
          04 КРЕАТИВ
          Експедиція на Антарктиду: як пройшов концептуальний поп-ап від IQOS
          Завантаження...