НОВИНИ

OpenAI каже, що понад 1 млн людей щотижня говорять із ChatGPT про самогубство

Аудіо версія новини

Слухати

OpenAI вперше оприлюднила статистику, яка показує, скільки користувачів звертаються до чат-бота через психологічні проблеми. Про це пише TechCrunch.

Оригінальна дата публікації: 28 жовтня 2025 року.

Що сталося

У серпні цього року, жінка зі США наклала на себе руки після спілкування з ChatGPT, якого вона називала «терапевтом Гаррі». Батьки виявили приховані чати лише через кілька місяців після її смерті. Цього ж місяця у США батьки 16-річного Адама Рейна подали перший відомий позов проти OpenAI. Вони звинуватили компанію у причетності до смерті свого сина, який місяцями обговорював із ChatGPT плани самогубства. За словами батьків підлітка, чат дав поради щодо методів самогубства і навіть допоміг скласти передсмертну записку.

Після цих випадків, у вересні, OpenAI запровадила обмеження для неповнолітніх користувачів ChatGPT. Обмеження зосереджені на темах сексуальної взаємодії та самоушкодження, чат не братиме участі у цих темах з неповнолітніми, а при згадках про самогубство зможе повідомити батьків або правоохоронців. Також батьки отримали можливість встановлювати «години блокування» для облікових записів своїх дітей.

Вчора, 27 жовтня, компанія повідомила, що близько 0,15% активних користувачів ChatGPT мають розмови, які містять ознаки суїцидальних намірів або планів. З понад 800 млн активних користувачів на тиждень це означає більше як мільйон людей. Ще сотні тисяч демонструють ознаки емоційної залежності від ChatGPT чи психотичних станів.

Сем Альтман заявив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, яка викликає в нього занепокоєння. 

Чому це важливо

Компанія визнала, що такі випадки рідкісні, але все ж стосуються великої кількості людей. Щоб покращити реакції чат-бота, команда OpenAI консультувалася з понад 170 психіатрами та фахівцями з ментального здоров’я. За результатами тестування, GPT-5 реагує належним чином на суїцидальні теми у 91% випадків — це на 14% краще, ніж у попередньої моделі.

OpenAI також додає нові внутрішні оцінки для виявлення емоційної залежності та кризових ситуацій у користувачів. Нагадаємо, Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів.

ЧИТАЙТЕ ТАКОЖ

НОВИНИ
Zoom оновлює інструменти для роботи — що нового з’явиться

10 Березня 2026, 19:00

НОВИНИ
50 найкращих веб-продуктів Generative AI — рейтинг a16z

10 Березня 2026, 18:30

НОВИНИ
Meta придбала Moltbook — вірусну соцмережу для AI-агентів

10 Березня 2026, 18:02

НОВИНИ
Nvidia інвестувала в AI-стартап Міри Мураті — деталі

10 Березня 2026, 17:04

НОВИНИ
Угорщина арештувала гроші «Ощадбанку» — і поверне лише за однієї умови

10 Березня 2026, 16:21

НОВИНИ
Модерацію діпфейків Meta розкритикували — що цього разу

10 Березня 2026, 15:10

НОВИНИ
Українські стартапи кличуть на глобальні пітчі: як податися на Latitude59 і SelectUSA

10 Березня 2026, 14:20

БІЗНЕС
Робота у власному ритмі: як METRO перетворили звуки ТЦ на рекрутингову кампанію?

10 Березня 2026, 14:00

НОВИНИ
Співробітники OpenAI та Google підтримали позов Anthropic проти Пентагону 

10 Березня 2026, 13:26

FOMO OFF
ОАЕ під ракетами і все одно привабливі для бізнесу. Що про це варто знати українським підприємцям — розбір юриста

10 Березня 2026, 13:04