НОВИНИ

OpenAI каже, що понад 1 млн людей щотижня говорять із ChatGPT про самогубство

Аудіо версія новини

Слухати

OpenAI вперше оприлюднила статистику, яка показує, скільки користувачів звертаються до чат-бота через психологічні проблеми. Про це пише TechCrunch.

Оригінальна дата публікації: 28 жовтня 2025 року.

Що сталося

У серпні цього року, жінка зі США наклала на себе руки після спілкування з ChatGPT, якого вона називала «терапевтом Гаррі». Батьки виявили приховані чати лише через кілька місяців після її смерті. Цього ж місяця у США батьки 16-річного Адама Рейна подали перший відомий позов проти OpenAI. Вони звинуватили компанію у причетності до смерті свого сина, який місяцями обговорював із ChatGPT плани самогубства. За словами батьків підлітка, чат дав поради щодо методів самогубства і навіть допоміг скласти передсмертну записку.

Після цих випадків, у вересні, OpenAI запровадила обмеження для неповнолітніх користувачів ChatGPT. Обмеження зосереджені на темах сексуальної взаємодії та самоушкодження, чат не братиме участі у цих темах з неповнолітніми, а при згадках про самогубство зможе повідомити батьків або правоохоронців. Також батьки отримали можливість встановлювати «години блокування» для облікових записів своїх дітей.

Вчора, 27 жовтня, компанія повідомила, що близько 0,15% активних користувачів ChatGPT мають розмови, які містять ознаки суїцидальних намірів або планів. З понад 800 млн активних користувачів на тиждень це означає більше як мільйон людей. Ще сотні тисяч демонструють ознаки емоційної залежності від ChatGPT чи психотичних станів.

Сем Альтман заявив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, яка викликає в нього занепокоєння. 

Чому це важливо

Компанія визнала, що такі випадки рідкісні, але все ж стосуються великої кількості людей. Щоб покращити реакції чат-бота, команда OpenAI консультувалася з понад 170 психіатрами та фахівцями з ментального здоров’я. За результатами тестування, GPT-5 реагує належним чином на суїцидальні теми у 91% випадків — це на 14% краще, ніж у попередньої моделі.

OpenAI також додає нові внутрішні оцінки для виявлення емоційної залежності та кризових ситуацій у користувачів. Нагадаємо, Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів.

ЧИТАЙТЕ ТАКОЖ

БІЗНЕС
Як український бренд отримав ліцензію Warner Bros. Discovery: досвід команди дерев’яного фентезі-декору Zewood

14 Лютого 2026, 13:09

НОВИНИ
Google визначив 12 критеріїв хорошого керівника — перевірте себе

14 Лютого 2026, 09:00

НОВИНИ
Цей фільм зібрав $636 млн і став №1 на Netflix — що про нього відомо

13 Лютого 2026, 19:00

НОВИНИ
Україна вперше має чемпіона Formula 4 — титул здобув Олександр Бондарев

13 Лютого 2026, 18:24

НОВИНИ
ІТ Арена у Варшаві — то відбудеться чи ні?

13 Лютого 2026, 17:42

НОВИНИ
5 принципів Стіва Джобса, які допомагають не вигоріти на роботі

13 Лютого 2026, 17:20

ТЕХНОЛОГІЇ
Коли ручне управління перестає працювати: як систематизація допомагає уникнути втрат під час зростання — кейс Awarder

13 Лютого 2026, 17:00

НОВИНИ
OpenAI презентувала першу модель на чипах конкурента Nvidia — які результати

13 Лютого 2026, 15:44

НОВИНИ
STARK відкриває R&D-центр в Україні та планує найняти понад 200 спеціалістів — деталі

13 Лютого 2026, 15:04

БІЗНЕС
Соромно соромитись: як Fishka та LOVESPACE заколабились і запустили гейміфікацію «ЛЮБОГРАЙ»

13 Лютого 2026, 14:00