НОВИНИ

OpenAI каже, що понад 1 млн людей щотижня говорять із ChatGPT про самогубство

Аудіо версія новини

Слухати

OpenAI вперше оприлюднила статистику, яка показує, скільки користувачів звертаються до чат-бота через психологічні проблеми. Про це пише TechCrunch.

Оригінальна дата публікації: 28 жовтня 2025 року.

Що сталося

У серпні цього року, жінка зі США наклала на себе руки після спілкування з ChatGPT, якого вона називала «терапевтом Гаррі». Батьки виявили приховані чати лише через кілька місяців після її смерті. Цього ж місяця у США батьки 16-річного Адама Рейна подали перший відомий позов проти OpenAI. Вони звинуватили компанію у причетності до смерті свого сина, який місяцями обговорював із ChatGPT плани самогубства. За словами батьків підлітка, чат дав поради щодо методів самогубства і навіть допоміг скласти передсмертну записку.

Після цих випадків, у вересні, OpenAI запровадила обмеження для неповнолітніх користувачів ChatGPT. Обмеження зосереджені на темах сексуальної взаємодії та самоушкодження, чат не братиме участі у цих темах з неповнолітніми, а при згадках про самогубство зможе повідомити батьків або правоохоронців. Також батьки отримали можливість встановлювати «години блокування» для облікових записів своїх дітей.

Вчора, 27 жовтня, компанія повідомила, що близько 0,15% активних користувачів ChatGPT мають розмови, які містять ознаки суїцидальних намірів або планів. З понад 800 млн активних користувачів на тиждень це означає більше як мільйон людей. Ще сотні тисяч демонструють ознаки емоційної залежності від ChatGPT чи психотичних станів.

Сем Альтман заявив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, яка викликає в нього занепокоєння. 

Чому це важливо

Компанія визнала, що такі випадки рідкісні, але все ж стосуються великої кількості людей. Щоб покращити реакції чат-бота, команда OpenAI консультувалася з понад 170 психіатрами та фахівцями з ментального здоров’я. За результатами тестування, GPT-5 реагує належним чином на суїцидальні теми у 91% випадків — це на 14% краще, ніж у попередньої моделі.

OpenAI також додає нові внутрішні оцінки для виявлення емоційної залежності та кризових ситуацій у користувачів. Нагадаємо, Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів.

ЧИТАЙТЕ ТАКОЖ

НОВИНИ
Як українці відреагували на дегустацію цукерок Roshen в рекламі Cartier

01 Квітня 2026, 19:00

Клієнт погодив
«Клієнт погодив». Чому компанії комунікують повз аудиторію і що з цим робити — Юлія Петрик, Calibrated, Tech PR School, Planetwide

01 Квітня 2026, 19:00

НОВИНИ
Vector проведе івент, де покажуть реальну кухню комунікацій

01 Квітня 2026, 18:23

Де вектор дефенсу
Rheinmetall виріс на рабській праці та світових війнах, а впав на одному абзаці в The Atlantic. Історія найбільшого зброяра Європи

01 Квітня 2026, 18:00

БІЗНЕС
Чому люди переїжджають у готелі — пояснює CEO краудфандинг-готелю Circle

01 Квітня 2026, 17:00

НОВИНИ
Польська компанія купляє український PINbank

01 Квітня 2026, 16:12

НОВИНИ
Меми на офіційному рівні: українці можуть отримати спеціальний сертифікат від «Дія»

01 Квітня 2026, 14:31

НОВИНИ
Apple — 50: історія компанії через матеріали Vector

01 Квітня 2026, 13:44

НОВИНИ
OpenAI відкриває двері для індивідуальних інвесторів

01 Квітня 2026, 12:03

НОВИНИ
30 нових фіч: Slack перетворюється на повноцінного AI-агента

01 Квітня 2026, 11:00