НОВИНИ

OpenAI каже, що понад 1 млн людей щотижня говорять із ChatGPT про самогубство

Аудіо версія новини

Слухати

OpenAI вперше оприлюднила статистику, яка показує, скільки користувачів звертаються до чат-бота через психологічні проблеми. Про це пише TechCrunch

Що сталося

У серпні цього року, жінка зі США наклала на себе руки після спілкування з ChatGPT, якого вона називала «терапевтом Гаррі». Батьки виявили приховані чати лише через кілька місяців після її смерті. Цього ж місяця у США батьки 16-річного Адама Рейна подали перший відомий позов проти OpenAI. Вони звинуватили компанію у причетності до смерті свого сина, який місяцями обговорював із ChatGPT плани самогубства. За словами батьків підлітка, чат дав поради щодо методів самогубства і навіть допоміг скласти передсмертну записку.

Після цих випадків, у вересні, OpenAI запровадила обмеження для неповнолітніх користувачів ChatGPT. Обмеження зосереджені на темах сексуальної взаємодії та самоушкодження, чат не братиме участі у цих темах з неповнолітніми, а при згадках про самогубство зможе повідомити батьків або правоохоронців. Також батьки отримали можливість встановлювати «години блокування» для облікових записів своїх дітей.

Вчора, 27 жовтня, компанія повідомила, що близько 0,15% активних користувачів ChatGPT мають розмови, які містять ознаки суїцидальних намірів або планів. З понад 800 млн активних користувачів на тиждень це означає більше як мільйон людей. Ще сотні тисяч демонструють ознаки емоційної залежності від ChatGPT чи психотичних станів.

Сем Альтман заявив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, яка викликає в нього занепокоєння. 

Чому це важливо

Компанія визнала, що такі випадки рідкісні, але все ж стосуються великої кількості людей. Щоб покращити реакції чат-бота, команда OpenAI консультувалася з понад 170 психіатрами та фахівцями з ментального здоров’я. За результатами тестування, GPT-5 реагує належним чином на суїцидальні теми у 91% випадків — це на 14% краще, ніж у попередньої моделі.

OpenAI також додає нові внутрішні оцінки для виявлення емоційної залежності та кризових ситуацій у користувачів. Нагадаємо, Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів.

ЧИТАЙТЕ ТАКОЖ

НОВИНИ
Новий кіберзахист для macOS: українська MacPaw представила Moonlock

28 Жовтня 2025, 17:28

НОВИНИ
СЕО Zoom заявив, що ШІ скоротить робочий тиждень — ось як

28 Жовтня 2025, 16:30

НОВИНИ
Нацбезпека під загрозою: Рада економічної безпеки оприлюднила позицію щодо купівлі «Київстаром» GigaCloud

28 Жовтня 2025, 15:45

КРЕАТИВ
Не революція, а еволюція: чому hotline.finance оновив айдентику

28 Жовтня 2025, 14:00

НОВИНИ
Grokipedia Ілона Маска виявилася копією Wikipedia — частина статей дослівно переписана

28 Жовтня 2025, 12:15

НОВИНИ
Конкурент Nvidia: Qualcomm створює власні ШІ-чіпи для дата-центрів

28 Жовтня 2025, 11:25

БІЗНЕС
Банки стають tech, Дональд Трамп запитує про кадри, а студенти — головна ставка на відбудову. Головне з PolyTECH Summit від Credit Agricole

28 Жовтня 2025, 11:00

НОВИНИ
Схоже, це найбільше звільнення з 2022 року — Amazon скоротить 30 000 працівників

28 Жовтня 2025, 10:10

FOMO OFF
Хто він, найбільш зневажений технокерівник Нью-Йорка, і за що його хейтять — колонка The Atlantic

28 Жовтня 2025, 08:32

Що за шум
«У мене хочуть віджати бізнес». В українському Releаf Paper конфлікт у керівництві — куди він веде бізнес

27 Жовтня 2025, 19:55