OpenAI заявила, що не несе відповідальності за самогубство 16-річного Адама Рейна, і попросила суд відхилити позов його батьків. Про це пише The Independent. Розповідаємо деталі.
Що сталося
У серпні 2025 року батьки 16-річного Адама Рейна подали до суду на OpenAI та Сема Альтмана, звинувативши компанію в причетності до смерті свого сина, який місяцями обговорював із ChatGPT плани самогубства.
За даними The New York Times, підліток користувався платною версією ChatGPT-4o. Модель часто рекомендувала йому звернутися за допомогою до фахівців чи зателефонувати на гарячі лінії, однак Рейн обійшов обмеження, пояснюючи, що збирає інформацію для вигаданої історії.
У відповіді на позов OpenAI попросила суд скасувати справу і заявила, що не несе відповідальності за трагедію. Компанія називає дії підлітка «неправильним та непередбачуваним використанням» моделі й наголошує, що сервіс заборонений для неповнолітніх без згоди батьків, а також не дозволяє використовувати чат-бот у контексті самоушкодження. За даними OpenAI, GPT-4o понад 100 разів направляла підлітка до фахівців та служб підтримки.
OpenAI також посилається на умови користування, де прописані обмеження відповідальності, і вказує, що в хлопця вже були серйозні фактори ризику, не пов’язані з використанням чат-бота. Окремо компанія заявила, що прагне максимально прозоро реагувати на подібні випадки, саме тому після інциденту додала нові інструменти безпеки та батьківського контролю, а GPT-4o пройшла тести на взаємодію з користувачами у кризових станах.
Чому це цікаво
OpenAI вказує, що позов можуть бути заблокованим Section 230 — нормою законодавства США, яка обмежує відповідальність інтернет-платформ за контент. Водночас застосування цього захисту до генеративних моделей, які самостійно створюють відповіді, юридично не визначене, і це може стати ключовим питанням для суду.
Нагадаємо, у жовтні компанія повідомила, що близько 0,15% активних користувачів ChatGPT ведуть розмови, які містять ознаки суїцидальних намірів. З понад 800 млн активних користувачів на тиждень це понад мільйон людей. Ще сотні тисяч демонструють ознаки емоційної залежності від ChatGPT чи мають психотичні стани.
Сем Альтман заявив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, яка викликає в нього занепокоєння.