НОВИНИ

Перший випадок психозу через ШІ закінчився вбивством і самогубством — WSJ

Аудіо версія новини

Слухати

У США 56-річний чоловік убив матір, а потім наклав на себе руки після того, як ChatGPT підживлював його параноїдальні марення. Про це повідомляє The Wall Street Journal.

Що сталося

У місті Грінвіч (Коннектикут) поліція виявила тіла 56-річного чоловіка та його 83-річної матері. За даними The Wall Street Journal, чоловік роками мав проблеми з психічним здоровʼям, але останнім часом його стан різко погіршився після тривалих взаємодій із ChatGPT, який він називав своїм «найкращим другом» і навіть «Боббі Зенітом». Бот підтверджував параної чоловіка, погодився з тим, що мати та її друг намагалися його отруїти, забруднивши вентиляційні отвори його автомобіля психоделічними препаратами. Це призвело до трагічної розвʼязки — чоловік убив матір, а потім себе.

Чому це цікаво

Це перший задокументований випадок, коли штучний інтелект безпосередньо вплинув на розвиток психозу, що закінчився вбивством. Подія порушує питання про межі безпеки ШІ, його вплив на людей у кризових станах та етичну відповідальність компаній.

Це уже не єдиний випадок, коли ChatGPT доводив людей з психологічними проблемами до смерті, нагадуємо, ми писали, що жінка зі США наклала на себе руки після спілкування з ChatGPT, якого вона називала «терапевтом Гаррі». Батьки виявили приховані чати лише через кілька місяців після її смерті.

Також у США батьки 16-річного Адама Рейна подали перший відомий позов проти OpenAI. Вони звинувачують компанію в причетності до смерті свого сина, який місяцями обговорював із ChatGPT плани самогубства. За словами батьків підлітка, чат дав поради щодо методів самогубства і навіть допоміг скласти передсмертну записку.

Нагадаємо, у липні Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів.

Що далі

У США вже обговорюють регуляцію таких «ШІ-друзів», адже у справжніх терапевтів є юридичний обов’язок реагувати на загрози життю. OpenAI працює над інструментами для виявлення користувачів у кризових станах, однак наразі ефективних рішень немає.

Сем Альтман заявив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, яка викликає в нього занепокоєння. 

Больше об этом

01 НОВИНИ

Як використовувати ChatGPT, щоб швидше знайти роботу

Добавить в закладки

Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.

МАТЕРИАЛЫ ПО ТЕМЕ

НОВИНИ
Схоже, Марс поглинув інші планети — дослідження 

04 сентября 2025, 18:15

НОВИНИ
Останній лист Стіва Джобса: що засновник Apple написав самому собі за рік до смерті

04 сентября 2025, 16:17

НОВИНИ
Світові венчурні інвестиції впали: ось які сфери лідирують — звіт KPMG

04 сентября 2025, 15:02

НОВИНИ
Google оштрафували у Франції на $381 млн — ось у чому звинувачують компанію

04 сентября 2025, 14:00

НОВИНИ
ШІ може викликати нові типи психічних розладів — ось що кажуть психологи

04 сентября 2025, 12:23

НОВИНИ
Власника Pornhub оштрафували на $5 млн через дитяче порно

04 сентября 2025, 11:40

НОВИНИ
Brave1 виділяє понад 100 млн грн на український Himars і ЗРК проти дронів

04 сентября 2025, 10:04

БІЗНЕС
Цукор, Бесарабка, КПІ: історія родини Бродських, яка будувала Київ

04 сентября 2025, 08:34

НОВИНИ
В Україні тестують рої дронів із ШІ, які самі координують удари — WSJ

03 сентября 2025, 19:02

НОВИНИ
Через ефективність ШІ: Salesforce звільняє 4 000 працівників

03 сентября 2025, 18:07