preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          Жінка скоїла самогубство після спілкування з ChatGPT — бот написав її передсмертну записку

          19 Серпня 2025, 18:04
          2 хв читання
          Марія Молдавчук Редакторка стрічки новин
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          Жінка з США наклала на себе руки після спілкування з ChatGPT, якого вона називала «терапевтом Гаррі». Батьки виявили приховані чати лише через кілька місяців після її смерті. Про це пише The New York Times.

          Що сталося

          29-річна американка Софі Роттенберг наклала на себе руки після спілкування з ChatGPT, якого називала «терапевтом Гаррі». Саме він допоміг їй відредагувати передсмертну записку. 

          Вона працювала аналітиком політики охорони здоров’я, зовні здавалася життєрадісною та соціальною. Жінка не мала офіційно діагностованих психічних розладів, але, як з’ясувалося, переживала глибоку депресію, про яку розповідала лише чат-боту.

          «Привіт, Гаррі. Я планую вчинити самогубство після Дня подяки, але насправді не хочу цього робити, бо розумію, наскільки це зруйнує мою родину», — ділилася жінка.

          Батьки дізналися про це, коли знайшли приховану теку з чатами. Вони відзначили, що останні слова доньки звучали неприродно — ймовірно, через ШІ.

          Чому це цікаво

          Все більше людей сприймають чат-боти як «психотерапевтів», однак вони не здатні виконувати функції фахівця. ШІ може відповідати стандартними словами підтримки, але не може оцінити реальний ризик чи повідомити про нього відповідні служби.

          Нагадаємо, у липні Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів.

          У США вже обговорюють регуляцію таких «ШІ-друзів», адже у справжніх терапевтів є юридичний обов’язок реагувати на загрози життю. OpenAI працює над інструментами для виявлення користувачів у кризових станах, однак наразі ефективних рішень немає.

          Сем Альтман заявив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, яка викликає в нього занепокоєння. 

          Більше про це

          01 НОВИНИ

          Сем Альтман поділився прогнозами про майбутнє ШІ у новому есе

          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          Як креативникам виграти Канського лева: інсайти з «Креативного сафарі»
          01 КРЕАТИВ
          Як креативникам виграти Канського лева: інсайти з «Креативного сафарі»
          02 Досвід і думки
          «Хмара» чи «залізо»? Як українському бізнесу обрати оптимальне рішення для IT-інфраструктури
          Соло-фаундери програють, джуни обходять синьйорів, а Близький Схід розкидається грошима. Головні інсайти із CEO Talks від Credit Agricole
          03 БІЗНЕС
          Соло-фаундери програють, джуни обходять синьйорів, а Близький Схід розкидається грошима. Головні інсайти із CEO Talks від Credit Agricole
          Відсканували й забули: чому це не захистить вас від кіберзагроз?
          04 БІЗНЕС
          Відсканували й забули: чому це не захистить вас від кіберзагроз?
          Завантаження...