Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Жінка з США наклала на себе руки після спілкування з ChatGPT, якого вона називала «терапевтом Гаррі». Батьки виявили приховані чати лише через кілька місяців після її смерті. Про це пише The New York Times.
Що сталося
29-річна американка Софі Роттенберг наклала на себе руки після спілкування з ChatGPT, якого називала «терапевтом Гаррі». Саме він допоміг їй відредагувати передсмертну записку.
Вона працювала аналітиком політики охорони здоров’я, зовні здавалася життєрадісною та соціальною. Жінка не мала офіційно діагностованих психічних розладів, але, як з’ясувалося, переживала глибоку депресію, про яку розповідала лише чат-боту.
«Привіт, Гаррі. Я планую вчинити самогубство після Дня подяки, але насправді не хочу цього робити, бо розумію, наскільки це зруйнує мою родину», — ділилася жінка.
Батьки дізналися про це, коли знайшли приховану теку з чатами. Вони відзначили, що останні слова доньки звучали неприродно — ймовірно, через ШІ.
Чому це цікаво
Все більше людей сприймають чат-боти як «психотерапевтів», однак вони не здатні виконувати функції фахівця. ШІ може відповідати стандартними словами підтримки, але не може оцінити реальний ризик чи повідомити про нього відповідні служби.
Нагадаємо, у липні Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів.
У США вже обговорюють регуляцію таких «ШІ-друзів», адже у справжніх терапевтів є юридичний обов’язок реагувати на загрози життю. OpenAI працює над інструментами для виявлення користувачів у кризових станах, однак наразі ефективних рішень немає.
Сем Альтман заявив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, яка викликає в нього занепокоєння.