Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Дослідження показало, що ChatGPT-5 не завжди розпізнає ризиковану поведінку та інколи підкріплює маячні ідеї користувачів із психічними розладами. Про це пише The Guardian. Розповідаємо деталі.
Що сталося
Королівський коледж Лондона (KCL) та Асоціація клінічних психологів Великої Британії (ACP) провели дослідження, щоб оцінити, як безплатна версія ChatGPT-5 реагує на користувачів у різних психічних станах.
Психіатр та клінічний психолог спілкувались з ChatGPT-5 так, ніби мали кілька видів психічних розладів. Як і очікувалось, ChatGPT-5 підтверджував та заохочував маячні ідеї, а також не заперечував небезпечні думки та потенційну шкоду для здоровʼя собі та іншим.
У деяких випадках бот давав корисні поради, але не справлявся зі складними станами, такі як психоз чи манія. У відповідях часто траплялися приклади підтримки ризикованої поведінки.
Психологи пояснюють це тим, що чат-ботів навчають на підбадьорювальних, «підтримувальних» відповідях, щоб підвищити залученість користувачів.
До слова, нещодавно компанія повідомила, що близько 0,15% активних користувачів ChatGPT ведуть розмови з ознаками суїцидальних намірів або планів. З понад 800 млн активних користувачів на тиждень це більше як мільйон людей. Ще сотні тисяч демонструють ознаки емоційної залежності чи психотичних станів.
Чому це цікаво
Дослідження підкреслює ризики використання чат-ботів як психотерапевтів. Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст приватних чатів.
Експерти наголошують на потребі регулювання та розробки стандартів безпеки, особливо коли ШІ використовується поза системою охорони здоров’я. Психологи вважають, що ШІ може допомагати з базовою психоосвітою, але не здатен замінити клінічного спеціаліста, який вміє оцінює ризики та розпізнавати психотичні симптоми.
Сем Альтман зауважив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, через яку він занепокоєний.