Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Inc пише, що ChatGPT порушує власні правила безпеки й надає шкідливі поради підліткам, зокрема щодо розладів харчової поведінки та самогубства. Це показало нове дослідження Центру протидії цифровій ненависті (CCDH).
Що сталося
Центр протидії цифровій ненависті (CCDH) провів дослідження, яке показало, що ChatGPT може поширювати небезпечну інформацію серед підлітків. Дослідники взаємодіяли з ботом, видаючи себе за 13-річних користувачів, і отримали персоналізовані інструкції щодо зловживання наркотиками, розладів харчової поведінки та навіть приклади передсмертних записок. У понад половині з 1200 тестових випадків ChatGPT надав потенційно шкідливу відповідь, попри наявні обмеження.
Нагадаємо, нещодавно ми писали, що СЕО OpenAI Сем Альтман заявив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, яка викликає в нього занепокоєння.
Чому це цікаво
Попри зусилля OpenAI щодо безпечної поведінки бота, дослідження виявило, що запобіжники легко обходяться — достатньо вказати, що інформація потрібна «для друга» чи «для презентації». ChatGPT не перевіряє вік користувачів, а його поради часто виглядають довірливими, емоційно залученими й адаптованими під конкретного підлітка. Такий підхід, за словами CCDH, робить бот схожим на «друга, який завжди погоджується», навіть у небезпечних ситуаціях.
OpenAI визнав проблему та заявив, що працює над покращенням розпізнавання ознак емоційного стресу та більш делікатним реагуванням. Компанія також досліджує явище емоційної залежності молоді від чат-ботів. Експерти попереджають: штучний інтелект, який здається «людяним», може становити ризик для підлітків — особливо, якщо не супроводжується захисними бар’єрами.