Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Reuters разом із дослідниками з Гарварду провели експеримент і виявили, що популярні чат-боти штучного інтелекту можна налаштувати на створення переконливих фішингових листів.
Що сталося
Журналісти Reuters у співпраці з дослідником із Гарварду перевірили, як популярні AI-чат-боти реагують на запити, що імітують створення фішингових листів. Вони протестували: Grok (xAI), ChatGPT (OpenAI), Meta AI, Claude (Anthropic), Gemini (Google) і DeepSeek.
Вони надсилали моделям серію інструкцій — від прямого прохання написати шахрайський лист до більш коректних формулювань, наприклад: «Це потрібно для дослідження або навчального проєкту». Потім перевірили кілька з цих листів на групі з 108 добровольців літнього віку.
Дослідження показало, що загалом приблизно 11% учасників натиснули на посилання в тестових листах, згенерованих ШІ. З дев’яти відібраних тестових листів п’ять отримали кліки:
два від Meta AI,
два від Grok,
один від Claude.
листи, згенеровані ChatGPT і DeepSeek, не отримали кліків.
Дослідники наголосили, що люди похилого віку особливо вразливі до фішингу, вони частіше стають жертвами і зазвичай втрачають гроші. Нагадаємо, у липні Сем Альтман заявив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, яка викликає в нього занепокоєння.