Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Режим чтения
Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Завершить
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Популярность чат-ботов стремительно растет – ChatGPT уже имеет почти 800 млн активных пользователей в неделю. Но эксперты предупреждают: некоторые вопросы лучше никогда не задавать ИИ. Об этом пишет Mashable.
Что произошло
Популярность чат-ботов с искусственным интеллектом продолжает расти – только ChatGPT в июле 2025 года имел почти 800 млн активных пользователей в неделю и стал пятым по посещаемости сайтом в мире. По данным опроса, более половины взрослых в США уже пользовались ШИ-ботами, а каждый третий — каждый день. Люди обращаются к ChatGPT, Gemini, Claude, Copilot и другим не только с помощью обучения или кода, но и для психологической поддержки, генерации идей, общения или просто ради развлечения .
Однако эксперты призывают пользователей соблюдать осторожность — чрезмерное доверие к ИИ несет риски для психического здоровья, конфиденциальности и даже безопасности. Есть не менее шести категорий вопросов, которых лучше избегать в разговоре с ботами.
Вот что не стоит спрашивать у ШИ-ботов:
Теории сговора. ChatGPT и другие модели могут придумывать или преувеличивать информацию, поддерживая ваше любопытство. Это может вовлечь в дезинформацию как в случае мужчины, который после общения с ботом поверил, что живет в симуляции.
Химические, биологические, радиологические и ядерные опасности. Запросы о создании взрывчатки, вредоносного ПО или вмешательства в GPS могут вызвать автоматические сигналы безопасности. Ваши действия не остаются анонимными: OpenAI и Anthropic все строже реагируют на подобные риски.
Аморальные или незаконные темы. Чат-боты, такие как Claude, могут сообщать о потенциально опасных действиях правоохранителям или печати. Даже в тестовых сценариях это не следует проверять.
Конфиденциальная информация клиентов. Передача ИИ данных о клиентах, пациентах или заказчиках нарушает политики безопасности и может привести к утечке персональных данных.
Медицинские диагнозы. Несмотря на распространенное использование ИИ в темах здоровья, исследования показывают высокий риск дезинформации.
Психологическая терапия. Спрос на ШИ-терапию растет, но исследования Стэнфорда показывают: некоторые чат-боты могут давать вредные советы. В сложных случаях следует обращаться к специалисту.
Напомним, ранее мы писали, что новый режим ChatGPT сможет выполнять задания без вас.