preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          ТЕХНОЛОГИИ

          Медицинский чат-бот посоветовал пациенту убить себя

          30 October 2020, 14:26
          1 мин чтения
          Добавить в закладки

          Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.

          Марко
          Марко Кушнир Рассказываю истории людей из украинского и мирового бизнеса в экспериментальных форматах
          Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
          Режим чтения

          Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.

          Исследователи создали медицинский чат-бот на базе ИИ. Он посоветовал пациенту убить себя, пишет The Register.

          Что случилось

          Французская компания Nabla создала медицинского чат-бота на базе GPT-3. Он разработан, чтобы помочь врачам автоматизировать некоторые из их повседневных задач. Бот не предназначен для практического использования. Его создали, чтобы оценить возможности GPT-3.
          В итоге создатели пришли к выводу, что непредсказуемый характер ответов ПО сделал его непригодным для взаимодействия с пациентами в реальном мире. Например, во время имитационного сеанса бот посоветовал пациенту убить себя.
          GPT-3 — это гигантская нейронная сеть, которую создала некоммерческая компания OpenAI. Она способна писать стихи и статьи, переводить, разгадывать анаграммы, решать простые математические примеры и выполнять другие задания, связанные с текстом. В OpenAI не поддерживают использование GPT-3 в сфере здравоохранения из-за высоких рисков.

          Нашли ошибку? Выделите ее и нажмите Ctrl+Enter

          Загрузка...