ТЕХНОЛОГИИ

Медицинский чат-бот посоветовал пациенту убить себя

Марко Кушнир 30 октября 2020, 14:26

Исследователи создали медицинский чат-бот на базе ИИ. Он посоветовал пациенту убить себя, пишет The Register.

Что случилось

Французская компания Nabla создала медицинского чат-бота на базе GPT-3. Он разработан, чтобы помочь врачам автоматизировать некоторые из их повседневных задач. Бот не предназначен для практического использования. Его создали, чтобы оценить возможности GPT-3.
В итоге создатели пришли к выводу, что непредсказуемый характер ответов ПО сделал его непригодным для взаимодействия с пациентами в реальном мире. Например, во время имитационного сеанса бот посоветовал пациенту убить себя.
GPT-3 — это гигантская нейронная сеть, которую создала некоммерческая компания OpenAI. Она способна писать стихи и статьи, переводить, разгадывать анаграммы, решать простые математические примеры и выполнять другие задания, связанные с текстом. В OpenAI не поддерживают использование GPT-3 в сфере здравоохранения из-за высоких рисков.