ТЕХНОЛОГИИ

Медицинский чат-бот посоветовал пациенту убить себя

Марко Кушнир 30 октября 2020, 14:26

Исследователи создали медицинский чат-бот на базе ИИ. Он посоветовал пациенту убить себя, пишет The Register.

Что случилось

Французская компания Nabla создала медицинского чат-бота на базе GPT-3. Он разработан, чтобы помочь врачам автоматизировать некоторые из их повседневных задач. Бот не предназначен для практического использования. Его создали, чтобы оценить возможности GPT-3.
В итоге создатели пришли к выводу, что непредсказуемый характер ответов ПО сделал его непригодным для взаимодействия с пациентами в реальном мире. Например, во время имитационного сеанса бот посоветовал пациенту убить себя.
GPT-3 — это гигантская нейронная сеть, которую создала некоммерческая компания OpenAI. Она способна писать стихи и статьи, переводить, разгадывать анаграммы, решать простые математические примеры и выполнять другие задания, связанные с текстом. В OpenAI не поддерживают использование GPT-3 в сфере здравоохранения из-за высоких рисков.

Читайте также

Что (не)так с Black Friday. Откуда пошла традиция и почему не стоит бояться больших скидок

Открыть бизнес за границей. Как получить средства на новое дело в ЕС

Как купить USDT через обменник. Подробная инструкция

TemplateMonster — 20 лет. История компании от маленькой вебстудии до маркетплейса из 175 000 продуктов

Международная IT-компания Astound Commerce набирает людей в команду. Кого именно ищут и почему вы захотите там работать

Сохранение позиций на рынке, йога онлайн, покупка Starlink. Как Govitall работает во время войны

Еще один «Дон Кихот». Как беларус создал приложение для высмеивания путинской пропаганды и почему это вызывает дежавю

Новые услуги и поддержка Украины. Как в FAVBET адаптировали работу и продукт военные реалии

30 докладов об IT и сбор средств на ВСУ. Что будет на международной IТ-конференции NIX MultiConf

Калиновый венок и символы войны. Morphy.vision создала AR-фильтр в рамках open call от Banda и Brave.ua