«Справедливый, экологичный и понятный». В ЕС решили, каким должен быть искусственный интеллект
09 April 2019, 11:52
3 мин чтения
Добавить в закладки
Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.
Далее
Завершить
Дмитро КошельникПридумываю темы, редактирую тексты, пишу о компаниях и предпринимателях, придираюсь к фактам.
Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Режим чтения
Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Завершить
Вчера Европейский Союз опубликовал ряд этических принципов для искусственного интеллекта. Их должны придерживаться правительства и компании при разработке ИИ, пишет The Verge.
Что случилось
В Еврокомиссии разработали ряд этических принципов для искусственного интеллекта. Они не помогут избежать появления роботов-убийц, а скорее касаются проблем, которые будут влиять на общество, здравоохранение, образование и потребительские технологии.
В чем суть этических принципов ИИ
Разработкой правил занималась группа из 52 экспертов. Они сформулировали семь требований, которым должны соответствовать будущие системы ИИ:
Содействие и надзор — ИИ не должен нарушать или ограничивать человеческую независимость, манипулировать или принуждать людей к чему-либо. Люди должны иметь возможность вмешиваться и контролировать каждое решение, которое принимает искусственный интеллект.
Техническая надежность и безопасность — ИИ должен быть надежным и устойчивым к кибератакам.
Конфиденциальность и управление данными — персональные данные, которые собирает ИИ, должны быть конфиденциальными и безопасно храниться.
Прозрачность — люди должны понимать и отслеживать решения, которые принимает ИИ.
Разнообразие, отсутствие дискриминации и справедливость — услуги ИИ должны быть доступны всем, независимо от возраста, пола, расы или других особенностей.
Экологическое и социальное благополучие — системы ИИ должны способствовать положительным социальным изменениям и быть экологически ответственными.
Подотчетность — системы ИИ необходимо защитить с помощью существующих методов обеспечения безопасности корпоративной информации. Нужно заранее предупреждать о негативных воздействиях и уязвимостях.
Что будет дальше
Правила не дают конкретики и звучат абстрактно. Например, определение «положительных социальных изменений» сильно отличается в зависимости от конкретного человека и страны. Трактовать каждый из принципов можно по-разному. Эти правила не имеют юридической силы, но в будущем могут стать основой для законодательной базы ЕС. Летом Еврокомиссия привлечет к тестированию этих принципов компании, организации и государственные администрации.