НОВИНИ

OpenAI по-тихому оновила свою політику, знявши заборону на використання технології у військових цілях

Юлія Ткач 15 января 2024, 11:15

OpenAI непомітно видалила зі своєї політики використання ChatGPT формулювання, що прямо забороняють використання її технології у військових цілях. Про це пише, зокрема, Mashable.

Що сталося

Днями OpenAI внесла зміни у політику компанії: звідти повністю вилучили попереднє формулювання, яке забороняло «діяльність, що має високий ризик фізичної шкоди», включаючи конкретні приклади «розробки зброї» та «військові та воєнні дії». Тобто, у керівництві з використання технологій OpenAI більше немає заборони на їхнє використання у військовій діяльності. Натомість міститься лише заборона на використання технології, як і її великих мовних моделей (LLM), для «розробки або використання зброї».

Чому це цікаво

Це може вказувати на безпосередню можливість партнерства між OpenAI та оборонними відомствами, які прагнуть використовувати ШІ.

У листопаді 2023 року Міністерство оборони США опублікувало заяву про свою місію сприяти «відповідальному військовому використанню ШІ та автономних систем».

Видання пише, що ШІ вже використовувався американськими військовими в російсько-українській війні й розробці автономних військових машин на базі ШІ. В інших країнах ШІ був інтегрований у системи військової розвідки і наведення, в тому числі в систему ШІ, відому як The Gospel, яка використовується ізраїльськими військами для точного визначення цілей, і, як повідомляється, для зменшення людських жертв під час атак на Газу.

Нагадаємо, у жовтні OpenAI непомітно внесла зміни в «Основні цінності» компанії на сторінці кар’єри — зробили більший акцент на розробці AGI (сильного штучного інтелекту).

Больше об этом

01 НОВИНИ

OpenAI запустили свій магазин ШІ-рішень — як скористатися 

Добавить в закладки

Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.