OpenAI по-тихому оновила свою політику, знявши заборону на використання технології у військових цілях
OpenAI непомітно видалила зі своєї політики використання ChatGPT формулювання, що прямо забороняють використання її технології у військових цілях. Про це пише, зокрема, Mashable.
Що сталося
Днями OpenAI внесла зміни у політику компанії: звідти повністю вилучили попереднє формулювання, яке забороняло «діяльність, що має високий ризик фізичної шкоди», включаючи конкретні приклади «розробки зброї» та «військові та воєнні дії». Тобто, у керівництві з використання технологій OpenAI більше немає заборони на їхнє використання у військовій діяльності. Натомість міститься лише заборона на використання технології, як і її великих мовних моделей (LLM), для «розробки або використання зброї».
Чому це цікаво
Це може вказувати на безпосередню можливість партнерства між OpenAI та оборонними відомствами, які прагнуть використовувати ШІ.
У листопаді 2023 року Міністерство оборони США опублікувало заяву про свою місію сприяти «відповідальному військовому використанню ШІ та автономних систем».
Видання пише, що ШІ вже використовувався американськими військовими в російсько-українській війні й розробці автономних військових машин на базі ШІ. В інших країнах ШІ був інтегрований у системи військової розвідки і наведення, в тому числі в систему ШІ, відому як The Gospel, яка використовується ізраїльськими військами для точного визначення цілей, і, як повідомляється, для зменшення людських жертв під час атак на Газу.
Нагадаємо, у жовтні OpenAI непомітно внесла зміни в «Основні цінності» компанії на сторінці кар’єри — зробили більший акцент на розробці AGI (сильного штучного інтелекту).
Больше об этом
OpenAI запустили свій магазин ШІ-рішень — як скористатися
Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.