НОВИНИ

Голова Microsoft AI каже, що вивчення «свідомості ШІ» є небезпечним, і ось чому

Марія Молдавчук 22 августа 2025, 14:41

Голова Microsoft AI Мустафа Сулейман назвав небезпечним вивчення можливих відчуттів у ШІ. Такі дослідження відволікають від реальних ризиків штучного інтелекту й можуть посилювати емоційну прив’язаність людей до чат-ботів. Про це пише TechCrunch.

Що сталося

Голова Microsoft AI Мустафа Сулейман розкритикував новий напрям досліджень у Кремнієвій долині, відомий як AI welfare — вивчення можливості виникнення у моделей суб’єктивних відчуттів і потенційних «прав ШІ». Він підкреслив, що завдання компаній — створювати технології «для людей, а не як людину».

Позиція Microsoft різко контрастує з підходом інших гравців індустрії. Наприклад, Anthropic запустив спеціальну дослідницьку програму, присвячену темі AI welfare, щоб глибше вивчати можливість появи «свідомості» у моделей.

Свою зацікавленість у темі виявили також OpenAI та Google DeepMind, які активно залучають науковців для дослідження питань когніції та свідомості штучного інтелекту. Це свідчить про зростання уваги до проблематики на найвищому рівні в галузі.

Нагадаємо, у липні ми писали, що Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів.

Больше об этом

01 НОВИНИ

Сем Альтман занепокоєний емоційною залежністю молоді від ChatGPT

Добавить в закладки

Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.