Чому штучний інтелект ніколи не зрозуміє ваших почуттів — і це змінює більше, ніж здається — колонка Forbes
Штучний інтелект дедалі частіше “вчиться” розпізнавати людські емоції — з голосу, міміки, поведінки онлайн. Але чи означає це, що він здатен нас розуміти? Журналіст Forbes розбирається, що насправді можуть афективні технології, чим небезпечна ілюзія «машинної емпатії» й чому етика емоційного ШІ — не абстрактна, а цілком реальна проблема. Статтю українською мовою підготувало Бюро перекладів для бізнесу MK:translations. Ми публікуємо адаптований та скорочений переклад.
Штучний інтелект безперечно змінює наше життя, однак довкола нього й досі чимало перебільшень та ілюзій. Одна з найпопулярніших і водночас найнебезпечніших ідей сьогодення — переконання, що машини начебто навчаються розуміти людські почуття й емоції.
Це царина так званих «афективних технологій» (affective computing) — галузі досліджень й розробок в області штучного інтелекту, яка намагається навчити машини розпізнавати, моделювати та навіть передбачати емоційні стани людей. Її мета — допомогти алгоритмам орієнтуватися в складному й часом абсолютно непередбачуваному світі людської психіки.
У теорії все звучить доволі перспективно: емоційно-усвідомлений штучний інтелект мав би зробити цифрові технології кориснішими, доступнішими, а головне — безпечнішими для людини. Але чи справді машина здатна по-справжньому збагнути, що таке емоція? Адже вона не відчуває.
Вона лише аналізує, робить припущення або імітує поведінку на основі обмежених і здебільшого поверхневих моделей людської взаємодії.
Щоправда, це не зупинило компанії від того, щоб вкладати мільярди в розробку інструментів і систем, покликаних розпізнавати наші почуття, відповідати з показною емпатією або навіть — уявіть собі — змушувати нас закохатися в них.
Тож про що насправді йдеться, коли ми говоримо про емоційний штучний інтелект? У світі, де серед головних напрямів застосування генеративного ШІ вже фігурують терапія та компанійські послуги, чи можемо ми довірити таким системам турботу про наш внутрішній світ? Особливо якщо самі вони не здатні відчувати жодних емоцій?
А може, вся ця концепція — не що інше, як вигадка талановитих маркетологів, які намагаються продати нам чергову мрію про «останню межу» — про чутливих, емоційних, майже людських машин? Спробуймо розібратися.
Розуміння штучного емоційного інтелекту
Передусім варто поставити просте запитання: що взагалі означають емоції, коли мова йде про машини? Відповідь, яка відразу розставляє все на свої місця, звучить так: для машин емоції — це просто ще один вид даних.
Афективні технології працюють не з почуттями, а з інформацією про них. Вони вміють виявляти, інтерпретувати та реагувати на ознаки емоційних станів людини. І ця інформація може надходити з різних джерел: записів голосу, аналізу міміки та виразу обличчя за допомогою систем розпізнавання зображень, текстів, які ми пишемо, навіть з того, як ми рухаємо мишкою чи клікаємо по сайту, вибираючи товари в онлайн-магазині.
До таких даних можуть також входити біометричні показники: наприклад, частота серцебиття, температура шкіри чи електрична активність тіла.
Інструменти емоційного штучного інтелекту аналізують закономірності в цих даних і на їхній основі намагаються інтерпретувати або імітувати емоційну взаємодію з людиною. Це може виглядати по-різному: від чат-ботів служби підтримки, які «розпізнають» роздратування клієнта, до автомобільних систем, що відтежують стан водія й реагують на його емоційний фон.
Але емоції — це складне й багатогранне явище, відкрите для найрізноманітніших трактувань. До того ж сприйняття емоцій часто суттєво відрізняється серед розмаїття культур і регіонів світу. Саме тому вкрай важливо, щоб такі сигнали не були неправильно зчитані або спрощено інтерпретовані.
Вважається, що більше даних має застосунок емоційного чи афективного ШІ, тим точніше він може імітувати людські емоції й що вище ймовірність, що він зможе «правильно» реагувати на наш емоційний стан.
Але є одне «але»: одних лише даних недостатньо, щоб машина могла по-справжньому відчувати. Ба більше, дослідження показують, що машини вже сьогодні здатні обробляти інформацію набагато швидше, ніж людський мозок.
Однак це лише швидкість обчислень. Те, що справді відрізняє людину від навіть найдосконаліших нейронних мереж і моделей машинного навчання — це величезна складність нашого мозку. Саме ця складність дає нам здатність не просто аналізувати, а відчувати, співпереживати та розуміти одне одного по-справжньому.
Етика емоційного штучного інтелекту
Це підводить нас до серйозних етичних запитань: чи маємо ми право дозволяти машинам ухвалювати рішення, що можуть впливати на наше життя, якщо самі до кінця не розуміємо, наскільки вони здатні нас зрозуміти?
Скажімо, ми можемо надати машині можливість вплинути на наш емоційний стан — наприклад, змусити нас бути обережними або навіть викликати почуття страху, щоб відвернути від небезпечних наслідків. Але чи зможе ця машина відчути міру? Чи знатиме вона, де межа, за якою попередження вже не захищає, а навпаки — травмує, лякає, залишає психологічний слід?
І чи здатні будуть чат-боти або віртуальні «подруги», «партнери» та «коханці», спеціально створені для симуляції близькості, усвідомити наслідки своєї поведінки, якщо вони почнуть грати на найвразливіших людських почуттях — таких як любов, ревнощі чи сексуальний потяг?
Перебільшення здатності штучного інтелекту розуміти людські емоції — це небезпека, яку не можна ігнорувати.
Наприклад, якщо люди вірять, що штучний інтелект розуміє їх або співпереживає їм більше, ніж це є насправді, то таку довіру не можна вважати цілком усвідомленою.
У такому разі це цілком може вважатися формою маніпуляції — особливо якщо, як часто буває, справжня мета таких систем полягає не в допомозі користувачеві, а в зовсім іншому: підвищити витрати, продовжити залученість, посилити вплив.
Ризики та переваги
Розробка емоційного штучного інтелекту сьогодні — це велика й прибуткова індустрія. Адже такі технології обіцяють створити більш персоналізований, захопливий досвід для користувачів, а також відкрити нові можливості для прогнозування, а подекуди й для маніпулювання людською поведінкою.
Наприклад, такі інструменти, як Imentiv, уже застосовуються в процесах підбору персоналу та навчання — для того, щоб оцінити, як кандидати реагуватимуть на стресові ситуації. А в метро Сан-Паулу було встановлено камери, які відстежували емоційну реакцію пасажирів на рекламу.
Один з найбільш обговорюваних випадків — коли британський оператор залізниць Network Rail нібито передавав відеозаписи пасажирів для аналізу емоцій компанії Amazon, причому без згоди самих людей.
Зростальне поширення таких технологій і потенційна загроза вторгнення в приватне життя (а саме — у наші думки) вже змусили законодавців у деяких країнах ухвалити відповідні заходи. Так, наприклад, Акт Європейського Союзу про штучний інтелект (EU AI Act) забороняє використання ШІ для зчитування емоцій на робочих місцях та в навчальних закладах.
Однією з причин такої заборони є ризик упередженості. Адже дослідження вже показали: здатність алгоритмів точно розпізнавати емоційні реакції залежить від раси, віку та статі людини. Наприклад, у Японії усмішка часто використовується для приховування негативних емоцій — набагато частіше, ніж у багатьох інших культурах.
Це відкриває двері до нових форм дискримінації, які можуть бути зумовлені діями штучного інтелекту. І це — реальна небезпека, яку важливо вчасно побачити та зупинити.
Тонка межа між технологіями та емоціями
Попри те, що цілком очевидно: штучний інтелект не здатен по-справжньому відчувати — ігнорувати наслідки його вміння зчитувати наші емоції було б великою помилкою.
Вже сама ідея, що машини можуть «зазирнути в наш розум» та проаналізувати наші емоційні реакції, справедливо викликає тривогу в багатьох. Це відкриває небезпечні можливості — і можна не сумніватися, що охочі скористатися цим у власних, не завжди благородних цілях, знайдуться дуже швидко.
І все ж варто пам’ятати: афективні технології потенційно здатні стати ключем до створення нових терапевтичних рішень, що допоможуть людям, а також до підвищення ефективності, зручності та безпеки тих сервісів, якими ми користуємося щодня.
Тільки від нас — розробників, законодавців і кожного користувача ШІ — залежить, чи зможемо ми інтегрувати ці нові технології в суспільство з повагою до людини та її прав.
Больше об этом
Що, якби ваше життя залежало від підписки? Розбір «Чорного дзеркала» від футуролога Андрія Длігача
Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.