ТЕХНОЛОГІЇ

Як державі варто регулювати ШІ — 5 ефективних шляхів

17 Серпня 2023, 09:00
11 хв читання
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
Додати в закладки

Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

dmitriy-koshelnik
Дмитро Кошельник Придумую теми, редагую тексти, пишу про компанії і підприємців, чіпляюся до фактів.
Як державі варто регулювати ШІ — 5 ефективних шляхів
Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання

Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

Хайп довкола ШІ гостро поставив питання щодо регулювання подібних інструментів. Проте уряди поки не надто просунулися в цьому напрямку. Асистуючий редактор The Atlantic Маттео Вонг поспілкувався з експертами та сформулював п’ять шляхів, які дозволять ефективно регулювати ШІ. Ми підготували скорочений та адаптований переклад його матеріалу. 

Чому нерегульований ШІ це проблема 

У квітні юристи авіакомпанії Avianca помітили дещо дивне. Роберт Мата подав до суду на компанію, стверджуючи, що під час польоту візок для обслуговування серйозно травмував його ліве коліно. Мата посилався в позові на кілька подібних справ. Проте, схоже, їх просто не існувало. Суддя також не зміг їх перевірити. Виявилося, що ChatGPT вигадав ці випадки — сфабрикував імена та рішення. 

Один з адвокатів Мати, Стівен  Шварц, використовував чатбота як асистента. Це був його перший досвід застосування програми для юридичних досліджень. За словами Шварца, він не знав, що згенерований ChatGPT контент може бути неправдивим.

Цей інцидент — один із багатьох випадків, коли генеративний ШІ поширював неправду. Технологічні компанії активно просувають свої ШІ-продукти та потенційно отримують величезні прибутки. Водночас вони не несуть практично жодної відповідальності за реальну шкоду, яку можуть заподіяти їхні розробки. Тепер уряд США намагається виправити ситуацію.

Наприкінці минулого місяця адміністрація Байдена оголосила, що сім технологічних компаній, які перебувають на передовій розробки ШІ, погодилися взяти на себе низку добровільних зобов’язань. Вони мають на меті зробити свої продукти безпечними, надійними та точними. У заяві OpenAI, Microsoft, Google, Meta та інші компанії пообіцяли піддавати розробки сторонньому тестуванню, інвестувати в зниження рівня упередженості та надавати більш прозору інформацію щодо можливостей і обмежень своїх ШІ-систем.

Проте це лише обіцянка, без механізмів реалізації та деталей щодо наступних кроків. Регулювання ШІ потребує бюрократичного апарату, який би взявся за сумнозвісні секретні компанії та технології, що стрімко розвиваються. 

Дії уряду будуть вкрай важливими для захисту життя й засобів до існування людей — не тільки від злих суперінтелектуальних машин в майбутньому, але й від повсякденних загроз.

Генеративний ШІ вже продемонстрував грубі упередження та потенціал для зловживань. Також уже понад 10 років менш просунуті, але так само непрозорі та часто дискримінаційні, алгоритми використовуються для перевірки резюме, визначення кредитного рейтингу, в діагностичному ПЗ та інструментах розпізнавання облич.

Я поспілкувався з низкою експертів і склав список з п’яти найефективніших шляхів, якими уряд може регулювати ШІ.

Не вірте на слово компаніям у сфері ШІ

Препарат для хімієтерапії повинен показати ефективність для онкохворих в ході клінічних випробувань. Наприклад, зменшення пухлини. Потім він має отримати схвалення Управління з продовольства і медикаментів США (FDA). Також його виробник повинен розкрити побічні ефекти, які можуть виникнути у пацієнтів.

Для ШІ-продуктів такої відповідальності не існує. Численні технологічні компанії критикують за те, що вони спотворюють інформацію про упередженість або ефективність своїх алгоритмів, а ще практично не надають даних, на підставі яких їх можна було б оцінити.

Президентка Центру демократії та технологій Александра Гівенс вважає, що важливим першим кроком стане обов’язкове тестування інструментів штучного інтелекту третьою стороною, щоб переконатися, чи вони відповідають узгодженим показникам упередженості, точності та інтерпретованості.

Компанії можуть змусити розкривати інформацію про те, як вони навчали свої рішення, як пом’якшують потенційну шкоду та про обмеження ПЗ.

Наприклад, аудит охоплюватиме перевірку, як часто програма неправильно розпізнає чорні та білі обличчя або чи асоціюють чатботи певні професії зі стереотипними гендерними ролями. Усі експерти, з якими я спілкувався, погодилися, що самі технологічні компанії не повинні мати можливості оголошувати свої продукти безпечними.

Хоча численні пропозиції наразі передбачають проведення перевірки постфактум, інші закликають починати оцінку безпеки набагато раніше. На думку дослідниці з Каліфорнійського університету в Лос-Анджелесі Сафії Ноубл, потенційно високі ставки в застосуванні ШІ означають, що перш ніж вивести продукт на ринок, компанії повинні довести — він не шкідливий.

Нам не потрібен департамент штучного інтелекту

Для проведення базових оцінок і розкриття інформації про системи штучного інтелекту не потрібно створювати новий урядовий орган. Хоча деякі керівники технологічних компаній закликають саме до цього.

Чинні закони застосовуються до багатьох сфер використання ШІ: терапевтичні боти, автоматизовані фінансові помічники, пошукові системи, що обіцяють правдиві відповіді. 

Своєю чергою, відповідні федеральні відомства мають експертизу для забезпечення їхнього дотримання. Наприклад, FDA може оцінити та схвалити терапевтичного бота як медичний пристрій. Александра Гівенс вважає, що створення спеціалізованого агентства може призвести до втрати найважливішого аспекту оцінки алгоритму — контексту, у якому він використовується, та впливу на конкретні спільноти.

Новий департамент з питань ШІ може наразитися на ризик регуляторного захоплення Коли орган просуває політичну та економічну вигоду груп інтересів, що домінують у галузі або індустрії, регулюванням якої він і займається. . Тобто великі компанії, що займаються розробкою ШІ, найматимуть персонал, консультуватимуть та лобіюватимуть агентство. Замість цього експерти хотіли б бачити збільшення фінансування для департаментів, що існують. Це потрібно для найму персоналу та розвитку експертизи в галузі ШІ. 

Білий дім може показати приклад

Розробка далекосяжного законодавства для регулювання ШІ може зайняти роки і зіткнутися з оскарженням у суді з боку технологічних компаній. Інший, можливо, швидший спосіб полягає в тому, щоб федеральний уряд подавав приклад з моделями ШІ, які використовує та підтримує в дослідженнях, а також з даними про фінансування, яке виділяє.

Наприклад, на початку цього року федеральна робоча група рекомендувала уряду виділити $2,6 млрд на фінансування досліджень та розробок у галузі ШІ. Кожну компанію, яка сподівається отримати доступ до цих ресурсів, можна змусити відповідати низці стандартів. Це може призвести до їхнього прийняття в масштабах всієї галузі. 

Уряд також сам є великим покупцем і користувачем ШІ, а тому може вимагати від постачальників проводити аудит та публікувати звіти про прозорість. Гівенс вважає:

«Найбільше, що може зробити адміністрація Байдена, — ввести обов’язкову політику, згідно з якою ШІ можна купувати, розробляти та використовувати лише після того, як він пройде ретельне тестування на безпеку, ефективність, недискримінацію та захист приватності людей».

ШІ потребує захисту від несанкціонованого використання

ШІ може за лічені секунди створити фейкові зображення, відео та інший контент. Його вже використовували для поширення дезінформації та в порно. З цим теж потрібно щось робити. Так, оголошені в липні добровільні зобов’язання компаній містять розробку водяного знаку. Він повідомлятиме користувачам, що вони взаємодіють з контентом, створеним ШІ. 

Проте формулювання розмиті, а подальші кроки незрозумілі. Багатьма існуючими методами нанесення водяних знаків легко маніпулювати, також можна просто прибрати відповідну відмітку. Надійніший підхід — реєстрація того, де, коли і як створили ШІ-контент, а також зазначення кожного редагування, якого він зазнав. Такі компанії, як Adobe, Microsoft та Sony, уже працюють над впровадженням подібного стандарту.

Виконавчий директор правозахисної організації Witness Сем Грегорі вважає, що державні стандарти маркування згенерованого ШІ контенту повинні застосовуватися всіма в ланцюжку постачання — від авторів моделей перетворення тексту в зображення до розробників застосунків та браузерів. 

Створюйте способи, щоб люди могли захистити свою роботу від ШІ.

Наразі триває кілька гучних судових процесів, у яких моделі ШІ (такі як ChatGPT та Midjourney) звинувачуються в крадіжці робіт письменників і художників. Інтелектуальна власність стала центральним питанням у дебатах щодо генеративного ШІ. Йдеться про два основні типи порушення авторських прав:

  • використання зображення, тексту та інших даних, на яких навчаються моделі;
  • зображення та текст, які вони видають користувачам.

За словами Деніела Жервейса, професора права Університету Вандербільта, твердження про те, що моделі генеративного ШІ порушують закон про авторське право, можуть зіштовхнутися з проблемами в суді. Створення копій зображень, статей, відео тощо в інтернеті для розробки навчального набору даних, імовірно, підпадає під поняття «добросовісного використання». Причина — навчання ШІ-моделі на матеріалі істотно трансформує його.

Також юристам може бути складно довести, що результат роботи ШІ не просто схожий на конкретний твір, а є його копією.

Жервейс вважає, що угоди між правовласниками та розробниками ШІ вдасться досягнути раніше, ніж введення правових норм. Наприклад, у ЄС збираються зробити так, щоб художники та письменники могли відмовитись від використання їхніх творів для навчання ШІ. Такий підхід здатний стимулювати угоди, які відповідатимуть інтересам як митців, так і Кремнієвої долини. 

Іншим можливим варіантом може стати ще більш суворий стандарт надання згоди. Він вимагатиме від будь-якого власника матеріалів, захищених авторським правом, надавати явний дозвіл на використання їхніх даних. 

Замість висновків

Лише деякі з цих заходів будуть вжиті (якщо це взагалі станеться). Вони стикаються з численними практичними, політичними та юридичними перешкодами, не останньою з яких є потужна лобістська рука Кремнієвої долини. Також лише регулювання недостатньо, щоб зупинити негативний вплив технологій на життя людей. ШІ рясніє порушеннями приватності, монополістичними бізнес-практиками та поганим ставленням до працівників.

Як би не було, але регулювання все ж наближається. Адміністрація Байдена заявила, що працює над законодавством, та пообіцяла випустити рекомендації щодо відповідального використання ШІ федеральними агентствами до кінця літа. Численні законопроєкти перебувають на розгляді в Конгресі. Проте наразі технологічні компанії можуть просто продовжувати випускати нові та неперевірені продукти, не зважаючи на наслідки.

Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

ЧИТАЙТЕ ТАКОЖ
БІЗНЕС
Зарплата — $1 на годину. Як дешева робоча сила рухає ШІ-революцію
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
22 Листопада 2023, 09:00 11 хв читання
FOMO OFF
«Оппенгеймер нашого часу». Як працює, планує та думає Сем Альтман — частина I
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
17 Жовтня 2023, 09:00 22 хв читання
БІЗНЕС Банк цифрового золота. Как работает украинская криптобиржа CEX.IO с оборотом $10 млрд
Банк цифрового золота. Як працює українська криптобіржа CEX.IO з оборотом $10 млрд
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
24 Червня 2021, 08:30 10 хв читання
БІЗНЕС
Зібров, коти, метал: чи є в Україні «дорослий» фінтек?
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
07 Жовтня 2019, 15:50 6 хв читання
Завантаження...