ТЕХНОЛОГІЇ

Як слід та не варто використовувати ШІ під час виборів — 5 порад

Лідія Неплях 28 мая 2024, 09:00

Штучний інтелект перетворився на звичну частину нашого життя. Стосується його використання і політичної сфери, що особливо важливо в контексті президентських виборів у США. У своєму матеріалі Кріштіану Ліма-Стронг, кореспондент з питань технічної політики The Washington Post, розповідає як варто та не слід використовувати ШІ у передвиборчих перегонах.

Статтю українською мовою підготувало Бюро перекладів для бізнесу MK:translations. Ми публікуємо адаптований переклад матеріалу.

Замість вступу

Чат-боти, які отримують запитання від громадськості. Автоматизовані дзвінки, що спілкуються голосом кандидата. Електронні листи для збору коштів, які, на перший погляд, написані людиною

Використання інструментів штучного інтелекту стрімко поширюється по всій країні, тож політичні кандидати все частіше застосовують цю технологію для залучення виборців. 

Але на тлі нормативного вакууму у Вашингтоні кампанії здебільшого самостійно регулюють використання ШІ. Це, як дехто побоюється, може завдати шкоди виборам 2024 року

У квітні відома політична група, що інвестує в технології для партії демократів, запустила нову ініціативу, яка має допомогти кандидатам з використанням ШІ під час передвиборчих кампаній. Йдеться про детальний посібник з поясненням, як вони можуть застосувати ШІ-інструменти та яких помилок слід уникати. 

Я розмовляв з лідерами Zinc Labs — коаліції, що складається з ветеранів кампаній Байдена та Клінтон, а також інших політичних і технічних груп лівих — про те, що, на їхню думку, слід і не слід робити з ШІ під час виборів. Ось висновки: 

Завжди залучайте людину

За словами групи, попри те, що такі інструменти, як генеративний ШІ, можуть допомогти у спілкуванні з виборцями, ними не можна повністю замінювати персонал або його функції. Представники кандидата завжди повинні переконатися, що інформацію, отриману від ШІ, потім перевіряють люди. 

«Цю технологію не можна застосовувати без нагляду, тому завжди залучайте людину», — написала група. «Саме людина повинна перевіряти та затверджувати кожну цитату, публікацію в соціальних мережах, фрагмент коду чи інший результат, отриманий за допомогою генеративного ШІ». 

На думку групи, це також означає, що застосування чат-ботів на основі ШІ буде не найпродуктивнішим використанням часу представників кампанії. Адже відповідей чат-ботів, імовірно, буде занадто багато, щоб перевіряти кожну окремо. 

«Ви отримаєте небагато користі від генеративного ШІ, тому що такі речі неминуче вас підведуть, якщо не ввести певні правила для системи», — каже Бен Резнік, заступник директора групи з технічної стратегії. 

Не вводьте виборців в оману щодо використання ШІ 

Кампанії не повинні вводити виборців в оману, тому варто чітко вказувати, що саме створено за допомогою ШІ. Це означає уникати використання чат-ботів, щоб «придумати анекдот для промови» або створити відео чи аудіо, які «імітують їхнього опонента». 

Як кажуть члени групи, представникам кампанії також не слід «необґрунтовано» стверджувати, що будь-яке потенційно небезпечне відео, яким поділився опонент, створив ШІ. 

«Оскільки довіра громадськості й так низька, спотворення фактів не йде на користь вашій кампанії», — сказав Метт Ходжес, виконавчий директор групи. 

Складіть план гри, щоб протистояти діпфейкам 

Оманливі відео, створені за допомогою ШІ та відомі як діпфейки, ймовірно, зараз є неминучою частиною виборів. На думку групи, кандидати й політичні організації повинні планувати свої дії заздалегідь. 

Кампаніям варто завчасно створити «план реагування у разі кризи», який охоплює «чіткі дії, ролі та часові межі», щоб їх це не застало зненацька. І представникам кампанії також варто бути «обережними» й не поспішати публічно відповідати на будь-які фейки.

Непродумана реакція може тільки привернути більше уваги. 

Зрештою, група стверджувала, що найкращий захист від діпфейків — це «напад». Йдеться про регулярне правдиве спілкування, щоб виборці, які бачать фейкові відео, «інстинктивно скептично ставилися» до джерела інформації. 

Не порушуйте конфіденційність 

Кампанії, які інтегрують ШІ у свою роботу, ризикують створити нові порушення конфіденційності або кібербезпеки, пов’язані з особистою інформацією виборців. З цією метою група закликала ретельно перевіряти сторонніх постачальників. Уникати таких речей, як «завантаження особистої інформації донорів у генеративний ШІ-інструмент» або «використання особливих характеристик чи історії виборця для матеріалів, створених AI без їхньої згоди». 

«Політика щодо даних і використання ШІ з чіткими межами щодо того, хто може ділитися даними, з якими інструментами та з якою метою, захищає вашу кампанію, ваш персонал і ваших виборців», — пише група. 

Але кампанії не повинні оминати увагою інструменти просто тому, що дані можуть використовуватися для навчання ШІ. 

Використовуйте ШІ для більш рутинних внутрішніх завдань 

Більшість громадських дебатів навколо штучного інтелекту на виборах зосереджувалася на ризиках, які становлять фейкові візуальні матеріали та відео. Та Zinc Labs закликала кампанії розглянути, як ці інструменти можна використовувати для звичайних внутрішніх завдань, «щоб по-новому інформувати про стратегію кампанії та налагодити комунікацію». 

Це охоплює використання ШІ для створення персоналізованих повідомлень потенційним виборцям і донорам. А також узагальнення аналітичних записок або даних виборців для полегшення використання та для створення перших чернеток публікацій у соціальних мережах або інших публічних повідомлень. 

«Це не замінить цілий відділ. Це прискорить найбільш виснажливу частину важливої роботи», — сказав Резнік, навівши як приклади збір пресроликів і написання публікацій у соціальних мережах. 

Больше об этом

01 НОВИНИ

ШІ-помічник Copilot від Microsoft тепер є в Telegram: як скористатися

Добавить в закладки

Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.