БІЗНЕС

Зарплата — $1 на годину. Як дешева робоча сила рухає ШІ-революцію

22 Листопада 2023, 09:00
11 хв читання
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
Додати в закладки

Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

Надія Баловсяк Спостерігаю за технологіями, аналізую та розповідаю про них
Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання

Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

Увесь 2023-й світ говорить про використання ШІ — від моделей до відтворення музики. Для багатьох механізм роботи ШІ-інструментів — величезна таємниця. Люди не уявляють, як все працює загалом, й подекуди наділяють цю технологію людськими рисами. Наприклад, здатністю ухвалювати рішення чи відчувати щось на кшталт емоцій. Пояснень того, як працює AI-чатбот ChatGPT, — вистачає. Натомість мало кому відома інша — «темна» сторона — штучного інтелекту. І мова йде не про помилки чи потенційне знищення людства. 

Для розвитку штучного інтелекту, принаймні на цьому етапі, потрібні люди, які допомагають нейромережам розрізняти об’єкти, оцінювати факти тощо. Часто їх називають клікворкерами. Правда, цей термін розповсюджується й на виконавців інших мікрозавдань в мережі. Як би не було, подібна «допомога ШІ» не потребує освіти та особливих спеціальних навичок. Це монотонна й низькооплачувана робота, яка зазвичай залишається в тіні глобального прогресу. 

Журналістка Надія Баловсяк розповідає, як завдяки зусиллям сотень тисяч таких працівників ми можемо говорити про ШІ-революцію.

Допомогти ChatGPT «розуміти» насилля 

Величезний набір навчальних даних — секрет дивовижних лінгвістичних здібностей моделі GPT-3. Проте це також створює проблеми. Частина інтернету переповнена токсичними та упередженими матеріалами, які призводили б до насильницьких, сексистських та расистських висловлювань у відповідях ChatGPT. Справитись з цим вручну майже неможливо. Як пояснюють у Time, навіть команді з сотень людей знадобилися б десятиліття, щоб перебрати величезний масив даних. 

Тому для розв’язання проблеми потрібно було створити спеціальний механізм безпеки на базі ШІ. Логіка проста — дати штучному інтелекту приклади насильства та мови ненависті, щоб він навчився виявляти форми токсичності на платформі. Приблизно так працюють алгоритми того ж Facebook.

Аналогічний детектор вирішили вбудувати у ChatGPT, щоб перевіряти, чи не повторює він токсичність навчальних даних та відфільтровувати їх ще до потрапляння до користувача. А ще він здатний допомогти прибрати токсичний текст з навчальних наборів даних майбутніх моделей ШІ. От тільки потрібні дані слід маркувати. Це завдання для «клікворкерів».

У кінці 2021-го OpenAI підписала три контракти загальною сумою $200 000 з кенійською компанією Sama. Завданням працівників останньої було маркування текстових описів сексуального аб’юзу, мови ворожнечі та насильства. Кожною темою займалась одна з трьох команд, які складалися з кількох десятків людей.

Фахівці Sama отримували заробітну плату від $1,3 до $2 за годину залежно від стажу та результатів роботи.

Журналістам Time вдалося поспілкуватися із чотирма «чорноробочими» Sama, які проте погодилися говорити лише на умовах анонімності через побоювання за свої засоби до існування. 

Троє з них розповіли, що Junior-співробітники мали базову зарплату $170 в місяць (21 000 кенійських шилінгів). Вони також отримували щомісячні премії в розмірі близько $70, а також комісійні за досягнення ключових показників ефективності, таких як точність і швидкість. 

А ще подібна робота здатна сприяти виникненню психологічних проблем. Одна з причин (крім взагалі шкоди від постійного перегляду насильницького контенту) стає зрозумілою після ознайомлення з кількісними вимогами до працівників компанії. За 9-годинну зміну вони повинні були читати та маркувати 150-250 текстових блоків, довжина кожного — від 100 до понад 1000 слів. Іншими словами, в середньому за годину потрібно було аналізувати 20-25 текстових фрагментів — до 3 хвилин на один з них. 

Співробітники мали право відвідувати сесії з «оздоровчими» консультантами. Проте всі четверо сказали, що вони були не корисними та рідкісними через високі вимоги до продуктивності. Двоє зазначили, що їм надали можливість відвідувати лише групові сесії. Один співробітник сказав, що їхні прохання зустрітися з консультантами на індивідуальній основі неодноразово відхилялися керівництвом.

Варто зазначити, що представник Sama повідомив Time, що працівників просили маркувати 70 текстових уривків за дев’ятигодинну зміну, а не до 250. Співробітники могли заробляти від $1,46 до $3,74 на годину після сплати податків. Одночасно він відмовився повідомити, які саме робочі ролі дають змогу отримувати зарплату, що відповідає верхній межі цього діапазону.

Представник OpenAI же зазначив, що компанія не встановлювала жодних цільових показників продуктивності. Sama сама відповідає за управління оплатою праці та забезпеченням психічного здоров’я співробітників. 

«Ми дуже серйозно ставимося до психічного здоров’я співробітників та підрядників. Наше попереднє розуміння полягало в тому, що [в Sama] пропонуються оздоровчі програми та консультації 1:1, працівники можуть відмовитися від будь-якої роботи без покарання, вплив відвертого контенту буде обмежений, а конфіденційна інформація оброблятиметься співробітниками, які пройшли спеціальну підготовку», — зазначають в OpenAI.

Хай навчають ув’язнені

Фінський стартап Metroc створив пошукову систему, яка має допомагати будівельним компаніям знаходити нещодавно затверджені проєкти. Для цього Metroc потрібно, щоб моделі розуміли підказки з новинних статей і муніципальних документів. ШІ, наприклад, має відрізняти проєкт, на який вже найняли архітектора або монтажника вікон, від того, де ці працівники потрібні.

При цьому Metroc не може скористатися звичною для таких випадків дешевою працею підрядників з Кенії, Уганди, Індії та інших країн «глобального півдня». Там просто немає стільки людей, які знають фінську. Тому в компанії вирішили звернутися до в’язнів. Так Metroc отримала дешевих працівників, які розмовляють фінською мовою.

Пенітенціарна система ж вважає, що таким способом вона не лише може запропонувати ув’язненим роботу, але й готує їх до життя в діджитал-світі. 

За тригодинну зміну в’язні можуть заробити 4,62 євро (1,54 євро на годину). Працівник повинен прочитати фрагмент тексту та відповісти на запитання. Більшість з них передбачають відповідь «так» або «ні». 

Наразі до цього проєкту долучилось лише три в’язниці. Відмінність роботи на Metroc від Sama полягає в тому, що в’язням платять за годину, а не за швидкість чи якість роботи. Попри те, що в одній виправній установі її спробувало близько 20 людей, лише троє долучаються регулярно.

$1 на годину за участь в революції

Засновник стартапу Scale AI Александер Ван називає свій проєкт «кирками та лопатами золотої лихоманки генеративного штучного інтелекту». Він запустив компанію ще 2016-го. Через п’ять років Scale AI отримала оцінку в $7,3 млрд. Серед її клієнтів, Уряд США, OpenAI, Toyota, Honda та Waymo. Саме технологія стартапу використовували для аналізу супутникових зображень України. 

Колишній топменеджер Amazon Джефф Вілке, один із радників Александра Ванга, переконаний, що Scale може стати аналогом Amazon Web Services для штучного інтелекту. Питання: чим займається Scale AI?

Якщо обійтись без пишних пояснень, то Scale AI — провайдер даних для генеративного ШІ. Фактично він надає робочу силу для їхнього перегляду та маркування. У компанії працює близько 240 000 співробітників, в основному з таких країнах, як Кенія, Філіппіни та Венесуела. І насправді вони не в штаті самої Scale AI, а в дочірній — Remotasks. 

Попри високу оцінку стартапу та схвальні тексти про самого Ванга, багатьом працівникам Remotasks платять менше як $1 на годину. Вони не знають напевно, чи вчать ChatGPT не помилятися, чи допомагають аналізувати зображення певному аналогу Clearview AI, чи роблять щось іще. Ці люди допомагають створювати революційні рішення, але виступають кимось на кшталт «виробника ручок для кирок», які не знають, хто користуватиметься інструментом.

До речі, працівники з «глобального півдня» гарно справляються в приватному секторі, але навряд уряд готовий ділитися секретними даними з іноземними маркувальниками. Тому Ван будує нову ШІ-армію в США. Минулого року Scale AI відкрила офіс у Сент-Луїсі. Тоді оголосили про плани найняти 200 осіб. Багато з них працюватимуть маркувальниками даних. Цікаво, скільки їм платитимуть.

Не важка праця, а практика

Китайська індустрія штучного інтелекту використовує студентів-практикантів професійно-технічних шкіл, змушуючи їх займатися маркуванням даних. Вони сортують аудіофайли, позначають зображення дітей на камерах спостереження, допомагають ШІ-інструментам розумних машин відрізняти дерево від пішохода. Часто це роблять за мінімальну плату та в поганих умовах.

У Китаї компанії побудували центри анотування в бідних внутрішніх регіонах, часто за підтримки місцевої влади.

Остання прагне залучити інвестиції та підвищити рівень зайнятості. У ці центри запрошують студентів професійно-технічних шкіл, робота яких зараховується як практика під час навчання. 

Ось як це працює. У березні минулого року пошуковий гігант Baidu створив центр анотування разом із професійно-технічним училищем у місті Цзюцюань в провінції Ганьсу (одній з найбідніших в Китаї). Згідно з повідомленням одного практиканта, училище змусило понад 160 студентів анотувати дані для Baidu, інакше вони не отримають диплом.

Плата за інновації

Ситуація з «примарними співробітниками» привернула увагу групи сенаторів у США. Вони написали листа керівникам Amazon, Alphabet, Meta, Microsoft, IBM, OpenAI, Inflection AI, Scale AI і Anthropic з вимогою розповісти про роботу таких фахівців та їхні умови праці.

«Технологічні компанії не повинні створювати штучний інтелект на спинах експлуатованих працівників», — коментує лист сенаторка Елізабет Уоррен. 

Проте у листі йдеться не лише про питання умов праці, але й про кваліфікацію таких працівників та їхній вплив на системи штучного інтелекту. «Очікується, що працівники будуть відсіювати небезпечні відповіді чат-ботів, але вони можуть мати замало часу, щоб оцінити це. Дата-працівники часто не проходять належного навчання або контролю, що може призвести до упередженості» — сказано в листі. 

Попри увагу американських законодавців та журналістів, навряд чи ШІ-компанії зможуть відмовитися від такої дешевої праці найближчими роками. Аж надто високі ставки в перегонах за просунутим штучним інтелектом. 

Усе це нагадує індустріалізацію з її важкими умовами праці. Саме зусиллями дешевої робочої сили штучний інтелект, можливо, колись звільнить нас всіх від повсякденних завдань, вилікує хвороби, подолає численні суспільні та технологічні проблеми. Проте описані в тексті люди не лише не розбагатіють на своїй участі у революції, але й залишаться «примарними працівниками», про яких переважно не говоритимуть. Схоже, так працює прогрес.

Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

ЧИТАЙТЕ ТАКОЖ
FOMO OFF
Єдність протилежностей заради ШІ-майбутнього — історія партнерства OpenAI та Microsoft 
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
27 Лютого 2024, 10:00 53 хв читання
Досвід і думки
Сему Альтману потрібні $7 трлн? Дайджест головних tеch-новин від Roosh Ventures
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
16 Лютого 2024, 18:00 4 хв читання
СТАРТАПИ
ШІ та медицина. Як GAMA Consulting використовує штучний інтелект для діагностики клієнтів
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
07 Лютого 2024, 12:00 5 хв читання
ТЕХНОЛОГІЇ
Дайте спокій Альтману. 11 лідерів думок у сфері ШІ, на яких варто підписатися, — в Україні та світі 
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
02 Лютого 2024, 11:30 5 хв читання
Завантаження...