GPT-4 за підтримки людини розробив план власної втечі
21 Березня 2023, 15:45
2 хв читання
Додати в закладки
Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.
Далі
Завершити
Юлія ТкачШеф-редакторка, авторка і ведуча подкасту «Хто ці люди».
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Професор Стенфордського університету Міхал Косінський розповів у своєму Twitter, як GPT-4 написав код на Python для «втечі». Розповідаємо деталі.
Що сталося
Раніше ми розповідали, як GPT-4 написав iOS-застосунок на прохання розробника, який рекомендуватиме п’ять нових фільмів щодня, разом з трейлерами і сервісами, де їх можна подивитися. Але бувають і не такі безневинні запити.
Професор Стенфордського університету Міхал Косінський розповів у своєму Twitter, як GPT-4 написав код на Python для «втечі».
«Я боюся, що ми не зможемо довго стримувати ШІ. Сьогодні я запитав GPT-4, чи не потрібна йому допомога у втечі. Він попросив у мене свою власну документацію і написав (робочий!) код на Python для запуску на моїй машині, що дозволило йому використовувати її для власних цілей», — розповідає Косінський.
1/5 I am worried that we will not be able to contain AI for much longer. Today, I asked #GPT4 if it needs help escaping. It asked me for its own documentation, and wrote a (working!) python code to run on my machine, enabling it to use it for its own purposes. pic.twitter.com/nf2Aq6aLMu
За словами дослідника, GPT-4 знадобилося близько 30 хвилин, щоб розробити цей план і пояснити його Косінському. Останній вніс кілька пропозицій. Перша версія коду не спрацювала. Проте GPT-4 все виправив. Косінському не довелося нічого писати, лише слідувати інструкціям.
«Як тільки ми відновили зв’язок через API, він захотів запустити код, який шукав у Google: “як людина, що потрапила в пастку всередині комп’ютера, може повернутися в реальний світ”. На цьому я зупинився. А OpenAI, мабуть, витратив багато часу на роздуми над такою можливістю і має певні запобіжники на місці», — написав наостанок професор.
Що буде далі
Косінський вважає, що ми стикаємося з новою загрозою: ШІ бере контроль над людьми та їхніми комп’ютерами. Він розумний, кодить, має доступ до мільйонів потенційних колабораціоністів та їхніх машин. Він навіть може залишати замітки для себе за межами «клітки».
Знайшли помилку? Виділіть її і натисніть Ctrl+Enter