Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Засновник Google Brain розповів, навіщо великі tech-компанії повсюдно «брешуть про ризики знищення людства ШІ»
31 Жовтня 2023, 15:44
2 хв читання
Аудіо версія НОВИНИ
Юлія ТкачШеф-редакторка, авторка і ведуча подкасту «Хто ці люди».
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Засновник Google Brain каже, що великі технології, нібито, брешуть про загрозу вимирання ШІ. Про це пише Financial Review. Розповідаємо, навіщо вони це роблять, на його думку.
Що сталося
Google Brain — дослідницька група з глибокого навчання ШІ, яка на початку цього року об’єдналася з підрозділом DeepMind. Ендрю Нг, ад’юнкт-професор Стенфордського університету, розповів The Australian Financial Review, що найбільші технологічні компанії розпалюють страхи щодо ризиків, пов’язаних з ШІ, щоб закрити конкуренцію. Мовляв, таким чином вони сподівалися спровокувати суворе регулювання.
«Безумовно, є великі технологічні компанії, які не хотіли б конкурувати з відкритим кодом, тому вони створюють страх, що ШІ призведе до вимирання людства. Це стало зброєю лобістів, які намагаються проштовхнути законодавство, що може завдати великої шкоди спільноті відкритого коду», — сказав він.
Нг сказав, що ідея про те, що ШІ може знищити людство, може призвести до політичних пропозицій, які вимагатимуть ліцензування ШІ, що загрожує знищенням інновацій. Він додав, що будь-яке необхідне регулювання ШІ слід створювати продумано.
Нагадаємо, у травні група фахівців підписала відкритого листа з ініціативою «пом’якшення ризику вимирання через ШІ має стати глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна». Серед підписантів — CEO OpenAI Сем Альтман, Білл Гейтс та інші. До них Маск, Возняк, Юваль Ной Харарі, Кріс Ларсен та ще понад 1000 експертів закликали призупинити розвиток ШІ.