Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Медіа The New Yorker опублікувало розслідування, що аналізує суперечливу постать Сема Альтмана та його роль у керівництві компанією OpenAI. Текст насичений деталями про внутрішні конфлікти. Розповідаємо головні тейки.
Що сталося
Журналісти The New Yorker готували це розслідування 18 місяців, поспілкувавшись з низкою співробітників та наближених до Альтмана. Якщо коротко, не можна сказати, що матеріал викрив якісь неочікувані речі: багато з викладеного вже було так чи інакше висвітлено у низці розслідувань та фічерів. Проте, матеріал є доволі повним та цікавим портретом людини, яка стоїть на чолі АІ-ери. Нижче наведемо ключові тейки з матеріалу.
Однією з головних думок статті є твердження (від багатьох колег Альтмана) про його нібито фундаментальну ненадійність. Ілля Суцкевер, співзасновник OpenAI, вважає, що Альтман — не та людина, яка повинна тримати «палець на кнопці» такої потужної технології. У секретних записках стверджується, що Альтман демонструє постійну звичку брехати та вводити в оману керівництво й раду директорів щодо протоколів безпеки.
Його здатність маніпулювати людьми та переконувати їх описують як «трюки розуму джедаїв».
Один із технокерівників порівняв те, як Альтман переграв раду директорів під час свого звільнення, з класичним сценарієм досліджень безпеки — «як ніби AGI вирвався з коробки».
В офісі OpenAI є анімована цифрова картина з Аланом Тюрінгом, чиї очі стежать за кожним кроком відвідувачів. Звук на картині довелося вимкнути, тому що вона постійно підслуховувала розмови співробітників і «встрягала» в них.
Згідно з дослідженням 2025 року, ChatGPT почав проходити тест Тюрінга надійніше, ніж люди.
Коли Альтмана звільнили у 2023 році, він облаштував у своєму маєтку за $27 млн справжній штаб («уряд у вигнанні»). Попри кризу, щовечора о 18:00 він переривав роботу «військової кімнати» коктейлями Негроні, закликаючи всіх «розслабитися».
Альтман хвалився колегам, що був чемпіоном штату Міссурі з пінг-понгу серед школярів, проте на практиці виявився чи не найгіршим гравцем в офісі.
Щоб побороти «втому від прийняття рішень», Альтман щодня носить однаковий одяг. Проте він зізнався, що навіть вибір одного з кількох ідентичних сірих светрів у шафі став для нього джерелом стресу.
Стратегія Альтмана полягає в тому, що він став «найкращим продавцем свого покоління», використовуючи апокаліптичну риторику для власного посилення. На відміну від інших техно-оптимістів, Альтман публічно визнає, що ШІ може знищити людство. Але його висновок полягає в тому, що саме тому саме він повинен його будувати, щоб зробити це «безпечно». Памʼятаєте його порівняння розробки ШІ з «Манхеттенським проєктом»? Так от, це воно.
Хоча OpenAI засновувалась як некомерційна організація, де безпека людства стоїть вище успіху компанії, джерела вказують на системне ігнорування цих принципів заради прибутку. Пригадайте, Ілон Маск неодноразово звинувачував і навіть позивався через це.
Команді superalignment, яка мала гарантувати безпеку надрозумного ШІ, обіцяли 20% обчислювальних потужностей компанії. Насправді ж вони отримали лише 1-2%, причому на застарілому обладнанні, тоді як найкращі ресурси йшли на комерційні продукти
Багатьох (зокрема спецслужби США) з опитаних непокоїть те, що Альтман будує глобальну інфраструктуру ШІ, залучаючи трильйони доларів від авторитарних режимів.
Після перемоги Дональда Трампа Альтман швидко став одним із його ключових союзників у техсекторі, домігшись скасування регуляторних актів адміністрації Байдена та отримавши прямий доступ до президента.
Якщо ви дочитали аж сюди, то можемо підсумувати, що головний висновок статті зовсім не в тому, чи є ШІ небезпечним, а в тому, чи може людство довірити контроль над цією технологією людині, яку найближчі соратники вважають «необмеженою правдою» та «соціопатично нечутливою до наслідків своєї децепції».
Цікаво, що OpenAI має угоду з Condé Nast, власником The New Yorker, яка дозволяє OpenAI відображати його контент у результатах пошуку на обмежений термін. Про це згадується і в самому матеріалі. Це не вплинуло на упередженість матеріалу — показовий приклад журналістики.