Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Поєднання штучного інтелекту та ядерної зброї вже відбувається — про це попередили експерти з ядерної безпеки. Вони заявили, що ризики зростають на тлі автоматизації систем управління і зростання напруги між державами. Про це пише Wired.
Що сталося
В Чиказькому університеті відбулися закриті обговорення між лауреатами Нобелівської премії та провідними експертами з ядерної безпеки. У центрі уваги — загроза поєднання штучного інтелекту та ядерної зброї. Захід мав на меті підготувати наукову спільноту до формування політичних рекомендацій для світових лідерів.
Фахівці попередили: інтеграція ШІ в ядерні системи — вже реальність. Генерал-майор ВПС США у відставці Боб Латіфф порівняв поширення ШІ з електрикою: він проникне всюди, зокрема в оборонні технології. Джон Вольфсталь, експерт із питань нерозповсюдження, наголосив, що майже всі фахівці наполягають на збереженні людського контролю над ядерним арсеналом. Але вже нині існують спроби застосовувати великі мовні моделі в аналітичних інструментах для президента США, зокрема — для прогнозування поведінки інших лідерів.
Чому це цікаво
Найбільші занепокоєння експертів — уразливість систем, відсутність довіри до ШІ та загроза неправильних рішень. При цьому генерали та науковці зазначають: запуск ядерної зброї — це не одноосібне рішення, а складна система, контрольована людьми. Але питання у тому, що відбудеться, коли ШІ стане частиною цієї системи — наприклад, почне аналізувати сигнали радарів замість людей.
Фахівці наголошують: штучний інтелект не здатен вийти за межі власних навчальних даних і тому не може приймати нестандартні рішення. Але штучний інтелект може посилити ризики, навіть якщо формально зберігатиметься людський контроль. Військові офіційно підтверджують, що вже розробляють інструменти підтримки рішень на базі ШІ для роботи з ядерною зброєю.
Нагадаємо, раніше ми писали, що Сем Альтман порівняв створення ШІ-стартапу зі створенням ядерної бомби.