preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          Понад 850 відомих людей, зокрема співзасновник Apple і принц Гаррі, закликали зупинити розвиток «суперінтелекту»

          24 Листопада 2025, 00:31
          2 хв читання
          Марія Молдавчук Редакторка стрічки новин
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          CNBC повідомляє, що більше ніж 850 публічних осіб підписали заяву із закликом призупинити розробку надпотужного штучного інтелекту. Розповідаємо деталі.

          Оригінальна дата публікації: 22 жовтня 2025 року.

          Що сталося

          Група експертів, науковців, релігійних лідерів, колишніх політиків США і публічних діячів оприлюднила звернення, в якому попереджає про ризики, пов’язані з розвитком надпотужних ШІ-систем. Серед підписантів:

          • Стів Возняк, співзасновник Apple.
          • Річард Бренсон, засновник Virgin Group.
          • Йошуа Бенжіо та Джефрі Хінтон, яких називають «хрещеними батьками» сучасного ШІ.
          • Стюарт Рассел, дослідник з UC Berkeley.
          • Принц Гаррі та Меган Маркл.
          • Сюзан Райс, колишня радниця з нацбезпеки США.
          • Майк Маллєн, колишній голова Об’єднаного комітету начальників штабів.

          Автори заяви закликають запровадити глобальну заборону на створення «суперінтелекту», доки не буде досягнуто широкої наукової та суспільної згоди щодо безпечного контролю над технологією. Вони попереджають, що без належного регулювання надрозвинений ШІ може призвести до економічної нерівності, втрати свобод, дестабілізації безпеки та навіть зникнення людства.

          За словами Йошуа Бенжіо, системи штучного інтелекту можуть перевершити людину у складних когнітивних завданнях уже за кілька років. Науковець підкреслив, що необхідно створити моделі, які не здатні шкодити людям, а також надати суспільству більше впливу на рішення щодо розвитку ШІ.

          Що далі

          Поки що підписанти не подали офіційної пропозиції до урядів або міжнародних організацій, однак ініціатива збігається з глобальною дискусією про безпеку ШІ. За даними Future of Life Institute, лише 5% американців підтримують швидкий, нерегульований розвиток суперінтелекту, тоді як більшість виступає за його обмеження до створення надійних механізмів контролю.

          Більше про це

          01 НОВИНИ

          Microsoft створила голосового ШІ-помічника, який бачить, що ви робите на екрані

          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          01 ТЕХНОЛОГІЇ
          Автономія без хаосу: як побудувати продуктову культуру, де команда впливає на рішення
          02 Клієнт погодив
          «Клієнт погодив». Як брендам працювати з увагою авдиторії в умовах рекламної втоми і до чого тут нативна реклама
          03 БІЗНЕС
          Credit Agricole став генеральним партнером Tech Unity: Clusters Forum — першої події, що об’єднала всю Tech-екосистему України
          04 ТЕХНОЛОГІЇ
          Як агенції зменшити операційку за допомогою CRM?
          Завантаження...