preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          Маск, Возняк та ще понад 1000 експертів закликали призупинити розвиток ШІ. Чому?

          29 Березня 2023, 15:17
          2 хв читання
          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Юлія Ткач Головна редакторка, авторка і ведуча подкасту «Хто ці люди».
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          Ілон Маск та понад 1000 експертів підписали спільного листа із закликом зробити принаймні піврічну павзу в розробці просунутого ШІ. Про це повідомляє агентство Reuters.

          Що сталося

          Ілон Маск, Стів Возняк, Юваль Ной Харарі, Кріс Ларсен та ще понад 1000 експертів, підприємців та топменеджерів підписали відкритого листа, який опублікував Інститут майбутнього життя (Future of Life Institute). Це некомерційна організація, яка працює в напрямку зменшенням глобальних катастрофічних та екзистенціальних ризиків, з якими стикається людство.

          В листі підписанти закликають принаймні на шість місяців призупинити розробку систем, потужніших за GPT-4 від OpenAI. Зробити це просять, щоб дати можливість створити загальні протоколи безпеки таких проєктів, інтегрувати їх та провести перевірку за участі незалежних експертів. У листі також міститься заклик до урядів втрутитися і ввести мораторій, у разі якщо не вдасться швидко поставити розробку на паузу.

          Які аргументи в підписантів

          Свою позицію підписанти аргументують тим, що потужні системи ШІ слід розробляти лише тоді, «коли ми будемо впевнені, що їхні наслідки будуть позитивними, а ризики — керованими». Вони вказують на потенційні ризики для людства й суспільства. Серед них — розповсюдження дезінформації та широка автоматизація робочих місць.

          Що буде далі

          Наразі листа підписали 1125 людей. Проте не зрозуміло, чи матиме він результат, окрім численних публікацій в медіа. Як помітили в AIN.UA, 2015-го Ілон Маск, Стівен Гокінг та ще понад тисячу дослідників підписали лист із пропозицію стосовно заборони використання ШІ у війнах. Це не зупинило розробку.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          «Розвивайте кар’єру із Google Cloud»: відкрито реєстрацію на програму з індивідуальними консультаціями для новачків у ІТ
          01 ТЕХНОЛОГІЇ
          «Розвивайте кар’єру із Google Cloud»: відкрито реєстрацію на програму з індивідуальними консультаціями для новачків у ІТ
          Чому AI стає новою територією для хмарних провайдерів: кейс Beinf.ai by Colobridge 
          02 ТЕХНОЛОГІЇ
          Чому AI стає новою територією для хмарних провайдерів: кейс Beinf.ai by Colobridge 
          Від вчителювання в Китаї до СЕО сервісної компанії: Наталія Онишкевич про кар’єрний шлях та історію EverHelp
          03 БІЗНЕС
          Від агента сапорту до СЕО сервісної компанії: карʼєрний шлях Наталії Онишкевич та історія EverHelp
          «Люди мають зближуватися через спільну діяльність»: експертка з фандрайзингу Людмила Крижановська про простори, що формують нову культуру взаємодії 
          04 БІЗНЕС
          «Люди мають зближуватися через спільну діяльність»: експертка з фандрейзингу Людмила Крижановська про простори, що формують нову культуру взаємодії 
          Завантаження...