preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          Голова Microsoft AI каже, що вивчення «свідомості ШІ» є небезпечним, і ось чому

          22 Серпня 2025, 14:41
          2 хв читання
          Марія Молдавчук Редакторка стрічки новин
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          Голова Microsoft AI Мустафа Сулейман назвав небезпечним вивчення можливих відчуттів у ШІ. Такі дослідження відволікають від реальних ризиків штучного інтелекту й можуть посилювати емоційну прив’язаність людей до чат-ботів. Про це пише TechCrunch.

          Що сталося

          Голова Microsoft AI Мустафа Сулейман розкритикував новий напрям досліджень у Кремнієвій долині, відомий як AI welfare — вивчення можливості виникнення у моделей суб’єктивних відчуттів і потенційних «прав ШІ». Він підкреслив, що завдання компаній — створювати технології «для людей, а не як людину».

          Позиція Microsoft різко контрастує з підходом інших гравців індустрії. Наприклад, Anthropic запустив спеціальну дослідницьку програму, присвячену темі AI welfare, щоб глибше вивчати можливість появи «свідомості» у моделей.

          Свою зацікавленість у темі виявили також OpenAI та Google DeepMind, які активно залучають науковців для дослідження питань когніції та свідомості штучного інтелекту. Це свідчить про зростання уваги до проблематики на найвищому рівні в галузі.

          Нагадаємо, у липні ми писали, що Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів.

          Більше про це

          01 НОВИНИ

          Сем Альтман занепокоєний емоційною залежністю молоді від ChatGPT

          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          Що мотивує креативників у 2025: результати опитування robota.ua
          01 БІЗНЕС
          Що мотивує креативників у 2025: результати опитування robota.ua
          Як подолати кадровий голод і вікову дискримінацію: у Києві відбудеться «WORK DAY» від фонду «Життєлюб»
          02 БІЗНЕС
          Як подолати кадровий голод і вікову дискримінацію: у Києві відбудеться WORK DAY від фонду «Життєлюб»
          «Ментальне здоров’я — це теж зброя»: Repower і New Flame запускають кампанію на підтримку військових медиків
          03 КРЕАТИВ
          «Ментальне здоров’я — це теж зброя»: Repower і New Flame запускають кампанію на підтримку військових медиків
          Експедиція на Антарктиду: як пройшов концептуальний поп-ап від IQOS
          04 КРЕАТИВ
          Експедиція на Антарктиду: як пройшов концептуальний поп-ап від IQOS
          Завантаження...