preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          Голова Microsoft AI каже, що вивчення «свідомості ШІ» є небезпечним, і ось чому

          22 Серпня 2025, 14:41
          2 хв читання
          Марія Молдавчук Редакторка стрічки новин
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          Голова Microsoft AI Мустафа Сулейман назвав небезпечним вивчення можливих відчуттів у ШІ. Такі дослідження відволікають від реальних ризиків штучного інтелекту й можуть посилювати емоційну прив’язаність людей до чат-ботів. Про це пише TechCrunch.

          Що сталося

          Голова Microsoft AI Мустафа Сулейман розкритикував новий напрям досліджень у Кремнієвій долині, відомий як AI welfare — вивчення можливості виникнення у моделей суб’єктивних відчуттів і потенційних «прав ШІ». Він підкреслив, що завдання компаній — створювати технології «для людей, а не як людину».

          Позиція Microsoft різко контрастує з підходом інших гравців індустрії. Наприклад, Anthropic запустив спеціальну дослідницьку програму, присвячену темі AI welfare, щоб глибше вивчати можливість появи «свідомості» у моделей.

          Свою зацікавленість у темі виявили також OpenAI та Google DeepMind, які активно залучають науковців для дослідження питань когніції та свідомості штучного інтелекту. Це свідчить про зростання уваги до проблематики на найвищому рівні в галузі.

          Нагадаємо, у липні ми писали, що Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів.

          Більше про це

          01 НОВИНИ

          Сем Альтман занепокоєний емоційною залежністю молоді від ChatGPT

          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          Ванна не тільки для гігієни: як війна змінила наше уявлення про дім?
          01 БІЗНЕС
          Ванна не тільки для гігієни: як війна змінила наше уявлення про дім?
          ChatGPT замість особистого аналітика: як AI може спростити роботу інвестору?
          02 ТЕХНОЛОГІЇ
          ChatGPT замість особистого аналітика: як AI може спростити роботу інвестору?
          Масові криптовиплати у кілька кліків: як працює новий інструмент від Whitepay
          03 БІЗНЕС
          Масові криптовиплати у кілька кліків: як працює новий інструмент від Whitepay
          Факапи айтівців, коктейлі та донати: що буде на IT StandUp: Fails Night?
          04 КРЕАТИВ
          Факапи айтівців, коктейлі та донати: що буде на IT StandUp: Fails Night?
          Завантаження...