Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Голова Microsoft AI Мустафа Сулейман назвав небезпечним вивчення можливих відчуттів у ШІ. Такі дослідження відволікають від реальних ризиків штучного інтелекту й можуть посилювати емоційну прив’язаність людей до чат-ботів. Про це пише TechCrunch.
Що сталося
Голова Microsoft AI Мустафа Сулейман розкритикував новий напрям досліджень у Кремнієвій долині, відомий як AI welfare — вивчення можливості виникнення у моделей суб’єктивних відчуттів і потенційних «прав ШІ». Він підкреслив, що завдання компаній — створювати технології «для людей, а не як людину».
Позиція Microsoft різко контрастує з підходом інших гравців індустрії. Наприклад, Anthropic запустив спеціальну дослідницьку програму, присвячену темі AI welfare, щоб глибше вивчати можливість появи «свідомості» у моделей.
Свою зацікавленість у темі виявили також OpenAI та Google DeepMind, які активно залучають науковців для дослідження питань когніції та свідомості штучного інтелекту. Це свідчить про зростання уваги до проблематики на найвищому рівні в галузі.
Нагадаємо, у липні ми писали, що Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів.