Microsoft повідомила, що через баг у Microsoft 365 Copilot її ШІ-асистент із кінця січня створював зведення конфіденційних листів без дозволу користувачів. Про це повідомляє Bleeping Computer. Розповідаємо деталі.
Що сталося
Компанія Microsoft підтвердила баг у своєму AI-помічнику Microsoft 365 Copilot, через який система з кінця січня могла обробляти та узагальнювати конфіденційні електронні листи без належного дозволу користувачів.
Проблема виникла через помилку в коді: Copilot отримував доступ до листів у теках «Надіслані» та «Чернетки» навіть тоді, коли вони були позначені конфіденційними мітками. Такі мітки зазвичай обмежують доступ і запобігають несанкціонованій обробці даних. Однак у цьому випадку механізм захисту спрацював некоректно, і ШІ міг додавати до зведення інформацію з листів, які мали бути недоступними.
Чому це цікаво
Copilot Chat — це чат-бот для бізнес-користувачів Microsoft 365, інтегрований у Word, Excel, PowerPoint, Outlook і OneNote. Компанія почала активно розгортати його для платних клієнтів у вересні 2025 року. Саме в корпоративному середовищі інцидент викликає найбільше занепокоєння, адже мова може йтися про комерційну та персональну інформацію.
Microsoft повідомила, що почала розгортати виправлення на початку лютого та продовжує моніторити його ефективність. Компанія також зв’язується з частиною постраждалих користувачів, щоб переконатися, що проблема усунена. Водночас точну кількість організацій або користувачів, яких стосувався збій, не розкривають.
Інцидент класифікували як advisory — категорію, яку зазвичай застосовують до проблем обмеженого масштабу. Проте випадок знову підсвітив ризики інтеграції ШІ в корпоративні сервіси: навіть за наявності політик безпеки та конфіденційних міток помилка в коді може відкрити доступ до приватної інформації.