preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          Зарплата понад $550 000: OpenAI шукає керівника з безпеки ШІ — що відомо

          29 Грудня 2025, 10:00
          2 хв читання
          Марія Молдавчук Редакторка стрічки новин
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          OpenAI шукає керівника з безпеки ШІ. Про це Сем Альтман повідомив у своєму блозі. Розповідаємо деталі.

          Що сталося

          OpenAI відкрила вакансію Head of Preparedness — посаду в команді безпеки, яка відповідає за оцінку ризиків і зменшення потенційної шкоди від моделей штучного інтелекту. Річна зарплата становить $555 000 плюс акціонерний капітал.

          CEO OpenAI Сем Альтман повідомив про вакансію в дописі на X. Він назвав цю роботу стресовою та зазначив, що новий керівник майже одразу опиниться в складній ситуації. За словами Альтмана, посада є критично важливою саме зараз, оскільки моделі швидко ускладнюються й створюють нові виклики.

          OpenAI вже фіксує потенційні ризики, пов’язані з:

          • впливом моделей на психічне здоров’я користувачів;
          • зловживанням технологією;
          • здатністю моделей знаходити критичні вразливості в комп’ютерній безпеці.

          В описі вакансії зазначено, що майбутній керівник відповідатиме за створення та координацію:

          • оцінок можливостей моделей;
          • моделей загроз;
          • заходів із зменшення ризиків.

          Сем Альтман також закликав зацікавлених кандидатів подавати заявки на вакансію. Зробити це можна за посиланням

          Чому це цікаво

          У 2024 році кілька екскерівників і дослідників заявили про занепокоєння тим, що компанія почала приділяти менше уваги безпеці на користь швидкого запуску продуктів. Зокрема, колишній керівник команди безпеки Ян Лейкі публічно заявляв, що культура й процеси безпечного розгортання ШІ відійшли на другий план.

          За словами іншого колишнього співробітника, Даніеля Кокотайло, кількість фахівців, які працювали над довгостроковими ризиками штучного загального інтелекту, зменшилася майже вдвічі після серії звільнень.

          Більше про це

          01 НОВИНИ

          OpenAI запустила в Україні бюджетну передплату ChatGPT Go — що туди входить

          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          01 ТЕХНОЛОГІЇ
          Автономія без хаосу: як побудувати продуктову культуру, де команда впливає на рішення
          02 Клієнт погодив
          «Клієнт погодив». Як брендам працювати з увагою авдиторії в умовах рекламної втоми і до чого тут нативна реклама
          03 БІЗНЕС
          Credit Agricole став генеральним партнером Tech Unity: Clusters Forum — першої події, що об’єднала всю Tech-екосистему України
          04 ТЕХНОЛОГІЇ
          Як агенції зменшити операційку за допомогою CRM?
          Завантаження...