Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
OpenAI шукає керівника з безпеки ШІ. Про це Сем Альтман повідомив у своєму блозі. Розповідаємо деталі.
Що сталося
OpenAI відкрила вакансію Head of Preparedness — посаду в команді безпеки, яка відповідає за оцінку ризиків і зменшення потенційної шкоди від моделей штучного інтелекту. Річна зарплата становить $555 000 плюс акціонерний капітал.
CEO OpenAI Сем Альтман повідомив про вакансію в дописі на X. Він назвав цю роботу стресовою та зазначив, що новий керівник майже одразу опиниться в складній ситуації. За словами Альтмана, посада є критично важливою саме зараз, оскільки моделі швидко ускладнюються й створюють нові виклики.
OpenAI вже фіксує потенційні ризики, пов’язані з:
впливом моделей на психічне здоров’я користувачів;
зловживанням технологією;
здатністю моделей знаходити критичні вразливості в комп’ютерній безпеці.
В описі вакансії зазначено, що майбутній керівник відповідатиме за створення та координацію:
оцінок можливостей моделей;
моделей загроз;
заходів із зменшення ризиків.
Сем Альтман також закликав зацікавлених кандидатів подавати заявки на вакансію. Зробити це можна за посиланням.
Чому це цікаво
У 2024 році кілька екскерівників і дослідників заявили про занепокоєння тим, що компанія почала приділяти менше уваги безпеці на користь швидкого запуску продуктів. Зокрема, колишній керівник команди безпеки Ян Лейкі публічно заявляв, що культура й процеси безпечного розгортання ШІ відійшли на другий план.
За словами іншого колишнього співробітника, Даніеля Кокотайло, кількість фахівців, які працювали над довгостроковими ризиками штучного загального інтелекту, зменшилася майже вдвічі після серії звільнень.