ШІ-стартап, що розробляє гуманоїдного робота, залучив $675 млн від Microsoft і OpenAI
01 Березня 2024, 18:30
2 хв читання
Додати в закладки
Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.
Далі
Завершити
Юлія ТкачШеф-редакторка, авторка і ведуча подкасту «Хто ці люди».
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Microsoft і OpenAI та інші компанії сумарно інвестували $675 млн у ШІ-стартап, що розробляє гуманоїдного робота, пише Quartz. Розповідаємо деталі.
Що сталося
ШІ-стартап Figure гуманоїдного робота, залучив $675 млн. Серед інвесторів мають Microsoft, OpenAI, Nvidia та Джеффа Безоса. Стартап отримав оцінку в $2,6 млрд. «Наше бачення в Figure полягає в тому, щоб якнайшвидше запустити роботи-гуманоїди в комерційну діяльність. Ці інвестиції в поєднанні з нашим партнерством з OpenAI і Microsoft гарантують, що ми добре підготовлені до впровадження втіленого штучного інтелекту в світ, щоб зробити трансформаційний вплив на людство. Штучний інтелект і робототехніка — це майбутнє», — сказав Бретт Адкок, засновник і СЕО Figure.
Компанія, яка існує майже два роки, прагне розробити гуманоїдів, які «можуть усунути потребу в небезпечних і небажаних роботах», дозволяючи працівникам «жити щасливішим і цілеспрямованішим життям».
Figure спрямує залучені кошти на розширення навчання ШІ, виготовлення більшої кількості гуманоїдів, збільшення штату тощо.
У команді Figure працюють експерти з Tesla та Google DeepMind. Стартап співпрацює з OpenAI, щоб розробити моделі ШІ для своїх роботів. Також використовуватиме хмарні сервіси Microsoft Azure для інфраструктури ШІ, навчання та зберігання даних.
Figure 01 is now completing real world tasks
Everything is autonomous:
-Autonomous navigation & force-based manipulation -Learned vision model for bin detection & prioritization -Reactive bin manipulation (robust to pose variation) -Generalizable to other pick/place tasks pic.twitter.com/0wFmYnq0GC