Універсальний «мозок»: MIT представив новий спосіб для навчання роботів
04 Листопада 2024, 18:50
2 хв читання
Максим ШпиркаПишу новини про бізнес, технології та підприємництво.
Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
МІТ представив новий спосіб для навчання роботів, який використовує велику кількість даних, подібно до того, як навчають великі мовні моделі, пише TechCrunch. Розповідаємо деталі.
Що сталося
Массачусетський технологічний інститут (MIT) представив нову модель, яка допоможе навчати роботів, використовуючи величезні обсяги даних, як у великих мовних моделях (LLM).
Дослідники зазначають, що традиційні методи навчання, зокрема імітаційне навчання, неефективне, коли виникають неочікувані умови, такі як зміна освітлення або нові перешкоди. У таких випадках роботам не вистачає даних для адаптації.
Тому вчені з MIT вирішили використовувати великий обсяг даних, як це роблять для навчання мовних моделей. Вони розробили нову архітектуру, яка називається Heterogeneous Pretrained Transformers (HPT). Ця система об’єднує інформацію з різних датчиків і середовищ, щоб навчити роботів краще адаптуватися до змін.
Що далі
Доцент Девід Хелд підкреслив, що метою дослідження є створення універсального «мозку» для роботів, який можна буде завантажити без потреби в додатковому навчанні.