Исследователи обучили смоделированный ИИ играть в футбол
Искусственный интеллект научили играть в футбол.
Подразделение искусственного интеллекта DeepMind компании Google научило ИИ-гуманоидов работать в команде, после чего они сыграли в футбол.
Исследователи обучили смоделированный ИИ играть в футбол в формате «два против двух» в рамках эксперимента, целью которого было улучшение координации между системами ИИ и открытие новых путей к созданию «искусственного интеллекта общего назначения», сходного по уровню с человеческим.
«Наши агенты приобрели навыки, включая ловкое передвижение, пас и разделение труда, что было продемонстрировано рядом статистических данных», — написали исследователи DeepMind в своем блоге.
«Игроки демонстрируют как проворный высокочастотный контроль моторики, так и долгосрочное принятие решений, включающее предвидение поведения товарищей по команде, что приводит к скоординированной командной игре».
Игроки научились бороться за мяч, выполнять сквозные передачи партнеру по команде, а также финтить.
В отдельных симуляциях гуманоиды учились выполнять сложные задачи руками, например, бросать и ловить мяч.
Результаты исследования были подробно описаны в работе под названием «От управления двигателем к командной игре в симулированном гуманоидном футболе», опубликованной в журнале Science Robotics.
источник: Ferra.ru, фото из открытого доступа