​Исследователи обучили смоделированный ИИ играть в футбол

Искусственный интеллект научили играть в футбол.

Подразделение искусственного интеллекта DeepMind компании Google научило ИИ-гуманоидов работать в команде, после чего они сыграли в футбол.

Исследователи обучили смоделированный ИИ играть в футбол в формате «два против двух» в рамках эксперимента, целью которого было улучшение координации между системами ИИ и открытие новых путей к созданию «искусственного интеллекта общего назначения», сходного по уровню с человеческим.

«Наши агенты приобрели навыки, включая ловкое передвижение, пас и разделение труда, что было продемонстрировано рядом статистических данных», — написали исследователи DeepMind в своем блоге.

«Игроки демонстрируют как проворный высокочастотный контроль моторики, так и долгосрочное принятие решений, включающее предвидение поведения товарищей по команде, что приводит к скоординированной командной игре».

Игроки научились бороться за мяч, выполнять сквозные передачи партнеру по команде, а также финтить.

В отдельных симуляциях гуманоиды учились выполнять сложные задачи руками, например, бросать и ловить мяч.

Результаты исследования были подробно описаны в работе под названием «От управления двигателем к командной игре в симулированном гуманоидном футболе», опубликованной в журнале Science Robotics.


источник: Ferra.ru, фото из открытого доступа



+1
19:10
699
Нет комментариев. Ваш будет первым!