Sony представила Gran Turismo Sophy — ИИ, способный побеждать лучших игроков в GT Sport
Разработчики называют алгоритм революционным, так как он одновременно учитывает правила гонки, реалистичную физику автомобиля и необходимость опережать соперников.
Gran Turismo Sophy разрабатывали с апреля 2020 года, в создании ИИ принимали участие Sony Interactive Entertainment, студия Polyphony Digital, которая развивает серию Gran Turismo, и инновационный отдел Sony AI.
Sophy, по словам его создателей, превосходит ИИ, разработанные для игр в шахматы, го и сёги, а также алгоритмы AlphaStar и OpenAI Five, предназначенные для StarCraft II и DOTA 2.
Особенность технологии Sony заключается в том, что она обрабатывает реальную физику движения и вместе с этим учитывает правила и негласный этикет соревнований — так, ИИ не блокирует соперников полностью, оставляет им пространство для манёвра. Sophy также оценивает ситуацию — обходит воздушные потоки (слипстрим), уходит в защиту — и принимает тактические решения, чтобы занять первое место.
Несмотря на сложность задач, Sophy удаётся побеждать некоторых из лучших игроков в Gran Turismo Sport. Разработчики провели два испытания: в июле 2021-го ИИ уступил в гонке Такуме Миязоно и ещё трём ведущим игрокам в GT Sport, после чего в Sophy внесли изменения, и в октябре 2021-го алгоритм победил в соревнованиях. В командном заезде он превзошёл людей по очкам в два раза.
Для создания ИИ использовался специальный алгоритм QR-SAC для обучения с подкреплением (reinforcement learning). Технология помогла Sophy учитывать особенности разных трасс, находить оптимальные решения для их прохождения. Обработка данных проводилась на облачной платформе DART, сделанной Sony AI; для этого использовалось больше тысячи консолей PS4.
В дальнейшем Gran Turismo Sophy планируют добавить в другие части Gran Turismo. 10 февраля также выйдет номер научного журнала Nature, в котором опубликована статья о Sophy.
#новости #sony