Sony a créé une IA Gran Turismo qui démolit les meilleurs pilotes humains du monde

Un système Sony AI appelé GT Sophy fait la course dans le jeu vidéo Gran Turismo Sport.

Sony AI/Capture d’écran par Stephen Shankland/CNET

Au cours des deux dernières années, Sony AI a formé un système informatique pour jouer à Gran Turismo Sport de Polyphony Digital, un jeu de course automobile populaire et réaliste, et a battu certains des meilleurs concurrents humains au monde, a déclaré Sony mercredi.

L’IA, nommée GT Sophy, n’a vaincu les meilleurs humains que dans des contre-la-montre alors qu’il n’y avait aucune autre voiture sur la piste lors d’une compétition en juillet. Mais en octobre, GT Sophy a battu les humains même avec une mêlée de voitures de course virtuelles.

GT Sophy est la dernière expérience démontrant que l’IA peut être victorieuse à des jeux tels que les échecs et Go, qui ont longtemps été considérés comme le domaine de l’intelligence humaine. L’IA a également battu les joueurs des jeux vidéo classiques Atari et du jeu de stratégie en temps réel Starcraft.

Aujourd’hui, l’IA fait généralement référence à un processus de programmation d’ordinateurs utilisant une technologie connue sous le nom de réseaux de neurones, qui imitent le fonctionnement du cerveau humain. La réalisation de Sony est suffisamment remarquable pour justifier un article de recherche dans la prestigieuse revue Nature.

Un jeu vidéo de course automobile, comme Gran Turismo, présente des choix tactiques ouverts ainsi que des règles de physique simulées. GT Sophy a choisi de nouvelles façons de les approcher, a déclaré l’un des concurrents humains.

« L’IA conduit d’une manière que nous n’aurions jamais imaginée », a déclaré Takuma Miyazono, qui a remporté trois défis lors de la finale mondiale FIA ​​Gran Turismo 2020, s’exprimant dans une vidéo. Il a déclaré que la tactique de GT Sophy avait du sens lorsqu’il l’a vue conduire.

De nombreux systèmes d’IA sont formés avec des données du monde réel via un système appelé apprentissage en profondeur qui leur donne la capacité de reconnaître les visages et de repérer les spams. GT Sophy a utilisé une technique différente appelée apprentissage par renforcement qui commence par un système entièrement non formé qui n’a aucune idée de ce qu’il faut faire. Il a parcouru des parcours encore et encore, en suivant un système de récompense conçu par l’homme qui a encouragé de meilleurs résultats et a finalement maîtrisé le jeu.

Une difficulté particulière consistait à comprendre les règles non écrites de la course automobile, comme éviter les collisions et ne pas couper les autres pilotes de manière inappropriée.

« Nous avons tous sous-estimé à quel point il serait difficile d’avoir l’esprit sportif », a déclaré Peter Wurman, directeur de Sony AI, dans la vidéo. « Faire cela sans être trop agressif ni trop timide face aux concurrents. »

Sony AI a exécuté des simulations sur des ordinateurs connectés à une banque de plus de 1 000 consoles de jeux PlayStation 4.

Comme il est courant dans l’IA, Sony a formé ses versions de Sophy GT à l’aide de puces graphiques rapides. Pour exécuter les simulations, il a utilisé des ordinateurs avec des processeurs conventionnels.

Le suivant de la vénérable série, Gran Turismo 7fait ses débuts le 4 mars.

Source-139