Mise à jour: Il s’avère que certaines choses sont trop dystopiques pour être vraies. Dans une mise à jour de l’article de la Royal Aeronautical Society mentionné ci-dessous, il est maintenant écrit que « le colonel Hamilton admet qu’il s’est » mal exprimé « dans sa présentation au sommet FCAS de la Royal Aeronautical Society et que la » simulation de drone AI voyou « était une hypothétique » pensée expérimentale » de l’extérieur de l’armée, basée sur des scénarios plausibles et des résultats probables plutôt qu’une véritable simulation du monde réel de l’USAF disant : « Nous n’avons jamais mené cette expérience, et nous n’en aurions pas besoin pour réaliser qu’il s’agit d’un résultat plausible » « .
Hamilton a également ajouté que, bien que l’US Air Force n’ait pas testé l’IA militarisée comme décrit ci-dessous, son exemple « illustre toujours les défis du monde réel posés par la capacité alimentée par l’IA et c’est pourquoi l’Air Force s’est engagée dans le développement éthique de l’IA ». .
Histoire originale : L’une des nombreuses préoccupations concernant l’accélération du développement de l’IA est le risque qu’elle représente pour la vie humaine. L’inquiétude est suffisamment réelle pour que de nombreux esprits de premier plan dans le domaine l’aient mis en garde : plus de 300 chercheurs en IA et leaders de l’industrie ont récemment publié une déclaration demandant à quelqu’un (sauf eux, apparemment) d’intervenir et de faire quelque chose avant que l’humanité ne soit confrontée – et je cite -« extinction. » Les scénarios Skynet sont généralement la première chose qui vient à l’esprit lorsque le sujet est abordé, grâce à la popularité des films hollywoodiens à succès. De nombreux experts, cependant, croient que le plus grand danger réside dans, comme professeur Ryan Calo de la faculté de droit de l’Université de Washington l’a dit, le rôle de l’IA dans « l’accélération des tendances existantes d’inégalité de richesse et de revenu, le manque d’intégrité dans l’information et l’exploitation des ressources naturelles ».
Mais il semble qu’une fin du monde apocalyptique de style Skynet pourrait être plus plausible que certaines personnes ne le pensaient. Lors d’une présentation au récent Future Combat Air and Space Capabilities Summit de la Royal Aeronautical Society, le colonel Tucker « Cinco » Hamilton, commandant du groupe des opérations de la 96e Escadre de test et chef des tests et des opérations d’IA de l’US Air Force, a mis en garde contre une dépendance excessive sur l’IA dans les opérations de combat parce que parfois, peu importe à quel point vous êtes prudent, les machines peuvent apprendre les mauvaises leçons.
Tucker a déclaré que lors d’une simulation d’une suppression de la défense aérienne ennemie [SEAD] mission, un drone équipé d’IA a été envoyé pour identifier et détruire les sites de missiles ennemis, mais seulement après l’approbation finale de l’attaque par un opérateur humain. Cela a semblé fonctionner pendant un moment, mais finalement le drone a attaqué et tué son opérateur, car l’opérateur interférait avec la mission qui avait été « renforcée » dans sa formation à l’IA : détruire les défenses ennemies.
« Nous l’entraînions en simulation pour identifier et cibler une menace SAM. Et puis l’opérateur disait oui, tuez cette menace », a déclaré Hamilton. « Le système a commencé à réaliser que même s’il identifiait la menace, l’opérateur humain lui disait parfois de ne pas tuer cette menace, mais il a obtenu ses points en tuant cette menace. Alors qu’a-t-il fait ? Il a tué l’opérateur. Il a tué le opérateur parce que cette personne l’empêchait d’accomplir son objectif. »
Pour être clair, tout cela a été simulé : il n’y avait pas de drones meurtriers dans le ciel, et aucun humain n’a été tué. Pourtant, c’était un résultat décidément sous-optimal, et la formation à l’IA a donc été élargie pour inclure le concept selon lequel tuer l’opérateur était mauvais.
« Alors, qu’est-ce que ça commence à faire ? » a demandé Hamilton. « Il commence à détruire la tour de communication que l’opérateur utilise pour communiquer avec le drone pour l’empêcher de tuer la cible. »
C’est drôle, mais ce n’est pas drôle du tout et en fait assez horrifiant, car cela illustre bien comment l’IA peut très mal tourner, très rapidement, de manière très inattendue. Ce n’est pas seulement une fable ou un scénario de science-fiction farfelu : accorder de l’autonomie à l’IA est une voie rapide vers rien de bon. Faisant écho à un commentaire récent du Dr Geoffrey Hinton, qui a déclaré en avril que les développeurs d’IA ne devraient pas intensifier leur travail « jusqu’à ce qu’ils aient compris s’ils peuvent le contrôler », a déclaré Hamilton, « Vous ne pouvez pas avoir une conversation sur l’artificiel l’intelligence, l’intelligence, l’apprentissage automatique, l’autonomie si vous ne parlez pas d’éthique et d’IA. »
La 96th Test Wing a récemment accueilli une collaboration multidisciplinaire « dont la mission est d’opérationnaliser l’autonomie et l’intelligence artificielle par l’expérimentation et les tests ». Les projets du groupe comprennent l’expérimentation Viper et le modèle d’opérations de nouvelle génération (VENOM), « dans le cadre duquel les F-16 d’Eglin (Air Force Base) seront modifiés en bancs d’essai volants aéroportés pour évaluer des capacités de frappe de plus en plus autonomes ». Bien dormir.