Les gens qui font de l’intelligence artificielle disent que l’intelligence artificielle est une menace existentielle pour toute vie sur la planète et nous pourrions avoir de vrais problèmes si quelqu’un ne fait rien à ce sujet.
« Les experts en IA, les journalistes, les décideurs et le public discutent de plus en plus d’un large éventail de risques importants et urgents liés à l’IA », déclare le prélude de la déclaration du Center for AI Safety sur les risques liés à l’IA. « Même ainsi, il peut être difficile d’exprimer des inquiétudes concernant certains des risques les plus graves de l’IA avancée.
« La déclaration succincte ci-dessous vise à surmonter cet obstacle et à ouvrir la discussion. Elle vise également à créer une connaissance commune du nombre croissant d’experts et de personnalités publiques qui prennent également au sérieux certains des risques les plus graves de l’IA avancée. »
Et puis, enfin, la déclaration elle-même :
« Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire. »
C’est un vrai banger, d’accord, et plus de 300 chercheurs, professeurs d’université, chaires d’établissements, etc. y ont mis leur nom. Les deux principaux signataires, Geoffrey Hinton et Yoshua Bengio, ont tous deux été désignés dans le passé comme des « parrains » d’IA ; d’autres noms notables incluent le PDG de Google Deepmind (et ancien programmeur principal de l’IA de Lionhead) Demis Hassabis, le PDG d’OpenAI Sam Altman et le directeur technique de Microsoft Kevin Scott.
Dans l’ensemble, c’est un véritable buffet sans fond de gros cerveaux, ce qui me fait me demander comment ils semblent avoir collectivement ignoré ce que je pense être une question assez évidente : s’ils pensent sérieusement que leur travail menace l' »extinction » de l’humanité, alors pourquoi pas, tu sais, juste arrêt?
Peut-être diront-ils qu’ils ont l’intention d’être prudents, mais que d’autres seront moins scrupuleux. Et il y a bien sûr des inquiétudes légitimes quant aux risques posés par le développement incontrôlé et non réglementé de l’IA. Pourtant, il est difficile de ne pas penser que cette déclaration sensationnelle n’est pas aussi stratégique. Ce qui implique que nous envisageons un scénario Skynet à moins que les régulateurs gouvernementaux n’interviennent pourrait profiter aux entreprises d’IA déjà établies en rendant plus difficile pour les nouveaux arrivants de participer à l’action. Cela pourrait également donner l’occasion à des acteurs majeurs comme Google et Microsoft – encore une fois, les sociétés de recherche en IA établies – d’avoir leur mot à dire sur la façon dont une telle réglementation est façonnée, ce qui pourrait également fonctionner à leur avantage.
Le professeur Ryan Calo de la faculté de droit de l’Université de Washington a suggéré quelques autres raisons possibles pour l’avertissement : la distraction de problèmes plus immédiats et adressables avec l’IA et la création d’un battage médiatique.
« La première raison est d’attirer l’attention du public sur un scénario farfelu qui ne nécessite pas beaucoup de changements dans leurs modèles commerciaux. Aborder les impacts immédiats de l’IA sur le travail, la vie privée ou l’environnement est coûteux. Se protéger contre l’IA en quelque sorte » se réveille up’ n’est pas, » Calo tweeté.
« La seconde est d’essayer de convaincre tout le monde que l’IA est très, très puissante. Si puissante qu’elle pourrait menacer l’humanité ! Ils veulent que vous pensiez que nous avons de nouveau divisé l’atome, alors qu’en fait ils utilisent des données d’entraînement humain pour deviner des mots ou des pixels ou des sons. »
Calo a déclaré que dans la mesure où l’IA menace l’avenir de l’humanité, « c’est en accélérant les tendances existantes de l’inégalité des richesses et des revenus, le manque d’intégrité des informations et l’exploitation des ressources naturelles ».
« Je comprends que beaucoup de ces gens ont une croyance sincère et de bonne foi », a déclaré Calo. « Mais demandez-vous à quel point c’est plausible. Et s’il vaut la peine d’investir du temps, de l’attention et des ressources qui pourraient être utilisées pour lutter contre la confidentialité, les préjugés, les impacts environnementaux, les impacts sur le travail, qui se produisent réellement. »
Le professeur Emily M. Bender a été un peu plus directe dans son évaluation, qualifiant la lettre de « mur de la honte – où les gens ajoutent volontairement leur propre nom ».
« Nous devrions nous inquiéter des torts réels que font les corps et les personnes qui les composent au nom de » l’IA « , et non de Skynet », a écrit Bender.
Le nouveau « AI va tous nous tuer !! 1! » La lettre est un mur de la honte – où les gens ajoutent volontairement leurs propres noms. /t.co/YsuDm8AHUs30 mai 2023
Hinton, qui a récemment démissionné de son poste de chercheur chez Google, a exprimé des réflexions plus nuancées sur les dangers potentiels du développement de l’IA en avril, lorsqu’il a comparé l’IA à « l’équivalent intellectuel d’une rétrocaveuse », un outil puissant qui peut économiser beaucoup de travail. mais c’est aussi potentiellement dangereux s’il est mal utilisé. Une seule phrase comme celle-ci ne peut pas comporter de réel degré de complexité, mais – comme nous pouvons le voir dans la discussion généralisée de la déclaration sur les risques liés à l’IA – elle attire certainement l’attention.
Fait intéressant, Hinton a également suggéré en avril que la réglementation gouvernementale du développement de l’IA pourrait être inutile car il est pratiquement impossible de suivre ce que font les agences de recherche individuelles, et aucune entreprise ou gouvernement national ne voudra risquer de laisser quelqu’un d’autre obtenir un avantage. Pour cette raison, il a déclaré qu’il appartenait aux plus grands scientifiques du monde de travailler en collaboration pour contrôler la technologie, probablement en faisant plus que simplement envoyer un tweet demandant à quelqu’un d’autre d’intervenir.