lundi, décembre 23, 2024

L’IA pourrait surpasser les humains en tant qu’« espèce suprême »

L’intelligence artificielle ultra-avancée, si elle n’est pas contrôlée, a de « sérieuses chances » de surpasser les humains pour devenir la prochaine « espèce suprême » de la planète, selon le co-fondateur d’Ethereum, Vitalik Buterin.

Mais cela se résumera à la manière dont les humains pourraient intervenir dans les développements de l’IA, a-t-il déclaré.

Dans un article de blog du 27 novembre, Buterin, considéré par certains comme un leader d’opinion dans le domaine des crypto-monnaies, argumenté L’IA est « fondamentalement différente » des autres inventions récentes – telles que les médias sociaux, la contraception, les avions, les armes à feu, le volant et la presse à imprimer – car l’IA peut créer un nouveau type « d’esprit » qui peut se retourner contre les intérêts humains, ajoutant :

« L’IA est […] un nouveau type d’esprit qui gagne rapidement en intelligence, et qui a de sérieuses chances de dépasser les facultés mentales des humains et de devenir la nouvelle espèce suprême de la planète.

Buterin a fait valoir que contrairement au changement climatique, à une pandémie d’origine humaine ou à une guerre nucléaire, l’IA superintelligente pourrait potentiellement mettre fin à l’humanité et ne laisser aucun survivant, en particulier si elle finit par considérer les humains comme une menace pour sa propre survie.

« L’une des façons dont un échec de l’IA pourrait aggraver le monde est (presque) la pire possible : elle pourrait littéralement provoquer l’extinction de l’humanité. »

« Même Mars n’est peut-être pas en sécurité », a ajouté Buterin.

Butérine cité une enquête d’août 2022 menée auprès de plus de 4 270 chercheurs en apprentissage automatique qui estimait qu’il y avait 5 à 10 % de chances que l’IA tue l’humanité.

Cependant, même si Buterin a souligné que les affirmations de cette nature sont « extrêmes », il existe également des moyens pour les humains de l’emporter.

Interfaces cérébrales et techno-optimisme

Buterin a suggéré d’intégrer des interfaces cerveau-ordinateur (BCI) pour offrir aux humains plus de contrôle sur des formes puissantes de calcul et de cognition basées sur l’IA.

Un BCI est une voie de communication entre l’activité électrique du cerveau et un appareil externe, tel qu’un ordinateur ou un membre robotique.

Cela réduirait la boucle de communication bidirectionnelle entre l’homme et la machine de quelques secondes à quelques millisecondes et, plus important encore, garantirait que les humains conservent un certain degré d’« action significative » sur le monde, a déclaré Buterin.

Un diagramme illustrant deux boucles de rétroaction possibles entre les humains et l’IA. Source : Vitalik.eth

En rapport: Comment l’IA change la cryptographie : battage médiatique contre réalité

Buterin a suggéré que cette voie serait « plus sûre » car les humains pourraient être impliqués dans chaque décision prise par la machine IA.

« Nous [can] réduisez l’incitation à confier la responsabilité de planification de haut niveau à l’IA elle-même, et réduisez ainsi le risque que l’IA fasse par elle-même quelque chose qui ne corresponde absolument pas aux valeurs de l’humanité.

Le co-fondateur d’Ethereum a également suggéré une « intention humaine active » d’amener l’IA dans une direction qui profite à l’humanité, car maximiser le profit ne conduit pas toujours l’homme sur la voie la plus souhaitable.

Buterin a conclu que « nous, les humains, sommes l’étoile la plus brillante » de l’univers, car nous avons développé des technologies pour développer le potentiel humain pendant des milliers d’années, et nous espérons que bien d’autres à venir :

« Dans deux milliards d’années, si la Terre ou n’importe quelle partie de l’univers recèle encore la beauté de la vie terrestre, ce seront les artifices humains comme les voyages spatiaux et la géo-ingénierie qui auront rendu cela possible. »

Revue: Cas d’utilisation réels de l’IA dans la cryptographie, n° 1 : le meilleur argent pour l’IA est la cryptographie