samedi, décembre 28, 2024

Les leaders technologiques et les experts en IA exigent une pause de six mois sur les expériences d’IA « hors de contrôle »

Une lettre ouverte signée par des leaders technologiques et d’éminents chercheurs en IA a appelé les laboratoires et les entreprises d’IA à « mettre immédiatement en pause » leurs travaux. Des signataires comme Steve Wozniak et Elon Musk conviennent que les risques justifient une pause d’au moins six mois dans la production de technologies au-delà du GPT-4 pour profiter des systèmes d’IA existants, permettre aux gens de s’adapter et s’assurer qu’ils profitent à tous. La lettre ajoute que la prudence et la prévoyance sont nécessaires pour assurer la sécurité des systèmes d’IA – mais sont ignorées.

La référence à GPT-4, un modèle d’OpenAI qui peut répondre avec du texte à des messages écrits ou visuels, intervient alors que les entreprises se précipitent pour créer des systèmes de chat complexes qui utilisent la technologie. Microsoft, par exemple, a récemment confirmé que son moteur de recherche Bing remanié était alimenté par le modèle GPT-4 depuis plus de sept semaines, tandis que Google a récemment lancé Bard, son propre système d’IA générative alimenté par LaMDA. Le malaise autour de l’IA circule depuis longtemps, mais la course apparente pour déployer la technologie d’IA la plus avancée en premier a suscité des préoccupations plus urgentes.

« Malheureusement, ce niveau de planification et de gestion ne se produit pas, même si ces derniers mois ont vu les laboratoires d’IA enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre. , prévoir ou contrôler de manière fiable », indique la lettre.

La lettre concernée a été publiée par le Future of Life Institute (FLI), une organisation dédiée à minimiser les risques et l’utilisation abusive des nouvelles technologies. Musk avait précédemment fait don de 10 millions de dollars à FLI pour une utilisation dans des études sur la sécurité de l’IA. En plus de lui et de Wozniak, les signataires comprennent un grand nombre de leaders mondiaux de l’IA, tels que le président du Center for AI and Digital Policy, Marc Rotenberg, le physicien du MIT et président de l’Institut Future of Life, Max Tegmark, et l’auteur Yuval Noah Harari. Harari a également co-écrit un éditorial dans le New York Times la semaine dernière, mettant en garde contre les risques liés à l’IA, ainsi que les fondateurs du Center for Humane Technology et les autres signataires, Tristan Harris et Aza Raskin.

Cet appel ressemble à la prochaine étape d’une enquête menée en 2022 auprès de plus de 700 chercheurs en apprentissage automatique, dans laquelle près de la moitié des participants ont déclaré qu’il y avait 10% de chances d’un « résultat extrêmement mauvais » de l’IA, y compris l’extinction humaine. Interrogés sur la sécurité dans la recherche sur l’IA, 68% des chercheurs ont déclaré qu’il faudrait en faire plus ou beaucoup plus.

Toute personne partageant des préoccupations concernant la rapidité et la sécurité de la production d’IA est invitée à ajouter son nom à la lettre. Cependant, les nouveaux noms ne sont pas nécessairement vérifiés, donc tout ajout notable après la publication initiale est potentiellement faux.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.

Source-145

- Advertisement -

Latest