Le conseiller du groupe de travail sur l’IA auprès du Premier ministre du Royaume-Uni a déclaré que les humains avaient environ deux ans pour contrôler et réguler l’intelligence artificielle (IA) avant qu’elle ne devienne trop puissante.
Dans un entretien avec un média britannique local, Matt Clifford, qui est également président de l’Agence gouvernementale pour la recherche avancée et l’invention (ARIA), a souligné que les systèmes actuels deviennent « de plus en plus performants à un rythme de plus en plus rapide ».
Il a poursuivi en disant que si les responsables ne commencent pas à considérer la sécurité et les réglementations maintenant, dans deux ans, les systèmes deviendront « très puissants ».
« Nous avons deux ans pour mettre en place un cadre qui rend à la fois le contrôle et la régulation de ces très grands modèles beaucoup plus possibles qu’aujourd’hui. »
Clifford a averti qu’il existe « de nombreux types de risques différents » en ce qui concerne l’IA, à court et à long terme, qu’il a qualifiés de « assez effrayants ».
L’interview est intervenue à la suite d’une lettre publié par le Center for AI Safety la semaine précédente, qui a été signé par 350 experts en IA, dont le PDG d’OpenAI, qui a déclaré que l’IA devrait être traitée comme une menace existentielle similaire à celle posée par les armes nucléaires et les pandémies.
« Ils parlent de ce qui se passe une fois que nous avons effectivement créé une nouvelle espèce, une sorte d’intelligence supérieure à celle des humains. »
Le conseiller du groupe de travail sur l’IA a déclaré que ces menaces posées par l’IA pourraient être des menaces « très dangereuses » qui pourraient « tuer de nombreux humains, pas tous les humains, simplement d’où nous nous attendons à ce que les modèles soient dans deux ans ».
En rapport: Les retours cryptographiques liés à l’IA ont augmenté de 41 % après le lancement de ChatGPT : étude
Selon Clifford, l’objectif principal des régulateurs et des développeurs devrait être de comprendre comment contrôler les modèles, puis de mettre en œuvre des réglementations à l’échelle mondiale.
Pour l’instant, il a déclaré que sa plus grande crainte était le manque de compréhension des raisons pour lesquelles les modèles d’IA se comportent comme ils le font.
« Les personnes qui construisent les systèmes les plus performants admettent librement qu’elles ne comprennent pas exactement comment [AI systems] montrent les comportements qu’ils font.
Clifford a souligné que de nombreux dirigeants d’organisations développant l’IA conviennent également que les modèles d’IA puissants doivent subir un certain type de processus d’audit et d’évaluation avant leur déploiement.
Actuellement, les régulateurs du monde entier s’efforcent à la fois de comprendre la technologie et ses ramifications, tout en essayant de créer des réglementations qui protègent les utilisateurs tout en permettant l’innovation.
Le 5 juin, des responsables de l’Union européenne sont allés jusqu’à suggérer des mandats selon lesquels tous les contenus générés par l’IA devraient être étiquetés comme tels afin d’empêcher la désinformation.
Au Royaume-Uni, un ministre du parti d’opposition a fait écho aux sentiments mentionnés dans la lettre du CAIS, affirmant que la technologie devrait être réglementée, tout comme la médecine et l’énergie nucléaire.
Magazine: AI Eye : 25 000 traders parient sur les sélections d’actions de ChatGPT, l’IA craint les lancers de dés, etc.