Le créateur de ChatGPT, OpenAI, crée une nouvelle équipe pour vérifier les risques liés à l’IA

OpenAI, la société de recherche et de déploiement d’intelligence artificielle (IA) derrière ChatGPT, lance une nouvelle initiative pour évaluer un large éventail de risques liés à l’IA.

OpenAI constitue une nouvelle équipe dédiée au suivi, à l’évaluation, à la prévision et à la protection des risques catastrophiques potentiels découlant de l’IA, l’entreprise annoncé le 25 octobre.

Appelée « Preparedness », la nouvelle division d’OpenAI se concentrera spécifiquement sur les menaces potentielles de l’IA liées aux menaces chimiques, biologiques, radiologiques et nucléaires, ainsi que sur la persuasion individualisée, la cybersécurité et la réplication et adaptation autonomes.

Dirigée par Aleksander Madry, l’équipe de préparation tentera de répondre à des questions telles que la dangerosité des systèmes d’IA frontaliers lorsqu’ils sont utilisés à mauvais escient, ainsi que la possibilité pour des acteurs malveillants de déployer des poids de modèles d’IA volés.

« Nous pensons que les modèles d’IA de pointe, qui dépasseront les capacités actuellement présentes dans les modèles existants les plus avancés, ont le potentiel de bénéficier à l’ensemble de l’humanité », a écrit OpenAI, admettant que les modèles d’IA présentent également « des risques de plus en plus graves ». La société a ajouté :

« Nous prenons au sérieux l’ensemble des risques de sécurité liés à l’IA, depuis les systèmes dont nous disposons aujourd’hui jusqu’aux confins de la superintelligence. […] Pour soutenir la sécurité des systèmes d’IA hautement performants, nous développons notre approche de préparation aux risques catastrophiques.

Selon le billet de blog, OpenAI recherche désormais des talents issus de différentes formations techniques pour sa nouvelle équipe de préparation. De plus, la société lance un AI Preparedness Challenge pour la prévention des abus catastrophiques, offrant 25 000 $ en crédits API à ses 10 meilleures soumissions.

OpenAI a précédemment annoncé qu’elle prévoyait de former une nouvelle équipe dédiée à la lutte contre les menaces potentielles de l’IA en juillet 2023.

En rapport: CoinMarketCap lance le plugin ChatGPT

Les risques potentiellement associés à l’intelligence artificielle ont été fréquemment soulignés, ainsi que les craintes selon lesquelles l’IA pourrait devenir plus intelligente que n’importe quel être humain. Bien qu’elles soient conscientes de ces risques, des entreprises comme OpenAI ont activement développé de nouvelles technologies d’IA ces dernières années, ce qui a suscité de nouvelles inquiétudes.

En mai 2023, l’organisation à but non lucratif Center for AI Safety libéré une lettre ouverte sur les risques liés à l’IA, exhortant la communauté à atténuer les risques d’extinction de l’IA en tant que priorité mondiale, aux côtés d’autres risques à l’échelle sociétale, tels que les pandémies et la guerre nucléaire.

Revue: Comment protéger votre crypto dans un marché volatil – Les OG et les experts Bitcoin interviennent