mardi, décembre 24, 2024

Les entreprises d’IA s’engagent à une IA sûre et transparente, rapporte la Maison Blanche

La Maison Blanche a annoncé le 21 juillet que d’importantes sociétés d’intelligence artificielle (IA), telles que OpenAI, Google et Microsoft, se sont engagées à créer une technologie d’IA sûre, sécurisée et transparente. De plus, la Maison Blanche a reconnu d’autres sociétés comme Amazon, Anthropic, Meta et Inflection pour s’être également engagées en faveur de la sécurité de l’IA.

L’administration Biden souligné la responsabilité de ces entreprises d’assurer la sécurité de leurs produits. L’objectif est d’exploiter le potentiel de l’IA tout en promouvant les normes les plus élevées dans son développement.

Kent Walker, président des affaires mondiales de Google, reconnu que réussir dans l’IA nécessite une collaboration. Il s’est dit satisfait de se joindre à d’autres grandes entreprises d’IA pour soutenir ces engagements et a assuré qu’elles continueraient à travailler ensemble en partageant des informations et des meilleures pratiques.

Capture d’écran de la déclaration de la Maison Blanche. Source : Maison Blanche

Parmi les engagements figurent les tests de sécurité préalables à la publication des systèmes d’IA, le partage des meilleures pratiques en matière de sécurité de l’IA, l’investissement dans la cybersécurité et les protections contre les menaces internes et la possibilité pour des tiers de signaler les vulnérabilités des systèmes d’IA. Anna Makanju, vice-présidente des affaires mondiales d’OpenAI, déclaré que les décideurs du monde entier envisagent de nouvelles réglementations pour les systèmes d’IA avancés.

En juin, les législateurs américains bipartites ont présenté un projet de loi visant à créer une commission sur l’IA, répondant aux préoccupations de l’industrie en croissance rapide. L’administration Biden dit qu’elle collabore avec des partenaires mondiaux comme l’Australie, le Canada, la France, l’Allemagne, l’Inde, Israël, l’Italie, le Japon, le Nigéria, les Philippines et le Royaume-Uni pour établir un cadre international pour l’IA.

Selon le président de Microsoft, Brad Smith, la société est endossant – approuver tous les engagements volontaires du président Biden et s’engager indépendamment dans des pratiques supplémentaires qui s’alignent sur ces objectifs cruciaux. Ce faisant, Microsoft vise à étendre ses pratiques d’IA sûres et responsables et à collaborer avec d’autres leaders du secteur.

En rapport: AI21 Labs lance une fonctionnalité anti-hallucination pour les chatbots GPT

Les dirigeants mondiaux, y compris le Secrétaire général des Nations Unies, ont exprimé leurs inquiétudes quant à l’utilisation abusive potentielle de l’IA générative et de la technologie deepfake dans les zones de conflit. En mai, l’administration Biden a rencontré des dirigeants de l’IA pour jeter les bases d’un développement éthique de l’IA et a annoncé un investissement important de 140 millions de dollars dans la recherche et le développement de l’IA par la National Science Foundation.

L’administration a souligné que ces engagements immédiats des entreprises mettent en évidence les principes essentiels de sûreté, de sécurité et de confiance, signifiant une étape cruciale vers le développement responsable de l’IA.

Magazine: AI Eye : la réservation de voyages par IA est hilarante, 3 utilisations étranges pour ChatGPT, les plugins cryptographiques