L’Inde abandonne son projet d’exiger l’approbation du lancement de modèles d’IA

L’Inde revient sur un récent avis sur l’IA après avoir reçu les critiques de nombreux entrepreneurs et investisseurs locaux et mondiaux.

Vendredi, le ministère de l’Électronique et de l’informatique a partagé un avis mis à jour sur l’IA avec les parties prenantes de l’industrie, qui ne leur demandait plus d’obtenir l’approbation du gouvernement avant de lancer ou de déployer un modèle d’IA auprès des utilisateurs sur le marché sud-asiatique.

Dans le cadre des lignes directrices révisées, il est plutôt conseillé aux entreprises d’étiqueter les modèles d’IA sous-testés et peu fiables afin d’informer les utilisateurs de leur faillibilité ou de leur manque de fiabilité potentiel.

Cette révision fait suite aux critiques sévères adressées au ministère indien de l’informatique au début du mois par de nombreuses personnalités de premier plan. Martin Casado, associé de la société de capital-risque Andreessen Horowitz, a qualifié la décision indienne de « parodie ».

L’avis du 1er mars a également marqué un renversement de l’approche non interventionniste de l’Inde en matière de réglementation de l’IA. Il y a moins d’un an, le ministère avait refusé de réglementer la croissance de l’IA, considérant ce secteur comme vital pour les intérêts stratégiques de l’Inde.

Le nouvel avis, comme l’original du début du mois, n’a pas été publié en ligne, mais TechCrunch en a examiné une copie.

Le ministère a déclaré plus tôt ce mois-ci que, bien que l’avis ne soit pas juridiquement contraignant, il signale qu’il s’agit de « l’avenir de la réglementation » et que le gouvernement exige qu’il s’y conforme.

L’avis souligne que les modèles d’IA ne doivent pas être utilisés pour partager des contenus illégaux en vertu de la loi indienne et ne doivent pas permettre des préjugés, de la discrimination ou des menaces à l’intégrité du processus électoral. Il est également conseillé aux intermédiaires d’utiliser des « fenêtres contextuelles de consentement » ou des mécanismes similaires pour informer explicitement les utilisateurs du manque de fiabilité des résultats générés par l’IA.

Le ministère a continué de veiller à ce que les deepfakes et la désinformation soient facilement identifiables, conseillant aux intermédiaires d’étiqueter ou d’intégrer le contenu avec des métadonnées ou des identifiants uniques. Cela n’oblige plus les entreprises à concevoir une technique pour identifier « l’auteur » d’un message particulier.

Source-146