Nous n’avons pas besoin de réinventer la roue pour réglementer l’IA de manière responsable

Nous vivons l’une des révolutions technologiques les plus transformatrices du siècle dernier. Pour la première fois depuis le boom technologique des années 2000 (ou même depuis la révolution industrielle), nos fonctions sociétales essentielles sont bouleversées par des outils jugés innovants par les uns et déstabilisants pour les autres. Même si les avantages perçus continueront de polariser l’opinion publique, l’impact généralisé de l’IA sur l’avenir du travail et de la communication suscite peu de débats.

Les investisseurs institutionnels ont tendance à être d’accord. Au cours des trois dernières années seulement, les investissements en capital-risque dans l’IA générative ont augmenté de 425 %, atteignant jusqu’à 4,5 milliards de dollars en 2022, selon PitchBook. Cet engouement récent pour le financement est principalement dû à une convergence technologique généralisée dans différents secteurs. Des géants du conseil comme KPMG et Accenture investissent des milliards dans l’IA générative pour renforcer leurs services clients. Les compagnies aériennes utilisent de nouveaux modèles d’IA pour optimiser leurs offres de routes. Même les entreprises de biotechnologie utilisent désormais l’IA générative pour améliorer les thérapies par anticorps contre des maladies potentiellement mortelles.

Naturellement, cette technologie disruptive a rapidement fait son apparition sur le radar réglementaire. Des personnalités comme Lina Khan de la Federal Trade Commission ont fait valoir que l’IA pose de sérieux risques sociétaux dans tous les secteurs verticaux, citant l’augmentation de l’incidence de la fraude, la discrimination automatisée et l’inflation collusoire des prix si rien n’est fait.

L’exemple le plus largement évoqué de l’importance accordée à la réglementation de l’IA est peut-être le récent témoignage de Sam Altman devant le Congrès, dans lequel il a affirmé que « l’intervention réglementaire des gouvernements sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants ». En tant que PDG de l’une des plus grandes startups d’IA au monde, Altman s’est rapidement engagé auprès des législateurs pour garantir que la question de la réglementation évolue vers une discussion entre les secteurs public et privé. Depuis, il s’est joint à d’autres leaders de l’industrie pour rédiger une lettre ouverte commune affirmant que «[m]réduire le risque d’extinction dû à l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle sociétale, tels que les pandémies et la guerre nucléaire.

Naturellement, cette technologie disruptive a rapidement fait son apparition sur le radar réglementaire.

Des technologues comme Altman et des régulateurs comme Khan conviennent que la réglementation est essentielle pour garantir des applications technologiques plus sûres, mais aucune des parties n’a tendance à se fixer sur la portée. En général, les fondateurs et les entrepreneurs recherchent des restrictions limitées pour créer un environnement économique propice à l’innovation, tandis que les responsables gouvernementaux s’efforcent d’imposer des limites plus larges pour protéger les consommateurs.

Cependant, les deux parties ne réalisent pas que dans certains domaines, la réglementation fonctionne sans problème depuis des années. L’avènement d’Internet, des moteurs de recherche et des médias sociaux a marqué le début d’une vague de surveillance gouvernementale telle que la loi sur les télécommunications, la loi sur la protection de la vie privée en ligne des enfants (COPPA) et la loi californienne sur la protection de la vie privée des consommateurs (CCPA). Plutôt que d’instituer un cadre général et global de politiques restrictives qui entravent sans doute l’innovation technologique, les États-Unis maintiennent un patchwork de politiques qui intègrent des lois fondamentales de longue date telles que la propriété intellectuelle, la vie privée, les contrats, le harcèlement, la cybercriminalité, la protection des données et la cybersécurité. .

Ces cadres s’inspirent souvent de normes technologiques établies et bien acceptées et favorisent leur adoption et leur utilisation dans les services et les technologies naissantes. Ils garantissent également l’existence d’organisations de confiance qui appliquent ces normes au niveau opérationnel.

Prenons par exemple les protocoles Secure Sockets Layer (SSL)/Transport Layer Security (TLS). À la base, SSL/TLS sont des protocoles de cryptage qui garantissent que les données transférées entre les navigateurs et les serveurs restent sécurisées (permettant le respect des obligations de cryptage du CCPA, du règlement général sur la protection des données de l’UE, etc.). Cela s’applique aux informations client, aux détails des cartes de crédit et à toutes les formes de données personnelles que des acteurs malveillants peuvent exploiter. Les certificats SSL sont émis par des autorités de certification (CA), qui servent de validateurs pour prouver que les informations transférées sont authentiques et sécurisées.

La même relation symbiotique peut et doit exister pour l’IA. Le respect de normes de licence agressives de la part des entités gouvernementales mettra un terme à l’industrie et ne profitera qu’aux acteurs les plus largement utilisés comme OpenAI, Google et Meta, créant ainsi un environnement anticoncurrentiel. Une norme de certification de type SSL, légère et facile à utiliser, régie par des autorités de certification indépendantes, protégerait les intérêts des consommateurs tout en laissant une marge d’innovation.

Celles-ci pourraient être faites pour que l’utilisation de l’IA soit transparente pour les consommateurs et pour indiquer clairement si un modèle est utilisé, quel modèle fondamental est en jeu et s’il provient d’une source fiable. Dans un tel scénario, le gouvernement a encore un rôle à jouer en co-créant et en promouvant de tels protocoles pour en faire des normes largement utilisées et acceptées.

À la base, la réglementation est en place pour protéger des principes fondamentaux tels que la vie privée des consommateurs, la sécurité des données et la propriété intellectuelle, et non pour restreindre la technologie avec laquelle les utilisateurs choisissent d’interagir quotidiennement. Ces fondamentaux sont déjà protégés sur Internet et peuvent l’être grâce à l’IA utilisant des structures similaires.

Depuis l’avènement d’Internet, la réglementation a réussi à maintenir un juste milieu en matière de protection des consommateurs et d’incitation à l’innovation, et les acteurs gouvernementaux ne devraient pas adopter une approche différente simplement en raison du développement technologique rapide. Réglementer l’IA ne devrait pas réinventer la roue, quel que soit le discours politique polarisé.

Source-146