dimanche, décembre 22, 2024

Vous pensez que les outils d’IA ne récoltent pas vos données ? Devine encore

L’ascension fulgurante de l’intelligence artificielle générative a créé une véritable sensation technologique grâce à des produits axés sur l’utilisateur tels que ChatGPT, Dall-E et Lensa d’OpenAI. Mais le boom de l’IA conviviale est arrivé en même temps que les utilisateurs semblent ignorer ou être laissés dans l’ignorance des risques pour la vie privée imposés par ces projets.

Au milieu de tout ce battage médiatique, cependant, les gouvernements internationaux et les grandes personnalités de la technologie commencent à tirer la sonnette d’alarme. Citant des problèmes de confidentialité et de sécurité, l’Italie vient d’interdire temporairement ChatGPT, inspirant potentiellement un blocage similaire en Allemagne. Dans le secteur privé, des centaines de chercheurs en IA et de leaders technologiques, dont Elon Musk et Steve Wozniak, ont signé une lettre ouverte demandant un moratoire de six mois sur le développement de l’IA au-delà de la portée du GPT-4.

L’action relativement rapide pour tenter de freiner le développement irresponsable de l’IA est louable, mais le paysage plus large des menaces que l’IA pose à la confidentialité et à la sécurité des données va au-delà d’un modèle ou d’un développeur. Bien que personne ne veuille pleuvoir sur le défilé des capacités de changement de paradigme de l’IA, il est maintenant nécessaire de s’attaquer de front à ses lacunes pour éviter que les conséquences ne deviennent catastrophiques.

La tempête de confidentialité des données de l’IA

S’il serait facile de dire qu’OpenAI et d’autres projets d’IA alimentés par les Big Tech sont seuls responsables du problème de confidentialité des données de l’IA, le sujet avait été abordé bien avant qu’il n’entre dans le courant dominant. Des scandales entourant la confidentialité des données dans l’IA se sont produits avant cette répression de ChatGPT – ils se sont simplement déroulés à l’abri des regards du public.

L’année dernière, Clearview AI, une société de reconnaissance faciale basée sur l’IA qui aurait été utilisée par des milliers de gouvernements et d’organismes chargés de l’application de la loi avec une connaissance publique limitée, s’est vu interdire de vendre la technologie de reconnaissance faciale à des entreprises privées aux États-Unis. Clearview s’est également vu infliger une amende de 9,4 millions de dollars au Royaume-Uni pour sa base de données illégale de reconnaissance faciale. Qui peut dire que les projets d’IA visuelle axés sur le consommateur tels que Midjourney ou d’autres ne peuvent pas être utilisés à des fins similaires ?

Le problème est qu’ils l’ont déjà été. Une série de scandales récents impliquant de la pornographie et de fausses nouvelles créées par le biais de produits d’IA grand public n’ont fait qu’accroître l’urgence de protéger les utilisateurs contre l’utilisation néfaste de l’IA. Il prend un concept hypothétique de mimétisme numérique et en fait une menace très réelle pour les gens ordinaires et les personnalités publiques influentes.

En rapport: Elizabeth Warren veut que la police soit à votre porte en 2024

Les modèles d’IA générative s’appuient fondamentalement sur des données nouvelles et existantes pour développer et renforcer leurs capacités et leur convivialité. C’est en partie la raison pour laquelle ChatGPT est si impressionnant. Cela étant dit, un modèle qui repose sur de nouvelles entrées de données a besoin d’un endroit pour obtenir ces données, et une partie de cela inclura inévitablement les données personnelles des personnes qui l’utilisent. Et cette quantité de données peut facilement être utilisée à mauvais escient si des entités centralisées, des gouvernements ou des pirates s’en emparent.

Ainsi, avec une portée limitée de réglementation complète et des opinions contradictoires sur le développement de l’IA, que peuvent faire les entreprises et les utilisateurs travaillant avec ces produits maintenant ?

Ce que les entreprises et les utilisateurs peuvent faire

Le fait que les gouvernements et d’autres développeurs lèvent des drapeaux autour de l’IA indique désormais en fait des progrès par rapport au rythme glacial de la réglementation des applications Web2 et de la cryptographie. Mais lever des drapeaux n’est pas la même chose que surveiller, donc maintenir un sentiment d’urgence sans être alarmiste est essentiel pour créer des réglementations efficaces avant qu’il ne soit trop tard.

L’interdiction de ChatGPT en Italie n’est pas la première grève que les gouvernements ont prise contre l’IA. L’UE et le Brésil adoptent tous des lois pour sanctionner certains types d’utilisation et de développement de l’IA. De même, le potentiel de l’IA générative à mener des violations de données a déclenché une action législative précoce de la part du gouvernement canadien.

Le problème des violations de données d’IA est assez grave, au point qu’OpenAI a même dû intervenir. Si vous avez ouvert ChatGPT il y a quelques semaines, vous avez peut-être remarqué que la fonction d’historique des discussions était désactivée. OpenAI a temporairement fermé la fonctionnalité en raison d’un grave problème de confidentialité où les invites d’inconnus ont été exposées et ont révélé des informations de paiement.

En rapport: Ne soyez pas surpris si l’IA essaie de saboter votre crypto

Bien qu’OpenAI ait effectivement éteint cet incendie, il peut être difficile de faire confiance aux programmes dirigés par les géants du Web2 qui sabrent leurs équipes d’éthique de l’IA pour faire ce qu’il faut de manière préventive.

Au niveau de l’industrie, une stratégie de développement de l’IA qui se concentre davantage sur l’apprentissage automatique fédéré renforcerait également la confidentialité des données. L’apprentissage fédéré est une technique d’IA collaborative qui forme des modèles d’IA sans que personne n’ait accès aux données, en utilisant plusieurs sources indépendantes pour former l’algorithme avec leurs propres ensembles de données à la place.

Du côté des utilisateurs, devenir un luddite de l’IA et renoncer complètement à l’utilisation de l’un de ces programmes n’est pas nécessaire et sera probablement impossible très bientôt. Mais il existe des moyens d’être plus intelligent quant à l’IA générative à laquelle vous accordez l’accès dans la vie quotidienne. Pour les entreprises et les petites entreprises qui intègrent des produits d’IA dans leurs opérations, il est encore plus vital d’être vigilant sur les données que vous alimentez l’algorithme.

Le dicton toujours vert selon lequel lorsque vous utilisez un produit gratuit, vos données personnelles est le produit s’applique toujours à l’IA. Garder cela à l’esprit peut vous amener à reconsidérer les projets d’IA sur lesquels vous passez votre temps et à quoi vous les utilisez réellement. Si vous avez participé à toutes les tendances des médias sociaux qui impliquent de publier des photos de vous sur un site Web louche alimenté par l’IA, envisagez de vous en passer.

ChatGPT a atteint 100 millions d’utilisateurs deux mois seulement après son lancement, un chiffre stupéfiant qui indique clairement que notre avenir numérique utilisera l’IA. Mais malgré ces chiffres, l’IA n’est pas encore omniprésente. Les régulateurs et les entreprises devraient utiliser cela à leur avantage pour créer des cadres pour un développement responsable et sécurisé de l’IA de manière proactive au lieu de courir après les projets une fois qu’ils deviennent trop gros pour être contrôlés. Dans l’état actuel des choses, le développement de l’IA générative n’est pas équilibré entre protection et progrès, mais il est encore temps de trouver la bonne voie pour garantir que les informations des utilisateurs et la confidentialité restent au premier plan.

Ryan Paterson est le président de Unplugged. Avant de prendre les rênes d’Unplugged, il a été le fondateur, président et chef de la direction d’IST Research de 2008 à 2020. Il a quitté IST Research avec la vente de l’entreprise en septembre 2020. Il a effectué deux tournées à la Defense Advanced Research Agency et 12 ans dans le Corps des Marines des États-Unis.

Eric Prince est un entrepreneur, un philanthrope et un vétéran de la Navy SEAL avec des intérêts commerciaux en Europe, en Afrique, au Moyen-Orient et en Amérique du Nord. Il a été fondateur et président de Frontier Resource Group et fondateur de Blackwater USA – un fournisseur de solutions mondiales de sécurité, de formation et de logistique pour le gouvernement américain et d’autres entités – avant de vendre l’entreprise en 2010.

Cet article est à des fins d’information générale et n’est pas destiné à être et ne doit pas être considéré comme un conseil juridique ou d’investissement. Les vues, pensées et opinions exprimées ici sont celles de l’auteur seul et ne reflètent pas ou ne représentent pas nécessairement les vues et opinions de Cointelegraph.


source site-13

- Advertisement -

Latest