L’attaque de Meta contre la vie privée devrait servir d’avertissement contre l’IA

Dans un monde de plus en plus axé sur l’IA, la blockchain pourrait jouer un rôle essentiel en empêchant les péchés commis par des applications comme Facebook de se généraliser et de se normaliser.

Les plateformes d’intelligence artificielle telles que ChatGPT et Bard de Google sont entrées dans le courant dominant et ont déjà été accusées d’attiser la fracture politique avec leurs préjugés. Comme le prédisent des films populaires tels que Le terminateur, La matrice et plus récemment, Mission : Impossible – Dead Reckoning, première partieil est déjà devenu évident que l’IA est un animal sauvage que nous aurons probablement du mal à apprivoiser.

Des campagnes de désinformation qui tuent la démocratie aux drones tueurs en passant par la destruction totale de la vie privée des individus, l’IA peut potentiellement transformer l’économie mondiale et probablement la civilisation elle-même. En mai 2023, les leaders mondiaux de la technologie ont écrit une lettre ouverte qui a fait la une des journaux, avertissant que les dangers de la technologie de l’IA pourraient être comparables à ceux des armes nucléaires.

En rapport: Petites amies, enfants assassinés, androïdes assassins : l’IA est-elle maudite ?

L’une des craintes les plus importantes concernant l’IA est le manque de transparence autour de sa formation et de sa programmation, en particulier dans les modèles d’apprentissage profond qui peuvent être difficiles à exproprier. Étant donné que les données sensibles sont utilisées pour entraîner les modèles d’IA, elles peuvent être manipulées si les données sont compromises.

Dans les années à venir, la blockchain sera largement utilisée aux côtés de l’IA pour améliorer la transparence, la responsabilité et l’audibilité de son processus décisionnel.

Par exemple, lors de la formation d’un modèle d’IA à l’aide de données stockées sur une blockchain, la provenance et l’intégrité des données peuvent être garanties, empêchant ainsi les modifications non autorisées. Les parties prenantes peuvent suivre et vérifier le processus de prise de décision en enregistrant les paramètres de formation du modèle, les mises à jour et les résultats de validation sur la blockchain.

Avec ce cas d’utilisation, la blockchain jouera un rôle de premier plan dans la prévention de l’utilisation abusive involontaire de l’IA. Mais qu’en est-il de l’intentionnel ? Il s’agit d’un scénario beaucoup plus dangereux auquel nous serons malheureusement probablement confrontés dans les années à venir.

Même sans l’IA, les Big Tech centralisées ont toujours aidé et encouragé les comportements qui profitent en manipulant à la fois les individus et les valeurs démocratiques au plus offrant, comme l’a rendu célèbre le scandale Cambridge Analytica de Facebook. En 2014, l’application « Thisisyourdigitallife » proposait de rémunérer les utilisateurs pour des tests de personnalité, qui nécessitaient une autorisation pour accéder à leur profil Facebook et à celui de leurs amis. Essentiellement, Facebook a permis à Cambridge Analytica d’espionner les utilisateurs sans autorisation.

Le résultat? Deux campagnes historiques de relations publiques psychologiques de masse qui ont eu une influence relativement forte à la fois sur les résultats de l’élection présidentielle américaine et sur le référendum sur l’adhésion du Royaume-Uni à l’Union européenne en 2016. Meta (anciennement Facebook) a-t-elle appris de ses erreurs ? Cela n’en a pas l’air.

En juillet, Meta a dévoilé sa dernière application, Threads. Présenté comme un rival du Twitter d’Elon Musk, il récolte les données habituelles collectées par Facebook et Instagram. Mais – comme pour TikTok – lorsque les utilisateurs de Threads se sont inscrits, ils ont involontairement donné à Meta accès à la localisation GPS, à l’appareil photo, aux photos, aux informations IP, au type d’appareil et aux signaux de l’appareil. C’est une pratique courante du Web2 de justifier de telles pratiques, en vantant que « les utilisateurs ont accepté les termes et conditions ». En réalité, il faudrait en moyenne 76 heures de travail jours lire chaque politique de confidentialité de chaque application utilisée par un utilisateur Internet standard. Le point? Meta a désormais accès à presque tout sur les téléphones de plus de 150 millions d’utilisateurs.

Vient ensuite l’IA. Si les conséquences du scandale Cambridge Analytica suscitent des inquiétudes, pouvons-nous seulement commencer à comprendre les impacts d’un mariage entre cette surveillance invasive et l’intelligence divine de l’IA ?

Le remède sans surprise est la blockchain, mais la solution n’est pas aussi simple.

En rapport: La folie absurde de l’IA touche à sa fin

L’un des principaux dangers de l’IA réside dans les données qu’elle peut collecter puis transformer en arme. Concernant les médias sociaux, la technologie blockchain peut potentiellement améliorer la confidentialité et le contrôle des données, ce qui pourrait contribuer à atténuer les pratiques de collecte de données des Big Tech. Cependant, il est peu probable que cela « empêche » les Big Tech de prendre des données sensibles.

Pour véritablement se prémunir contre les dangers intentionnels de l’IA et parer à de futurs scénarios de type Cambridge Analytica, des plateformes de médias sociaux décentralisées, de préférence basées sur la blockchain, sont nécessaires. De par leur conception, ils réduisent la concentration des données des utilisateurs dans une seule entité centrale, minimisant ainsi le potentiel de surveillance de masse et de campagnes de désinformation par l’IA.

En termes simples, grâce à la technologie blockchain, nous disposons déjà des outils nécessaires pour préserver notre indépendance vis-à-vis de l’IA, tant au niveau individuel que national.

Peu de temps après avoir signé la lettre ouverte aux gouvernements sur les dangers de l’IA en mai, Sam Altman, PDG d’OpenAI pa publié un article de blog proposant plusieurs stratégies pour une gestion responsable des systèmes d’IA puissants. Ils impliquaient une collaboration entre les principaux développeurs d’IA, une étude technique plus approfondie des grands modèles de langage et la création d’une organisation mondiale pour la sécurité de l’IA.

Bien que ces mesures constituent un bon début, elles ne parviennent pas à s’attaquer aux systèmes qui nous rendent vulnérables à l’IA, à savoir les entités Web2 centralisées telles que Meta. Pour véritablement se prémunir contre l’IA, il est urgent de développer davantage de technologies basées sur la blockchain, notamment dans le domaine de la cybersécurité, et de créer un écosystème véritablement compétitif d’applications de médias sociaux décentralisées.

Callum Kennard est le gestionnaire de contenu chez Storm Partners, un fournisseur de solutions Web3 basé en Suisse. Il est diplômé de l’Université de Brighton en Angleterre.

Cet article est destiné à des fins d’information générale et n’est pas destiné à être et ne doit pas être considéré comme un conseil juridique ou en investissement. Les points de vue, pensées et opinions exprimés ici appartiennent uniquement à l’auteur et ne reflètent pas ou ne représentent pas nécessairement les points de vue et opinions de Cointelegraph.


source site-13