Une étude de Stanford et Google DeepMind révèle qu’une interview de deux heures peut suffire à une IA pour créer une réplique numérique précise de la personnalité d’un individu. Les agents de simulation, formés à partir des réponses de 1 052 participants, ont réussi à reproduire des comportements humains avec une précision de 85 %. Cette avancée soulève des questions éthiques concernant l’utilisation abusive potentielle de telles technologies, notamment en matière de sécurité et de confidentialité.
Vous pourriez croire que votre personnalité est inimitable, mais une simple interview de deux heures pourrait permettre à une intelligence artificielle de créer une réplique numérique de vos attitudes et comportements. C’est ce que révèlent des recherches menées par des universitaires de Stanford et de Google DeepMind.
Une étude fascinante sur la personnalité humaine
Dans cette étude, 1 052 participants ont été invités à répondre à une interview de deux heures portant sur divers sujets, allant de leur parcours personnel à leurs idées sur des enjeux sociaux actuels. Leurs réponses ont été enregistrées et utilisées pour entraîner des modèles d’IA générative, appelés « agents de simulation », représentant chaque individu.
Pour évaluer la capacité de ces agents à reproduire les comportements humains, ils ont été soumis à plusieurs tâches, y compris des tests de personnalité et des jeux. Deux semaines plus tard, les participants ont été invités à reproduire leurs réponses initiales. Fait surprenant, les agents d’IA ont réussi à simuler des réponses avec une précision de 85 % par rapport aux réponses humaines.
En outre, ces agents de simulation ont montré une efficacité comparable lorsqu’il s’agissait de prédire des traits de personnalité lors de cinq expériences en sciences sociales. Ce résultat soulève des questions sur la nature même de la personnalité, qui peut sembler insaisissable, mais qui peut être quantifiée à partir d’un ensemble limité d’informations qualitatives.
Des implications éthiques et pratiques
Dirigée par Joon Sung Park, un doctorant de Stanford, cette recherche vise à fournir aux scientifiques en sciences sociales une plus grande flexibilité dans la conduite de leurs études. En créant des répliques numériques qui se comportent comme de vraies personnes, les chercheurs peuvent réaliser des expériences sans le coût et la logistique d’inviter des milliers de participants humains.
Cela ouvre également la possibilité de mener des expériences qui pourraient être considérées comme contraires à l’éthique avec de vrais participants. John Horton, professeur associé à la MIT Sloan School of Management, a souligné que cette approche permet d’utiliser de vraies données humaines pour générer des personas destinées à des simulations, ce qui n’est pas réalisable avec de vrais individus.
Cependant, l’idée que ces agents de simulation pourraient être utilisés de manière malveillante suscite des inquiétudes croissantes. Park a avancé que, dans un avenir proche, il pourrait exister de nombreuses versions « miniatures » de vous-même, prenant des décisions à votre place. Cela évoque des scénarios dystopiques, où les répliques numériques soulèvent des préoccupations en matière de sécurité, de confidentialité et de vol d’identité.
Avec seulement deux heures de données d’interview nécessaires pour créer ces agents, la perspective d’une utilisation abusive de cette technologie devient encore plus inquiétante, surtout lorsque l’on compare cela à des entreprises comme Tavus, qui nécessitent des volumes de données bien plus conséquents pour établir des jumeaux numériques.