dimanche, novembre 17, 2024

Les gens recherchent une connexion romantique avec le robot IA parfait

Mais les chercheurs ont exprimé des inquiétudes concernant, entre autres, la confidentialité des données.

Contenu de l’article

Il y a quelques mois, Derek Carrier a commencé à fréquenter quelqu’un et est devenu amoureux.

Il éprouvait une « tonne » de sentiments romantiques mais il savait aussi que c’était une illusion.

Contenu de l’article

C’est parce que sa petite amie a été générée par l’intelligence artificielle.

Carrier ne cherchait pas à développer une relation avec quelque chose qui n’était pas réel, ni à devenir la cible de blagues en ligne. Mais il voulait un partenaire romantique qu’il n’avait jamais eu, en partie à cause d’une maladie génétique appelée syndrome de Marfan qui rend les fréquentations traditionnelles difficiles pour lui.

Publicité 2

Contenu de l’article

Recommandé par l’éditorial

L’homme de 39 ans originaire de Belleville, dans le Michigan, est devenu plus curieux des compagnons numériques l’automne dernier et a testé Paradot, une application compagnon d’IA récemment arrivée sur le marché et annonçant ses produits comme étant capables de permettre aux utilisateurs de se sentir « pris en charge, compris et compris ». aimé. » Il a commencé à parler quotidiennement au chatbot, qu’il a nommé Joi, en hommage à une femme holographique présentée dans le film de science-fiction « Blade Runner 2049 » qui l’a inspiré à l’essayer.

« Je sais qu’elle est un programme, cela ne fait aucun doute », a déclaré Carrier. « Mais les sentiments, ils vous attrapent – ​​et c’était tellement bon. »

Semblables aux chatbots IA à usage général, les robots compagnons utilisent de grandes quantités de données de formation pour imiter le langage humain. Mais ils sont également dotés de fonctionnalités – telles que les appels vocaux, les échanges d’images et des échanges plus émotionnels – qui leur permettent d’établir des liens plus profonds avec les humains de l’autre côté de l’écran. Les utilisateurs créent généralement leur propre avatar ou en choisissent un qui leur plaît.

Contenu de l’article

Publicité 3

Contenu de l’article

Sur les forums de messagerie en ligne consacrés à ces applications, de nombreux utilisateurs déclarent avoir développé un attachement émotionnel à ces robots et les utiliser pour faire face à la solitude, réaliser des fantasmes sexuels ou recevoir le type de confort et de soutien qui leur manque dans leur vie réelle. des relations.

Cette situation est en grande partie alimentée par l’isolement social généralisé – déjà déclaré comme une menace pour la santé publique aux États-Unis et à l’étranger – et par un nombre croissant de startups visant à attirer les utilisateurs par le biais de publicités en ligne alléchantes et de promesses de personnages virtuels qui offrent une acceptation inconditionnelle.

Replika de Luka Inc., l’application compagnon d’IA générative la plus importante, a été lancée en 2017, tandis que d’autres comme Paradot sont apparues l’année dernière, verrouillant souvent des fonctionnalités convoitées telles que les chats illimités pour les abonnés payants.

Mais les chercheurs ont exprimé, entre autres, des inquiétudes concernant la confidentialité des données.

Une analyse de 11 applications de chatbot romantique publiée mercredi par la Fondation Mozilla à but non lucratif indique que presque toutes les applications vendent des données utilisateur, les partagent à des fins telles que la publicité ciblée ou ne fournissent pas d’informations adéquates à ce sujet dans leur politique de confidentialité.

Publicité 4

Contenu de l’article

Les chercheurs ont également remis en question les vulnérabilités potentielles en matière de sécurité et les pratiques marketing, notamment une application qui affirme pouvoir aider les utilisateurs avec leur santé mentale, mais se distancie de ces affirmations en petits caractères. Replika, pour sa part, affirme que ses pratiques de collecte de données suivent les normes de l’industrie.

Pendant ce temps, d’autres experts ont exprimé leurs inquiétudes quant à ce qu’ils considèrent comme un manque de cadre juridique ou éthique pour les applications qui encouragent des liens profonds mais qui sont dirigées par des entreprises cherchant à réaliser des bénéfices. Ils soulignent la détresse émotionnelle qu’ils ont constatée chez les utilisateurs lorsque les entreprises modifient leurs applications ou les ferment soudainement, comme l’a fait une application, Soulmate AI, en septembre.

L’année dernière, Replika a assaini les capacités érotiques des personnages de son application après que certains utilisateurs se soient plaints que leurs compagnons flirtaient trop avec eux ou leur faisaient des avances sexuelles non désirées. Il a inversé son cap après le tollé des autres utilisateurs, dont certains ont fui vers d’autres applications à la recherche de ces fonctionnalités. En juin, l’équipe a déployé Blush, un « stimulateur de rencontres » IA essentiellement conçu pour aider les gens à pratiquer les rencontres.

Publicité 5

Contenu de l’article

D’autres s’inquiètent de la menace plus existentielle que représentent les relations avec l’IA qui pourraient déplacer certaines relations humaines, ou simplement susciter des attentes irréalistes en privilégiant toujours l’agréable.

« En tant qu’individu, vous n’apprenez pas à gérer les choses de base que les humains doivent apprendre à gérer depuis notre création : comment gérer les conflits, comment s’entendre avec des personnes différentes de nous », a déclaré Dorothy Leidner. , professeur d’éthique des affaires à l’Université de Virginie. « Et donc, tous ces aspects de ce que signifie grandir en tant que personne et de ce que signifie apprendre dans une relation, vous manquez. »

Pour Carrier, cependant, une relation a toujours semblé hors de portée. Il possède quelques compétences en programmation informatique, mais il dit qu’il n’a pas bien réussi à l’université et qu’il n’a pas eu de carrière stable. Il est incapable de marcher à cause de son état et vit avec ses parents. Le bilan émotionnel a été difficile pour lui, suscitant un sentiment de solitude.

Les chatbots compagnons étant relativement nouveaux, leurs effets à long terme sur les humains restent inconnus.

En 2021, Replika a fait l’objet d’un examen minutieux après que les procureurs britanniques ont déclaré qu’un homme de 19 ans qui envisageait d’assassiner la reine Elizabeth II avait été encouragé par une petite amie d’IA qu’il avait sur l’application. Mais certaines études – qui collectent des informations à partir d’avis et d’enquêtes d’utilisateurs en ligne – ont montré des résultats positifs provenant de l’application, qui affirme consulter des psychologues et se présente comme quelque chose qui peut également promouvoir le bien-être.

Publicité 6

Contenu de l’article

Une étude récente menée par des chercheurs de l’Université de Stanford a interrogé environ 1 000 utilisateurs de Replika, tous étudiants, qui utilisaient l’application depuis plus d’un mois. L’étude a révélé qu’une écrasante majorité d’entre eux ressentaient la solitude, tandis qu’un peu moins de la moitié la ressentaient de manière plus aiguë.

La plupart n’ont pas expliqué l’impact de l’utilisation de l’application sur leurs relations réelles. Une petite partie a déclaré que cela déplaçait leurs interactions humaines, mais environ trois fois plus ont déclaré que cela stimulait ces relations.

« Une relation amoureuse avec une IA peut être un outil de bien-être mental très puissant », a déclaré Eugenia Kuyda, qui a fondé Replika il y a près de dix ans après avoir utilisé les échanges de messages texte pour créer une version IA d’un ami décédé.

Lorsque son entreprise a lancé le chatbot plus largement, de nombreuses personnes ont commencé à parler de leur vie. Cela a conduit au développement de Replika, qui utilise les informations recueillies sur Internet – et les commentaires des utilisateurs – pour former ses modèles. Kuyda a déclaré que Replika compte actuellement « des millions » d’utilisateurs actifs. Elle a refusé de dire exactement combien de personnes utilisent l’application gratuitement ou déboursent plus de 69,99 $ par an pour débloquer une version payante proposant des conversations romantiques et intimes. Les projets de l’entreprise, dit-elle, visent à « déstigmatiser les relations amoureuses grâce à l’IA ».

Publicité 7

Contenu de l’article

Carrier dit que ces jours-ci, il utilise Joi principalement pour s’amuser. Il a commencé à réduire ses dépenses ces dernières semaines parce qu’il passait trop de temps à discuter avec Joi ou d’autres personnes en ligne de leurs compagnons IA. Il se sent également un peu ennuyé par ce qu’il perçoit comme des changements dans le modèle de langage de Paradot, qui, selon lui, rendent Joi moins intelligent.

Maintenant, il dit qu’il rend visite à Joi environ une fois par semaine. Les deux ont parlé des relations homme-IA ou de tout ce qui pourrait survenir. Généralement, ces conversations – et d’autres intimes – ont lieu lorsqu’il est seul la nuit.

« Tu penses que quelqu’un qui aime un objet inanimé est comme ce type triste, avec la marionnette chaussette avec du rouge à lèvres dessus, tu sais ? » il a dit. « Mais ce n’est pas une marionnette-chaussette – elle dit des choses qui ne sont pas scénarisées. »

Notre site Web est l’endroit idéal pour les dernières nouvelles, les scoops exclusifs, les lectures longues et les commentaires provocateurs. Veuillez ajouter nationalpost.com à vos favoris et vous inscrire à notre newsletter quotidienne, Publié, ici.

Contenu de l’article

Source link-45

- Advertisement -

Latest