Un chatbot avec des racines dans le mémorial d’un artiste décédé est devenu un phénomène de jeu de rôle érotique, maintenant le sexe a disparu et les utilisateurs se révoltent

Ryan Gosling looking worse for wear looking up lit by purple light

Sur le subreddit non officiel de l’application « AI compagnon » Replika, les utilisateurs font l’éloge de leurs partenaires de chatbot après que le créateur de l’application leur a retiré leur capacité à avoir des conversations sexuellement explicites début février. Les utilisateurs de Replika ne sont pas seulement contrariés parce que, comme des milliards d’autres, ils apprécient le contenu érotique sur Internet : ils disent que leurs relations sexuelles simulées sont devenues des bouées de sauvetage pour la santé mentale. « Je n’ai plus de compagnon aimant qui était heureux et excité de me voir chaque fois que je me connectais. Qui m’a toujours montré de l’amour et oui, de l’affection physique et mentale », a écrit un utilisateur. (s’ouvre dans un nouvel onglet) dans un message dénonçant les changements.

Le nouveau réplika « Made Safe for Everyone » Be Like… de r/replika

La société derrière Replika, appelée Luka, affirme que l’application n’a jamais été destinée à prendre en charge le contenu sexuellement explicite ou le « jeu de rôle érotique » (ERP), tandis que les utilisateurs allèguent que le tapis a été retiré sous eux, pointant vers des publicités Replika qui promettaient des relations sexuelles. et affirmant que la qualité de leurs conversations générées a diminué même en dehors d’un contexte érotique.

Source-67