dimanche, novembre 24, 2024

« L’immortalité » numérique arrive et nous ne sommes pas prêts pour cela

Dans le drame fantastique de 1990 – Truly Madly Deeply, le personnage principal Nina (Juliet Stevenson), pleure la mort récente de son petit ami Jamie (Alan Rickman). Sentant sa profonde tristesse, Jamie revient comme un fantôme pour l’aider à gérer sa perte. Si vous avez vu le film, vous saurez que sa réapparition l’oblige à remettre en question sa mémoire de lui et, à son tour, à accepter qu’il n’était peut-être pas aussi parfait qu’elle s’en souvenait. Ici, en 2023, une nouvelle vague de « technologie de deuil » basée sur l’IA nous offre à tous la chance de passer du temps avec des êtres chers après leur mort – sous différentes formes. Mais contrairement à Jamie (qui trompe Nina avec bienveillance), on nous demande de laisser l’intelligence artificielle servir une version de ceux auxquels nous survivons. Qu’est ce qui pourrait aller mal?

Alors que des outils génératifs comme ChatGPT et Midjourney dominent la conversation sur l’IA, nous ignorons largement les questions éthiques plus larges autour de sujets comme le chagrin et le deuil. Le pape en puffa est cool, après tout, mais penser à vos proches après la mort ? Pas tellement. Si vous pensez que les avatars génératifs de l’IA pour les morts sont encore une issue, vous vous trompez. Au moins une entreprise offre déjà l’immortalité numérique – et c’est aussi coûteux qu’étrange.

Re;memory, par exemple, est un service proposé par Deepbrain AI – une société dont l’activité principale comprend ces écrans interactifs de type « assistant virtuel » ainsi que les présentateurs de nouvelles AI. L’entreprise coréenne a poussé son expérience en mariant les chatbots et la vidéo d’IA générative jusqu’à sa conclusion ultime et macabre. Pour seulement 10 000 dollars et quelques heures dans un studio, vous pouvez créer un avatar de vous-même que votre famille pourra visiter (un coût supplémentaire) dans une installation hors site. Deepbrain est basé en Corée, et les traditions de deuil coréennes incluent « Jesa », une visite annuelle au lieu de repos du défunt.

À l’heure actuelle, même de l’aveu même de l’entreprise, le service ne prétend pas reproduire leur personnalité avec trop de profondeur – l’ensemble de formation ne permet vraiment à l’avatar d’avoir qu’une seule « humeur ». Michael Jung, responsable du développement commercial et de la stratégie chez Deepbrain, a déclaré à Engadget : « Si je veux être un Michael très divertissant, je dois lire des voix très hyper ou des voix divertissantes pendant 300 lignes. Puis à chaque fois que je saisis le texte [to the avatar] Je vais avoir un Michael très excitant ». Re;memory n’essaie pas actuellement de créer un véritable fac-similé du sujet – c’est quelque chose que vous pouvez visiter occasionnellement et avoir des interactions de base avec – mais on espère qu’il y a un peu plus de caractère qu’une réception d’hôtel virtuelle.

Alors que Re;memory a l’avantage supplémentaire d’être un avatar vidéo qui peut répondre à vos questions, HereAfter AI basé sur l’audio essaie de capturer un peu plus de votre personnalité avec une série de questions. Le résultat est un chatbot audio que les amis et la famille peut interagir avec, recevoir des réponses verbales et même des histoires et des anecdotes du passé. Au dire de tous, les chatbots pré-formés fournissent des réponses convaincantes dans la voix de leurs propriétaires – jusqu’à ce que l’illusion soit brisée sans ménagement lorsqu’il répond de manière robotique « Désolé, je n’ai pas compris cela. Vous pouvez essayer de demander d’une autre manière ou passer à un autre sujet. à toute question pour laquelle il n’a pas de réponse.

Que ces technologies créent ou non un avatar réaliste n’est pas la principale préoccupation – l’IA évolue à un tel niveau qu’elle s’améliorera certainement. Les questions les plus délicates tournent autour de qui possède cet avatar une fois que vous êtes parti ? Ou vos souvenirs et vos données sont-ils en sécurité ? Et quel impact tout cela peut-il avoir sur ceux que nous laissons de toute façon ?

Joanna Bryson, professeur d’éthique et de technologie à la Hertie School of Governance, compare la vague actuelle de technologies de deuil à l’époque où Facebook était plus populaire auprès des jeunes. À l’époque, c’était une destination courante pour commémorer des amis décédés et l’impact émotionnel de cela était frappant. « C’était une forme de communication tellement nouvelle et immédiate que les enfants ne pouvaient pas croire qu’ils étaient partis. Et ils croient sérieusement que ce sont des amis morts qui le lisaient. Et ils disent : ‘Je sais, tu vois ça.’ »

OLIVIER DOULIERY via Getty Images

La dimension supplémentaire inhérente qu’apportent les avatars de l’IA ne fait qu’alimenter les inquiétudes concernant l’impact que ces créations pourraient avoir sur nos cerveaux en deuil. « Qu’est-ce que cela fait à votre vie, dont vous passez votre temps à vous souvenir… peut-être qu’il est bon d’avoir du temps pour le traiter pendant un certain temps. Mais cela peut se transformer en une obsession malsaine.

Bryson pense également que cette même technologie pourrait commencer à être utilisée d’une manière qui n’était pas prévue à l’origine. « Et si vous êtes un adolescent ou un préadolescent et que vous passez tout votre temps au téléphone avec votre meilleur ami. Et puis tu te rends compte que tu préfères, comme un [AI] synthèse de votre meilleur ami et Justin Bieber ou quelque chose comme ça. Et vous arrêtez de parler à votre véritable meilleur ami », a-t-elle déclaré.

Bien sûr, ce scénario dépasse les capacités actuelles. Notamment parce que pour créer une version IA de notre meilleur ami vivant, nous aurions besoin de tant de données que nous aurions besoin de leur participation/consentement dans le processus. Mais ce ne sera peut-être plus le cas pendant très longtemps. La récente vague de fausses chansons d’IA dans le style d’artistes célèbres est déjà possible, et il ne faudra pas longtemps avant que vous n’ayez besoin d’être une célébrité pour qu’il y ait suffisamment d’entrées accessibles au public pour alimenter une IA générative. Le VALL-E de Microsoft, par exemple, peut déjà faire un travail décent de clonage d’une voix avec seulement trois secondes de matériel source.

Si vous avez déjà eu la malchance de trier les biens d’un parent décédé, vous apprenez souvent des choses à son sujet que vous ne saviez jamais. Peut-être était-ce leur penchant pour un certain type de poésie via leurs soulignements dans un livre. Ou peut-être quelque chose de plus sinistre, comme des relevés bancaires qui montraient une dette écrasante. Nous avons tous des détails qui font de nous des êtres humains complexes et complets. Des détails qui, souvent intentionnellement, restent cachés à notre personnalité publique. Cela soulève une autre énigme éthique séculaire.

Internet regorge d’histoires de parents et d’êtres chers cherchant à accéder aux comptes de messagerie ou de messagerie de leur défunt pour se souvenir d’eux. Pour le meilleur ou pour le pire, nous ne nous sentons peut-être pas à l’aise de parler à notre famille immédiate de notre sexualité ou de notre politique, ou que notre conjoint avait une liaison – toutes choses que nos messages numériques privés pourraient révéler. Et si nous ne faisons pas attention, il pourrait s’agir de données que nous transmettons par inadvertance à l’IA pour l’entraînement, uniquement pour qu’elle dévoile ce secret à titre posthume.

Même avec le consentement de la personne recréée dans l’IA, rien ne garantit que quelqu’un d’autre ne puisse pas mettre la main sur la version numérique de vous et en abuser. Et en ce moment, cela tombe globalement dans le même panier de crimes que quelqu’un qui vole les détails de votre carte de crédit. Jusqu’à ce qu’ils en fassent quelque chose de public, auquel cas d’autres lois, telles que le droit à la publicité, peuvent s’appliquer – mais généralement, ces protections ne concernent que les vivants.

Bryson suggère que la réponse logique à la protection des données pourrait être quelque chose que nous connaissons déjà, comme les données biométriques stockées localement que nous utilisons pour déverrouiller nos téléphones. « Apple n’a jamais fait confiance à personne. Ils sont donc vraiment très axés sur la confidentialité. J’ai donc tendance à penser que c’est le genre d’organisation qui proposera des trucs, parce qu’ils le veulent eux-mêmes. (Le principal problème de cette façon, comme le souligne Bryson, est que si votre maison brûle, vous risquez de perdre « grand-mère » pour toujours.)

Portrait de face d'un adolescent triste se plaignant dans un bar la nuit

Antonio Guillem via Getty Images

Les données seront toujours à risque, peu importe où et comment elles sont stockées. C’est un péril de la vie moderne. Et toutes ces préoccupations concernant la confidentialité pourraient sembler être un problème de demain (de la même manière que nous avons tendance à ne nous inquiéter de la fraude en ligne qu’une fois qu’elle nous est arrivée). Le coût, la précision et la chair de poule générale que l’IA et nos futurs avatars numériques créent peuvent être effrayants, mais c’est aussi une fatalité écrasante. Mais cela ne signifie pas que notre avenir est voué à être un océan de Max Headroom dévoilant nos secrets les plus intimes à n’importe quel hacker qui écoutera.

« Ce sera un problème dans l’immédiat, il y a probablement déjà un problème », a déclaré Bryson. « Mais j’espère qu’une bonne version de haute qualité sera transparente et que vous pourrez la vérifier. Et je suis sûr que Bing et Google travaillent là-dessus maintenant, pour être en mesure de vérifier d’où les programmes de chat tirent leurs idées. Jusque-là cependant, nous risquons de le découvrir à la dure.

Bryson tient à souligner qu’il existe des plats à emporter positifs et qu’ils sont disponibles pour les vivants. « Si vous en faites trop à propos de la mort, vous n’y pensez pas correctement », a-t-elle déclaré. Cette technologie nous oblige à affronter notre mortalité d’une manière nouvelle, bien que curieuse et qui ne peut que nous aider à réfléchir sur les relations que nous avons ici même dans le monde des vivants. Une version IA de quelqu’un sera toujours un mauvais fac-similé, alors, comme le suggère Bryson, pourquoi ne pas mieux connaître la vraie personne pendant que vous le pouvez. « J’aimerais que les gens répètent des conversations avec un chatbot, puis parlent à une vraie personne et découvrent quelles sont les différences. »

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.

Source-145

- Advertisement -

Latest