ChatGPT a peut-être pris d’assaut Internet, mais il est encore très limité dans la façon dont vous interagissez avec lui. Mais les chatbots du futur ne seront peut-être pas aussi limités. En fait, ils peuvent même avoir des avatars ressemblant à des humains avec lesquels vous pouvez tenir une conversation parlée, plutôt que d’être obligés de taper et de lire des messages.
J’ai parlé à une entreprise, la société israélienne D-ID, de cette possibilité lors du Mobile World Congress à Barcelone. A FAIT (s’ouvre dans un nouvel onglet) consiste à créer des personnes numériques, en quelque sorte, et pour le moment, cela signifie ajouter une connexion plus humaine aux chatbots IA, ce qu’il espère accomplir avec le lancement de sa nouvelle API.
Cette API offre des capacités de diffusion en temps réel, vous permettant de parler au chatbot comme vous le feriez avec un humain ordinaire. Ce chatbot lui-même peut utiliser la technologie texte-vidéo et donner l’impression que son avatar numérique parle réellement d’une voix humaine. Bien sûr, vous pouvez choisir de taper à la place, si vous trouvez cela plus préférable que de parler à une machine.
En tant qu’API, cela signifie que le système de D-ID peut être intégré à d’autres applications et services. L’idée générale est que les entreprises créent et proposent des assistants virtuels avec lesquels les gens peuvent se connecter à un niveau plus personnel – c’est là que l’aspect facial entre en jeu.
Selon le PDG et co-fondateur de D-ID, Gil Perry, les humains ne sont pas câblés pour des conversations qui ne reposent que sur du texte ou de l’audio. Au lieu de cela, avoir un visage humain (ou du moins une représentation de celui-ci) rend tout plus attrayant et naturel – et dans plusieurs langues pour démarrer.
De plus, d’un point de vue commercial, le fait d’avoir une personne IA qui fait un tas de choses pour vous vous permet d’économiser le coût d’embauche de personnes réelles. Qu’il s’agisse de converser avec des clients, de former des employés ou de toute autre chose que les IA peuvent gérer dans leur état actuel.
À l’heure actuelle, les gens ont tendance à être assez sceptiques et méfiants à propos de l’IA, et Perry a suggéré que cette nature sans visage pourrait être en partie la raison. L’ajout d’un visage humain pourrait aider les gens à se sentir plus à l’aise pour converser avec un chatbot, même s’ils savent qu’il n’y a pas d’être humain à l’autre bout de l’appel.
J’ai vu une démonstration de divers chatbots D-ID au MWC, y compris les nouvelles capacités de streaming intégrées. C’était certainement intéressant de voir les différents types d’avatars en action, mais même les plus avancés avaient un effet un peu étrange sur eux.
C’était particulièrement vrai des animations parlantes. Tout n’était pas tout à fait synchronisé, et parfois cela ressemblait plus à des battements de bouche aléatoires qu’à un avatar essayant de vocaliser le son, ce qu’il ne fait évidemment pas réellement.
J’ai également remarqué quelques retards évidents dans la reconnaissance vocale et l’écriture lorsque le bot interagissait avec les gens. Mais cela ne change rien au fait que vous pouvez parler au bot, lui faire comprendre ce que vous dites et proposer une réponse sans que vous ayez à taper ou à lire une seule chose.
La seule question est de savoir si et quand ce type d’expérience sera accessible au public. L’objectif de D-ID est d’offrir son API aux entreprises et aux utilisateurs d’entreprise. Mais, comme nous l’avons vu avec la récente explosion de popularité de ChatGPT, il y a de fortes chances que nous voyions ce type de technologie apparaître dans une arène plus publique. En particulier compte tenu du nombre d’entreprises centrées sur l’IA qui semblaient être sur le terrain au MWC et du nombre de rivaux ChatGPT qui ont fait leur apparition ces dernières semaines.