Alors que la prévalence de l’IA continue de faire la une des journaux, il semble qu’aucune industrie ne soit à l’abri de l’adoption d’une version de cette technologie dans sa vision de l’avenir. Dans ce cas cependant, l’IA n’est pas seulement dans l’actualité, c’est elle qui vous la lit. Avec l’aimable autorisation d’Ars Technica, la nouvelle startup Channel 1 a présenté un vidéo de preuve de concept démontrant des avatars d’IA en tant que présentateurs de nouvelles, et les résultats sont à la fois véritablement impressionnants et une plongée tête première dans les profondeurs d’une étrange vallée.
Ces avatars IA sont basés sur des personnes réelles (qui, nous dit-on, « ont été rémunérées pour l’utilisation de leur image ») et s’appuient sur ce qui est décrit comme des « systèmes sophistiqués en coulisses » pour créer leur débit vocal, leurs manières et leurs expressions. , et à première vue, les résultats sont remarquablement convaincants.
La synchronisation labiale est parmi les meilleures que j’ai vues, avec des séquences de syllabes difficiles traitées avec une précision remarquable, et elles ressemblent, faute d’un meilleur terme, à des personnes crédibles. Les gestes sont tout à fait pertinents pour quelqu’un qui a suivi quelques cours sur la façon de présenter à la caméra pour les nuls, et mis à part l’étrange moment de flou qui laisse penser que ce que vous regardez pourrait être un fac-similé généré par l’IA, c’est un assez convaincant. affichage de la technologie.
Mais comme pour toutes les simulations d’un être humain authentique à ce jour, ce sont les choses sur lesquelles vous ne pouvez pas vraiment mettre le doigt qui laissent tomber.
C’est quelque chose dans la sincérité et le rythme de livraison qui semble tout simplement décalé, au point que plus je regardais, plus j’avais l’impression que quelqu’un pourrait se faufiler derrière moi. Les humains IA sont déjà là, semble-t-il, et dans ce cas, ils regardent, presque sans ciller, droit dans votre âme.
Cela n’aide pas que ces avatars semblent avoir été formés sur un amalgame de présentateurs de nouvelles existants, et l’IA semble avoir interprété sa version de la cadence vocale stéréotypée du lecteur de nouvelles comme étant épaisse comme de la mélasse. C’est comme si le son avait été un peu trop ralenti, et cela, combiné aux expressions vides et aux sourires sans âme, fait se dresser les petits poils sur ma nuque.
Oui, c’est une démo technologique très cool. Mais wow, cela m’a mis mal à l’aise après seulement quelques minutes, au point que c’est devenu un peu difficile à regarder.
Au-delà des présentateurs légèrement terrifiants, il existe en fait certains cas d’utilisation de l’IA démontrés dans la vidéo qui ont beaucoup de sens. Un exemple est donné d’un entretien préenregistré avec un (vrai) résident français, qui explique comment sa propriété a été endommagée par une récente tempête en, n’y croiriez-vous pas, français.
Le clip est ensuite relu mais avec une IA traduisant les images en anglais, avec synchronisation labiale, et le résultat est remarquablement convaincant au point qu’à moins qu’on ne me le dise à l’avance, je ne pense pas repérer de falsification impliquée. tous.
Deadline rapporte que les reportages de Channel 1 proviendront d’« une agence de presse qui n’a pas encore été annoncée » et que le contenu émanera de journalistes indépendants, et que les reportages eux-mêmes seront construits à partir de sources primaires comme des documents gouvernementaux, avec la participation humaine « à chaque instant ». étape du processus éditorial ». La prochaine chaîne prévoit également d’afficher une icône dans le coin de l’écran pour permettre au public de savoir quelles parties de la programmation sont générées par l’IA.
Quoi qu’il en soit, étant donné que les lecteurs de nouvelles en particulier travaillent dur pour établir un niveau d’autorité et de confiance auprès de leur public, le fait que cela puisse être soi-disant simulé avec un tel degré de précision signifie que cette technologie pourrait éventuellement être utilisée à des fins néfastes. – comme la diffusion de fausses informations ou de propagande dangereuse – pourraient bien être préoccupants.
Il semble qu’il ne se passe pas un jour sans qu’une sorte de rubicon de l’IA ne soit franchi, mais cela se démarque comme un exemple particulièrement ébouriffant de la technologie qui fait allusion à certaines utilisations potentiellement dérangeantes à venir. Les deep fakes sont une préoccupation majeure depuis un certain temps déjà, et alors que la technologie permettant de simuler complètement un être humain raisonnable au point où les différences deviennent difficiles, voire impossibles à repérer, semble se développer à une vitesse vertigineuse, les préoccupations éthiques deviennent encore plus grandes. plus, eh bien, inquiétant.
Pourtant, en attendant, je suppose que nous pouvons l’admirer comme une réussite technique, ne serait-ce que comme une réussite technique. Bien que ces avatars puissent être basés sur de vraies personnes, un peu plus loin dans la vidéo, un présentateur entièrement créé par l’IA se révèle pour livrer un reportage sur les voitures, mais les résultats sont beaucoup moins convaincants.
Petit merci donc, et preuve que la technologie a encore du chemin à parcourir. Mais étant donné la démonstration présentée ici, il ne semble pas qu’il faudra attendre longtemps avant que les avatars de l’IA et les personnes réelles pénètrent véritablement dans le domaine de l’indiscernable.