Google se lance tête baissée dans l’avenir de l’IA, ce qui signifie que différentes parties de l’entreprise sont vouées à entrer en collision les unes avec les autres. La recherche génère désormais des résultats récapitulatifs alimentés par l’IA, mais inonder le Web de texte généré par l’IA va rendre la recherche plus rapide. beaucoup plus difficile, par exemple. Cela va être à la fois compliqué, compliqué et fascinant. En général, les parties de Google chargées de plateformes de modération (comme YouTube et Search) vont finir par entrer en collision avec les parties de Google qui aident les gens créer du contenu (comme Gmail et Bard.) Vous pouvez simplement les regrouper dans deux listes, tracer une ligne de l’une à l’autre et prédire une longue liste de problèmes intéressants qui surgiront inévitablement.
La Google AI Collision (TM) de cette semaine se situe entre le Pixel 8, dont la fonction Best Take utilise l’IA pour vous permettre d’échanger les expressions faciales dans les photos de groupe afin d’obtenir des photos « parfaites », et YouTube, qui vient de déployer le premier montage d’un AI- politique de contenu généré qui oblige « les créateurs à divulguer lorsqu’ils ont créé un contenu modifié ou synthétique qui est réaliste ». Le billet de blog cite spécifiquement le contenu qui « décrit de manière réaliste un événement qui ne s’est jamais produit » comme devant être étiqueté, et note que les sanctions en cas de non-étiquetage cohérent d’un contenu synthétique réaliste peuvent inclure la suppression et la démonétisation du contenu.
Eh bien! Le Pixel 8 avec Best Take et Magic Editor dans Google Photos peut très clairement générer des photos réalistes d’événements qui ne se sont jamais produits. Plus précisément, Best Take vous permet de créer des moments entre des personnes qui ne se sont jamais produits en choisissant entre plusieurs expressions faciales, et Magic Editor peut simplement supprimer des éléments de l’arrière-plan. Il est trivial de donner l’impression que les gens regardent la même chose, ou des choses différentes, ou réagissent les uns aux autres d’une manière qui ne s’est jamais produite – une photo Pixel 8 de Taylor Swift et Travis Kelce n’est potentiellement qu’à quelques clics de dire un très histoire différente de la réalité. Il en va de même pour une photo Best Take de Donald Trump lors des prochaines élections, d’ailleurs. Les publicités Pixel 8 de Google sont un excellent exemple de la simplicité de la procédure :
Donc! Les photos du Pixel 8 modifiées avec Best Take ou les photos modifiées avec Magic Editor dans Google Photos doivent-elles être étiquetées sur YouTube ? Nous avons demandé, et le porte-parole de YouTube, Jack Malon, a déclaré que le contexte serait important et a offert quelques conseils préliminaires.
« L’objectif de cette mise à jour est d’aider le téléspectateur à être mieux informé sur un contenu réaliste mais modifié, sans punir les créateurs qui utilisent l’IA », dit-il. « Si vous utilisez Best Shot pour choisir une image où tout le monde a les yeux ouverts, c’est quelque chose que vous auriez probablement pu faire vous-même en prenant plus de photos (et probablement pas quelque chose que vous devez divulguer). Mais si vous utilisez la technologie pour donner l’impression que vous vous trouviez dans un endroit où vous n’étiez pas réellement, ou si vous modifiez une photo d’un événement historique, vous devrez probablement divulguer à vos spectateurs que vous avez utilisé la technologie pour modifier l’image. paramètre. »
Cela semble à peu près correct, même si « cela aurait pu arriver si vous preniez simplement plus de photos » est une très norme floue à essayer de faire respecter. De plus, cette norme est en forte tension avec la décision de YouTube d’avoir sa propre Les outils d’IA générative étiquettent toujours le contenu synthétique comme tel : les photos modifiées avec les photos Magic Editor ont des métadonnées montrant qu’elles ont été modifiées avec l’IA, mais pas les photos Best Take.