La semaine de l’IA : l’IA générative spamme le Web

Suivre une industrie aussi rapide que l’IA est une tâche difficile. Donc, jusqu’à ce qu’une IA puisse le faire pour vous, voici un tour d’horizon pratique des histoires récentes dans le monde de l’apprentissage automatique, ainsi que des recherches et des expériences notables que nous n’avons pas couvertes par elles-mêmes.

Cette semaine, SpeedyBrand, une entreprise utilisant l’IA générative pour créer du contenu optimisé pour le référencement, est sortie de la furtivité avec le soutien de Y Combinator. Il n’a pas encore attiré beaucoup de financement (2,5 millions de dollars) et sa clientèle est relativement restreinte (environ 50 marques). Mais cela m’a fait réfléchir à la façon dont l’IA générative commence à changer la composition du Web.

Comme James Vincent de The Verge l’a écrit dans un article récent, les modèles d’IA génératifs rendent moins cher et plus facile la génération de contenu de moindre qualité. Newsguard, une entreprise qui fournit des outils de vérification des sources d’information, a exposé des centaines de sites financés par la publicité avec des noms à consonance générique contenant des informations erronées créées avec l’IA générative.

Cela pose problème aux annonceurs. De nombreux sites mis en lumière par Newsguard semblent exclusivement conçus pour abuser de la publicité programmatique ou des systèmes automatisés de diffusion de publicités sur les pages. Dans son rapport, Newsguard a trouvé près de 400 exemples d’annonces de 141 grandes marques qui sont apparues sur 55 des sites d’actualités indésirables.

Il n’y a pas que les annonceurs qui devraient s’inquiéter. Comme le souligne Kyle Barr de Gizmodo, il suffit peut-être d’un article généré par l’IA pour générer des montagnes d’engagement. Et même si chaque article généré par l’IA ne génère que quelques dollars, c’est moins que le coût de génération du texte en premier lieu – et que l’argent publicitaire potentiel n’est pas envoyé à des sites légitimes.

Alors, quelle est la solution ? Est-ce qu’il y a un? C’est une paire de questions qui m’empêchent de plus en plus de dormir la nuit. Barr suggère qu’il incombe aux moteurs de recherche et aux plateformes publicitaires d’exercer une emprise plus stricte et de punir les mauvais acteurs qui adoptent l’IA générative. Mais étant donné la vitesse à laquelle le domaine évolue – et la nature infiniment évolutive de l’IA générative – je ne suis pas convaincu qu’ils puissent suivre.

Bien sûr, le contenu spammy n’est pas un phénomène nouveau, et il y a eu des vagues auparavant. Le web s’est adapté. Ce qui est différent cette fois-ci, c’est que la barrière à l’entrée est extrêmement faible, à la fois en termes de coût et de temps à investir.

Vincent adopte un ton optimiste, sous-entendant que si le web est éventuellement envahi par des déchets d’IA, cela pourrait stimuler le développement de plates-formes mieux financées. Je ne suis pas si sûr. Ce qui ne fait aucun doute, cependant, c’est que nous sommes à un point d’inflexion et que les décisions prises maintenant concernant l’IA générative et ses résultats auront un impact sur le fonctionnement du Web pendant un certain temps encore.

Voici d’autres histoires d’intelligence artificielle de ces derniers jours :

OpenAI lance officiellement GPT-4 : OpenAI a annoncé cette semaine la disponibilité générale de GPT-4, son dernier modèle de génération de texte, via son API payante. GPT-4 peut générer du texte (y compris du code) et accepter des entrées d’image et de texte – une amélioration par rapport à GPT-3.5, son prédécesseur, qui n’acceptait que du texte – et fonctionne au « niveau humain » sur divers critères professionnels et académiques. Mais ce n’est pas parfait, comme nous le notons dans notre couverture précédente. (Entre-temps, l’adoption de ChatGPT serait en baisse, mais nous verrons.)

Maîtriser l’IA « super intelligente » : Dans d’autres nouvelles d’OpenAI, la société forme une nouvelle équipe dirigée par Ilya Sutskever, son scientifique en chef et l’un des co-fondateurs d’OpenAI, pour développer des moyens de diriger et de contrôler les systèmes d’IA « superintelligents ».

Loi anti-partialité pour NYC : Après des mois de retards, la ville de New York a commencé cette semaine à appliquer une loi qui oblige les employeurs utilisant des algorithmes pour recruter, embaucher ou promouvoir des employés à soumettre ces algorithmes à un audit indépendant – et à rendre les résultats publics.

Valve donne tacitement le feu vert aux jeux générés par l’IA : Valve a publié une déclaration rare après avoir affirmé qu’il rejetait les jeux avec des actifs générés par l’IA de sa boutique de jeux Steam. Le développeur notoirement discret a déclaré que sa politique évoluait et non une position contre l’IA.

Humane dévoile l’Ai Pin : Humane, la startup lancée par le duo de designers et d’ingénieurs ex-Apple Imran Chaudhri et Bethany Bongiorno, a révélé cette semaine des détails sur son premier produit : The Ai Pin. Il s’avère que le produit de Humane est un gadget portable avec un écran projeté et des fonctionnalités alimentées par l’IA – comme un smartphone futuriste, mais dans un facteur de forme très différent.

Avertissements concernant la réglementation européenne sur l’IA : Les principaux fondateurs, PDG, VC et géants de l’industrie de la technologie à travers l’Europe ont signé cette semaine une lettre ouverte à la Commission européenne, avertissant que l’Europe pourrait manquer la révolution générative de l’IA si l’UE adopte des lois étouffant l’innovation.

L’arnaque Deepfake fait le tour : Vérifier cet extrait du champion britannique du crédit à la consommation, Martin Lewis, apparemment shilling une opportunité d’investissement soutenue par Elon Musk. Cela semble normal, non ? Pas exactement. C’est un deepfake généré par l’IA – et potentiellement un aperçu de la misère générée par l’IA qui s’accélère rapidement sur nos écrans.

Jouets sexuels alimentés par l’IA : Lovense – peut-être mieux connu pour ses jouets sexuels télécommandés – a annoncé cette semaine son ChatGPT Pleasure Companion. Lancé en version bêta dans l’application de contrôle à distance de l’entreprise, le « Advanced Lovense ChatGPT Pleasure Companion » vous invite à vous livrer à des histoires juteuses et érotiques que le Companion crée en fonction du sujet sélectionné.

Autres apprentissages automatiques

Notre tour d’horizon de la recherche commence avec deux projets très différents de l’ETH Zurich. Le premier est aiEndoscopic, un dérivé intelligent de l’intubation. L’intubation est nécessaire à la survie d’un patient dans de nombreuses circonstances, mais il s’agit d’une procédure manuelle délicate généralement effectuée par des spécialistes. L’intuBot utilise la vision par ordinateur pour reconnaître et répondre à un flux en direct de la bouche et de la gorge, guidant et corrigeant la position de l’endoscope. Cela pourrait permettre aux gens d’intuber en toute sécurité en cas de besoin plutôt que d’attendre le spécialiste, ce qui pourrait sauver des vies.

Voici les explications un peu plus détaillées :

Dans un domaine totalement différent, les chercheurs de l’ETH Zurich ont également contribué de seconde main à un film Pixar en étant les pionniers de la technologie nécessaire pour animer la fumée et le feu sans tomber dans la complexité fractale de la dynamique des fluides. Leur approche a été remarquée et développée par Disney et Pixar pour le film Elemental. Fait intéressant, il ne s’agit pas tant d’une solution de simulation que d’un transfert de style – un raccourci intelligent et apparemment très utile. (L’image en haut provient de ceci.)

L’IA dans la nature est toujours intéressante, mais l’IA de la nature appliquée à l’archéologie l’est encore plus. Les recherches menées par l’Université de Yamagata visaient à identifier de nouvelles lignes de Nasca – les énormes « géoglyphes » au Pérou. Vous pourriez penser que, étant visibles depuis l’orbite, ils seraient assez évidents – mais l’érosion et la couverture forestière des millénaires depuis la création de ces formations mystérieuses signifient qu’il y a un nombre inconnu qui se cache juste hors de vue. Après avoir été formé sur l’imagerie aérienne de géoglyphes connus et obscurcis, un modèle d’apprentissage en profondeur a été libéré sur d’autres vues, et étonnamment, il en a détecté au moins quatre nouveaux, comme vous pouvez le voir ci-dessous. Assez excitant!

Quatre géoglyphes Nasca récemment découverts par un agent de l’IA.

Dans un sens plus immédiatement pertinent, la technologie adjacente à l’IA trouve toujours de nouveaux travaux pour détecter et prévoir les catastrophes naturelles. Les ingénieurs de Stanford rassemblent des données pour former de futurs modèles de prévision des incendies de forêt en effectuant des simulations d’air chauffé au-dessus d’un couvert forestier dans un réservoir d’eau de 30 pieds. Si nous voulons modéliser la physique des flammes et des braises voyageant en dehors des limites d’un feu de forêt, nous devrons mieux les comprendre, et cette équipe fait ce qu’elle peut pour se rapprocher de cela.

À l’UCLA, ils étudient comment prévoir les glissements de terrain, qui sont plus fréquents à mesure que les incendies et d’autres facteurs environnementaux changent. Mais alors que l’IA a déjà été utilisée pour les prédire avec un certain succès, elle ne « montre pas son travail », ce qui signifie qu’une prédiction n’explique pas si c’est à cause de l’érosion, d’un déplacement de la nappe phréatique ou d’une activité tectonique. Une nouvelle approche de « réseau neuronal superposable » a les couches du réseau utilisant des données différentes mais fonctionnant en parallèle plutôt que toutes ensemble, laissant la sortie être un peu plus spécifique dans laquelle les variables ont conduit à un risque accru. C’est aussi beaucoup plus efficace.

Google se penche sur un défi intéressant : comment faire en sorte qu’un système d’apprentissage automatique apprenne à partir de connaissances dangereuses sans les propager ? Par exemple, si son ensemble d’entraînement comprend la recette du napalm, vous ne voulez pas qu’il la répète — mais pour savoir qu’il ne faut pas la répéter, il doit savoir ce qu’il ne répète pas. Un paradoxe ! Le géant de la technologie recherche donc une méthode de « désapprentissage automatique » qui permette à ce type d’équilibre de se produire de manière sûre et fiable.

Si vous cherchez à savoir pourquoi les gens semblent faire confiance aux modèles d’IA sans raison valable, ne cherchez pas plus loin que cet éditorial scientifique de Celeste Kidd (UC Berkeley) et Abeba Birhane (Mozilla). Il aborde les fondements psychologiques de la confiance et de l’autorité et montre comment les agents actuels de l’IA les utilisent essentiellement comme tremplins pour augmenter leur propre valeur. C’est un article vraiment intéressant si vous voulez avoir l’air intelligent ce week-end.

Bien que nous entendions souvent parler de la tristement célèbre machine à jouer aux échecs Mechanical Turk, cette mascarade a inspiré les gens à créer ce qu’elle prétendait être. IEEE Spectrum a une histoire fascinante sur le physicien et ingénieur espagnol Torres Quevedo, qui a créé un véritable joueur d’échecs mécanique. Ses capacités étaient limitées, mais c’est ainsi que vous savez que c’était réel. Certains proposent même que sa machine à échecs était le premier « jeu informatique ». Nourriture pour la pensée.

Source-146