Le grand PC Gamer vient de mourir collectivement sans surprise. Il s’avère que les bots sont à la fois plus rapides et plus précis pour effectuer les tests CAPTCHA largement utilisés par les sites Web pour filtrer les machines des utilisateurs humains.
Oui, les bots savent mieux que vous à quoi ressemble un vélo basse résolution appuyé contre une clôture rouillée.
Les avantages des tests de vérification humaine, y compris les différentes implémentations CAPTCHA (c’est le test de Turing public entièrement automatisé pour distinguer les ordinateurs et les humains, si vous vous posiez la question), sont assez évidents. Ils empêchent les hordes de robots de scraper du contenu, de publier de faux commentaires et de liens douteux, de créer des comptes frauduleux et toutes ces mauvaises choses.
De toute évidence, il y a un compromis en termes d’inconvénients à picorer à plusieurs reprises des images souvent déroutantes d’autobus, de vélos, de bouches d’incendie et de passages pour piétons ou à déchiffrer puis à transcrire un texte ondulé. Mais cela en vaut la peine pour garder nos seigneurs de la machine à distance.
Bien sûr, cela n’en vaut la peine que si cela fonctionne. Ce qui, apparemment, n’est pas le cas. C’est ce que dit une nouvelle recherche menée par Gene Tsudik et ses collègues de l’Université de Californie à Irvine.
Selon le New Scientist, Tsudik et co. analysé les 200 sites Web les plus populaires au monde, en trouvant 120 à l’aide de tests CAPTCHA. Ensuite, ils ont recruté 1 000 candidats humains d’âge, de sexe, de lieu et d’éducation variés pour passer 10 tests CAPTCHA chacun.
En comparant les performances de ces humains à celles de divers robots codés par des chercheurs et publiés dans des revues, ce sont les robots qui ont obtenu les meilleurs scores.
Les humains dans les tests de l’UC Irvine étaient précis entre 50 et 84% dans le test de texte déformé, prenant entre neuf et 15 secondes pour terminer la tâche. Les robots ? Ils étaient précis à 99,8 % et ont fait le travail en moins d’une seconde.
Avec les derniers modèles de grandes machines capables de glaner des informations complètement abstraites, telles que l’humour et l’émotion, à partir d’images, il n’est pas surprenant de constater que les robots peuvent désormais lire un texte légèrement ondulé ou repérer un vélo.
Et une fois qu’un ordinateur peut faire quelque chose, il est pratiquement inévitable qu’il le fasse plus rapidement que n’importe quel humain. Ainsi, la question qui suit immédiatement est de savoir si l’un de ces tests CAPTCHA doit continuer à être utilisé.
Cela dépend probablement de la mesure dans laquelle les mauvais acteurs ont accès à des outils d’IA suffisamment avancés pour rendre les tests inutiles. Si ce n’est pas déjà le cas, tous les méchants ont accès à de tels outils, ce ne sera sûrement pas long.
Ainsi, la prochaine énigme est de savoir quels tests CAPTCHA existants doivent être remplacés. Shujun Li de l’Université du Kent au Royaume-Uni a déclaré au New Scientist que « de nouvelles approches sont nécessaires, comme des approches plus dynamiques utilisant l’analyse comportementale ».
Pendant ce temps, Andrew Searles, membre de l’équipe de l’UC Irvine, pense que le passage à l’exécution d’algorithmes en arrière-plan pour identifier et éliminer les interactions des robots sur les sites Web, plutôt que de s’appuyer sur des tests actifs des utilisateurs, pourrait être la solution.
Bien sûr, l’utilisation de tests formels donne aux bots une cible clairement définie pour leur apprentissage. Vraisemblablement, ils auront plus de mal à s’adapter à des algorithmes dont la portée et les paramètres seraient entièrement invisibles.
À très long terme, il semble assez peu probable qu’une mesure puisse éliminer une IA vraiment avancée prétendant être humaine. Mais tant que les bots prennent la peine de nous tromper, eh bien, cela implique que les machines n’ont pas entièrement gagné.