OpenAI affirme pouvoir détecter les images créées par son propre logiciel… principalement

Nous pensons tous que nous sommes assez doués pour identifier les images créées par l’IA. C’est le texte étrange d’un extraterrestre en arrière-plan. Ce sont les inexactitudes bizarres qui semblent enfreindre les lois de la physique. Ce sont surtout ces mains et ces doigts horribles. Cependant, la technologie évolue constamment et il ne faudra pas longtemps avant que nous ne soyons plus en mesure de dire ce qui est réel ou non. Le leader du secteur, OpenAI, tente de devancer le problème en créant son propre générateur DALL-E 3. Les résultats sont mitigés.

L'outil en action.

OpenAI

La société affirme qu’elle peut détecter avec précision les images générées par DALL-3 dans 98 % du temps, ce qui est formidable. Il y a cependant quelques mises en garde assez importantes. Tout d’abord, l’image doit être créée par DALL-E et, eh bien, ce n’est pas le seul générateur d’images du bloc. Internet en regorge. Selon , le système n’a réussi à classer que cinq à dix pour cent des images réalisées par d’autres modèles d’IA.

En outre, des problèmes surviennent si l’image a été modifiée de quelque manière que ce soit. Cela ne semble pas être un gros problème dans le cas de modifications mineures, comme le recadrage, la compression et les changements de saturation. Dans ces cas, le taux de réussite était inférieur mais restait dans une fourchette acceptable, soit entre 95 et 97 pour cent. Cependant, l’ajustement de la teinte a fait chuter le taux de réussite à 82 pour cent.

Résultats du test.Résultats du test.

OpenAI

C’est maintenant que les choses deviennent vraiment délicates. L’ensemble d’outils a eu du mal à classer les images ayant subi des modifications plus importantes. OpenAI n’a même pas publié le taux de réussite dans ces cas, déclarant simplement que « d’autres modifications peuvent cependant réduire les performances ».

C’est décevant car c’est une année électorale et la grande majorité des images générées par l’IA vont être modifiées après coup afin de mieux enrager les gens. En d’autres termes, l’outil reconnaîtra probablement une image de Joe Biden endormi dans le bureau ovale entouré de sacs de poudre blanche, mais pas après que le créateur ait giflé un tas de textes en colère et des Photoshops dans un pygargue à tête blanche qui pleure ou autre.

Au moins OpenAI se montre transparent quant aux limites de sa technologie de détection. Cela permet également aux testeurs externes d’accéder aux outils susmentionnés pour les aider à résoudre ces problèmes, . L’entreprise, avec son meilleur ami Microsoft, a investi 2 millions de dollars dans quelque chose appelé , qui espère développer l’éducation et l’alphabétisation en IA.

Malheureusement, l’idée selon laquelle l’IA gâcherait une élection n’est pas un concept lointain. Cela se produit en ce moment. Il y a déjà eu et utilisé ce cycle, et il est probable que nous rampons lentement, lentement, lentement (lentement) vers novembre.

Cet article contient des liens d’affiliation ; si vous cliquez sur un tel lien et effectuez un achat, nous pouvons gagner une commission.

Source-145