Meta a expliqué pourquoi son chatbot IA n’a pas voulu répondre aux questions sur la tentative d’assassinat de Trump et a ensuite, dans certains cas, nié que l’événement ait eu lieu. L’entreprise a déclaré avoir programmé Meta AI pour ne pas répondre aux questions sur un événement juste après qu’il se soit produit, car il y a généralement « une énorme quantité de confusion, d’informations contradictoires ou de théories de conspiration pure et simple dans le domaine public ». Quant à la raison pour laquelle Meta AI a fini par affirmer que la tentative n’avait pas eu lieu « dans un petit nombre de cas », c’était apparemment dû à des hallucinations.
Une IA « hallucine » lorsqu’elle génère des réponses fausses ou trompeuses à des questions qui nécessitent des réponses factuelles en raison de divers facteurs tels que des données d’entraînement inexactes et des modèles d’IA qui peinent à analyser plusieurs sources d’information. Meta affirme avoir mis à jour les réponses de son IA et admet qu’elle aurait dû le faire plus tôt. Elle travaille toutefois toujours à résoudre son problème d’hallucinations, de sorte que son chatbot pourrait toujours dire aux gens qu’il n’y a pas eu d’attentat contre la vie de l’ancien président.
Meta a également expliqué pourquoi ses plateformes de médias sociaux avaient appliqué à tort l’étiquette de vérification des faits à la photo de Trump le poing en l’air prise juste après la tentative d’assassinat. Une version trafiquée de cette image donnait l’impression que ses agents des services secrets souriaient, et l’entreprise lui a appliqué une étiquette de vérification des faits. Comme les photos originales et trafiquées étaient presque identiques, les systèmes de Meta ont également appliqué l’étiquette à la vraie image. L’entreprise a depuis corrigé l’erreur.
Les partisans de Trump ont crié au scandale à propos des actions de Meta AI et ont accusé l’entreprise d’avoir caché l’histoire. Google a dû réagir après qu’Elon Musk a affirmé que le moteur de recherche de l’entreprise avait imposé une « interdiction de recherche » à l’ancien président. Musk a partagé une image montrant la saisie semi-automatique de Google suggérant « président Donald Duck » lorsque quelqu’un tape « président Donald ». Google a expliqué que cela était dû à un bug affectant sa fonction de saisie semi-automatique et a déclaré que les utilisateurs peuvent rechercher ce qu’ils veulent à tout moment.