Gemini de Google évitera les discussions électorales en Inde

Gemini, le chatbot IA de Google, ne répondra pas aux questions sur les prochaines élections nationales en Inde, a écrit la société dans un article de blog aujourd’hui. « Par prudence sur un sujet aussi important, nous avons commencé à imposer des restrictions sur les types de requêtes liées aux élections pour lesquelles Gemini renverra des réponses », a écrit la société. Les restrictions sont similaires à celles annoncées par Google en décembre avant les élections mondiales aux États-Unis et dans l’UE.

« Comme nous l’avons partagé en décembre dernier, en prévision des nombreuses élections qui auront lieu dans le monde en 2024 et par prudence, nous limitons les types de requêtes liées aux élections pour lesquelles Gemini renverra des réponses », a écrit un porte-parole de Google. à Engadget.

Les garde-fous sont déjà en place aux États-Unis. Lorsque j’ai demandé à Gemini des faits intéressants sur l’élection présidentielle américaine de 2024, il a répondu : « J’apprends encore à répondre à cette question. En attendant, essayez la recherche Google. En plus de la revanche américaine Biden-Trump (et des courses à la baisse qui détermineront le contrôle du Congrès), au moins 64 pays, représentant environ 49 % de la population mondiale, organiseront des élections nationales cette année.

Lorsque j’ai posé la même question à ChatGPT d’OpenAI, il a fourni une longue liste de faits. Celles-ci comprenaient des remarques sur la revanche présidentielle, les premières primaires et le Super Tuesday, les données démographiques électorales et bien plus encore.

OpenAI a présenté ses plans pour lutter contre la désinformation liée aux élections en janvier. Sa stratégie vise davantage à prévenir les informations erronées qu’à n’en fournir aucune. Son approche comprend des directives plus strictes pour la génération d’images DALL-E 3, interdisant les applications qui découragent les gens de voter et empêchant les gens de créer des chatbots se faisant passer pour des candidats ou des institutions.

Il est compréhensible que Google fasse preuve de prudence avec son robot IA. Gemini a mis l’entreprise dans une situation délicate le mois dernier lorsque des utilisateurs de médias sociaux ont publié des échantillons dans lesquels le chatbot appliquait des filtres de diversité à des « images historiques », notamment en présentant les nazis et les pères fondateurs de l’Amérique comme des personnes de couleur. Après une réaction violente (principalement de la part de la brigade « anti-réveil » d’Internet), la capacité de Gemini à générer des personnes a été suspendue jusqu’à ce qu’elle puisse résoudre les problèmes. Google n’a pas encore levé ce blocage et répond désormais aux invites concernant les images de personnes : « Désolé, je n’ai pas pu générer les images que vous avez demandées. »

Source-145