Meta a dissous son équipe d’IA responsable

Meta aurait dissous son équipe d’IA responsable (RAI) car elle consacre davantage de ses ressources à l’intelligence artificielle générative. L’information a annoncé la nouvelle aujourd’hui, citant un message interne qu’il avait vu.

Selon le rapport, la plupart des membres de la RAI rejoindront l’équipe produit d’IA générative de l’entreprise, tandis que d’autres travailleront sur l’infrastructure d’IA de Meta. L’entreprise affirme régulièrement vouloir développer l’IA de manière responsable et même a une page consacré à la promesse, où l’entreprise énumère ses « piliers de l’IA responsable », notamment la responsabilité, la transparence, la sécurité, la confidentialité, etc.

L’informationLe rapport cite Jon Carvill, qui représente Meta, disant que l’entreprise « continuera à donner la priorité et à investir dans le développement d’une IA sûre et responsable ». Il a ajouté que même si la société divise l’équipe, ces membres « continueront à soutenir les efforts inter-méta pertinents pour le développement et l’utilisation responsables de l’IA ».

Meta n’a pas répondu à une demande de commentaire au moment de la publication.

L’équipe a déjà connu une restructuration plus tôt cette année, ce qui Interne du milieu des affaires a écrit comprenait des licenciements qui ont laissé la RAI « une coquille d’équipe ». Ce rapport poursuit en affirmant que l’équipe de la RAI, qui existait depuis 2019, disposait de peu d’autonomie et que ses initiatives devaient faire l’objet de longues négociations avec les parties prenantes avant de pouvoir être mises en œuvre.

RAI a été créée pour identifier les problèmes liés à ses approches de formation en IA, notamment pour savoir si les modèles de l’entreprise sont formés avec des informations suffisamment diverses, dans le but d’éviter des problèmes tels que les problèmes de modération sur ses plateformes. Les systèmes automatisés sur les plateformes sociales de Meta ont entraîné des problèmes tels qu’un problème de traduction sur Facebook qui a provoqué une fausse arrestation, la génération d’autocollants WhatsApp AI qui aboutit à des images biaisées lorsque certaines invites sont données, et les algorithmes d’Instagram aidant les gens à trouver du matériel d’abus sexuel sur des enfants.

source site-132