Intel travaille sur une IA qui détecte les émotions des élèves dans les classes virtuelles

Source : Daniel Rubino / Windows Central

Intel et Classroom Technologies travaillent sur des outils qui utilisent l’intelligence artificielle (IA) pour détecter l’humeur des enfants dans les salles de classe virtuelles. La fonctionnalité pourrait être utilisée pour dire à un enseignant si un élève s’ennuie, est confus ou distrait. Comme l’a déclaré Tom’s Hardware, l’outil d’IA a rencontré la résistance de beaucoup en raison des ramifications éthiques et morales de la surveillance des étudiants et de l’évaluation des états émotionnels à l’aide de l’IA (via le protocole).

La fonctionnalité utilise la reconnaissance faciale, la reconnaissance vocale et d’autres technologies pour enregistrer les expressions des personnes. L’IA est ensuite utilisée pour déterminer comment la personne en question se sent.

Certains pensent qu’il peut être préjudiciable d’étiqueter les gens avec un seul mot ou une seule description. Les humains ressentent une myriade d’émotions, donc simplifier l’état de quelqu’un en « heureux » ou « ennuyé » peut être contre-productif.

De plus, les gens sont nuancés et les expressions ne sont pas universelles. Par exemple, la même expression faciale peut signifier différentes choses pour des individus distincts.

Le logiciel, surnommé « emotion AI », s’intègre à Zoom via Class, qui est un produit logiciel de Classroom Technologies. Étant donné que Zoom est fréquemment utilisé dans l’éducation, il serait simple de mettre en œuvre la technologie de l’IA dans de nombreuses salles de classe virtuelles.

En plus des questions entourant la précision et l’utilité de la technologie, les critiques de « l’IA émotionnelle » remettent en question la moralité de la surveillance des étudiants.

Sinem Aslan, chercheur chez Intel, a déclaré que l’intention derrière la technologie n’était pas la surveillance. « Nous n’avons pas lancé cette technologie en tant que système de surveillance. En fait, nous ne voulons pas que cette technologie soit un système de surveillance. »

Un groupe de défense appelé Fight for the Future a appelé Zoom à cesser d’utiliser « l’IA émotionnelle » dans une lettre ouverte au début du mois.

Source-136