Une solution logicielle développée par Intel vise à appliquer la puissance de l’intelligence artificielle aux visages et au langage corporel des étudiants numériques. Selon Protocol, la solution est distribuée dans le cadre du produit logiciel « Class » et vise à faciliter les techniques d’éducation des enseignants en leur permettant de voir les états mentaux déduits par l’IA (tels que l’ennui, la distraction ou la confusion) de chacun. élève. Intel vise à étendre le programme à des marchés plus larges à terme. Cependant, la technologie a rencontré des refoulements qui mettent au premier plan les débats sur l’IA, la science, l’éthique et la vie privée.
La fonctionnalité basée sur l’IA, qui a été développée en partenariat avec Classroom Technologies, est intégrée à Zoom via le produit logiciel « Class » de l’ancien. Il peut être utilisé pour classer le langage corporel et les expressions faciales des élèves chaque fois que des cours numériques ont lieu via l’application de vidéoconférence. Citant les propres expériences des enseignants à la suite des leçons à distance prises pendant la pandémie de COVID-19, Michael Chasen, co-fondateur et PDG de Classroom Technologies, espère que son logiciel donnera aux enseignants des informations supplémentaires, améliorant finalement les expériences d’apprentissage à distance.
Le logiciel utilise les flux vidéo des étudiants, qu’il alimente dans le moteur d’intelligence artificielle ainsi que des informations contextuelles en temps réel qui lui permettent de classer la compréhension des étudiants sur le sujet. Sinem Aslan, chercheur chez Intel qui a contribué au développement de la technologie, explique que l’objectif principal est d’améliorer les séances d’enseignement individuelles en permettant à l’enseignant de réagir en temps réel à l’état d’esprit de chaque élève (en le poussant dans n’importe quel direction est jugée nécessaire).
Mais si l’objectif d’Intel et de Classroom Technologies est peut-être bien intentionné, la prémisse scientifique de base derrière la solution d’IA – que le langage corporel et d’autres signaux externes peuvent être utilisés avec précision pour déduire l’état mental d’une personne – est loin d’être un débat fermé.
D’une part, la recherche a montré les dangers de l’étiquetage : le fait de classer l’information – parfois même de la caler – dans des catégories faciles à percevoir (mais finalement et souvent trop simplistes).
Nous ne comprenons pas encore complètement les dimensions externes à travers lesquelles les gens expriment leurs états internes. Par exemple, l’être humain moyen s’exprime à travers des dizaines (certains disent même des centaines) de micro-expressions (dilatation des pupilles, par exemple), de macro-expressions (sourire ou froncer les sourcils), de gestes corporels ou de signaux physiologiques (comme la transpiration, l’accélération du rythme cardiaque , etc).
Il est intéressant de réfléchir au modèle de la technologie de l’IA – et à sa précision – alors que la communauté scientifique elle-même n’a pas été en mesure de parvenir à une conclusion définitive sur la traduction de l’action externe en états internes. Construire des maisons sur des sables mouvants fonctionne rarement.
Une autre mise en garde notable et potentielle pour le moteur d’IA est que l’expression des émotions varie également d’une culture à l’autre. Alors que la plupart des cultures assimileraient le sourire à une expression de bonheur intérieur, la culture russe, par exemple, réserve les sourires aux amis proches et à la famille – être trop souriant dans le mauvais contexte est interprété comme un manque d’intelligence ou d’honnêteté. Développez cela vers la myriade de cultures, d’ethnies et de variations individuelles, et vous pouvez imaginer les implications de ces « bizarreries » personnelles et culturelles sur la précision du modèle d’IA.
Selon Nese Alyuz Civitci, chercheur en apprentissage automatique chez Intel, le modèle de l’entreprise a été construit avec la perspicacité et l’expertise d’une équipe de psychologues, qui ont analysé les données de vérité terrain capturées dans des cours réels à l’aide d’ordinateurs portables équipés de caméras 3D. L’équipe de psychologues a ensuite procédé à l’examen des vidéos, étiquetant les émotions détectées tout au long des flux. Pour que les données soient valides et intégrées dans le modèle, au moins deux psychologues sur trois devaient s’entendre sur la façon de les étiqueter.
Civitci d’Intel lui-même a trouvé extrêmement difficile d’identifier les différences physiques subtiles entre les étiquettes possibles. Fait intéressant, Aslan dit que l’IA d’analyse des émotions d’Intel n’a pas été évaluée sur la question de savoir si elle reflétait avec précision les émotions réelles des élèves, mais plutôt sur le fait que ses résultats étaient instrumentaux ou fiables pour les enseignants.
Il y a d’innombrables questions qui peuvent être posées concernant les systèmes d’IA, leurs données de formation (qui ont de graves conséquences, par exemple, sur la technologie de reconnaissance faciale utilisée par les forces de l’ordre) et si ses résultats peuvent être fiables. De tels systèmes peuvent s’avérer bénéfiques, amenant les enseignants à poser la bonne question, au bon moment, à un élève actuellement en difficulté. Mais cela peut également nuire aux performances, au bien-être et même à la réussite scolaire des élèves, selon sa précision et la manière dont les enseignants l’utilisent pour éclairer leur opinion sur les élèves.
Des questions concernant l’analyse à long terme des états émotionnels des étudiants se posent également – un rapport de tels systèmes pourrait-il être utilisé par une entreprise qui embauche des étudiants tout droit sortis de l’université, avec des étiquettes telles que « déprimé » ou « attentif » ? À quelle mesure de ces données les personnes concernées doivent-elles avoir accès ? Et qu’en est-il de l’intimité émotionnelle des élèves – leur capacité à garder leurs états émotionnels intériorisés ? Sommes-nous à l’aise avec le fait que nos émotions soient étiquetées et accessibles à n’importe qui – surtout s’il y a quelqu’un en position de pouvoir de l’autre côté de l’IA ?
La frontière entre la surveillance et les technologies d’assistance basées sur l’IA semble s’amenuiser, et la salle de classe n’est que l’un des environnements en jeu. Cela apporte une toute nouvelle interprétation pour porter nos cœurs sur nos manches.