Faire des erreurs est humain, mais cela ne se limite pas aux humains. Les robots peuvent également avoir des problèmes. Alors que nous avançons rapidement vers un avenir où la technologie d’IA améliorée fait son chemin dans la salle de classe (et au-delà), les enfants sont-ils prêts à faire confiance aux informations provenant d’un robot, ou préféreraient-ils qu’elles proviennent d’un humain ?
C’est la question à laquelle les chercheurs Li Xiaquian et Yow Wei Quin de l’Université de technologie et de design de Singapour voulaient répondre. Pour voir si l’humain ou la machine était plus fiable, ils ont mené une expérience avec des enfants âgés de 3 à 5 ans, en leur donnant un écran qui associait chacun d’eux à un humain précis, un humain inexact, un robot précis ou un robot inexact.
Il s’est avéré que les enfants, plus jeunes et plus âgés, faisaient également confiance à un humain ou à un robot précis. Cependant, les jeunes enfants qui recevaient des informations d’un humain ou d’un robot inexact étaient plus susceptibles de faire confiance à l’humain – mais pourquoi ?
L’erreur n’est (pas seulement) humaine
Un seul humain et un robot jouaient à l’écran les « professeurs » précis et inexacts. L’humain était un étudiant qui avait été préenregistré sur vidéo, filmant une vidéo exacte et une vidéo inexacte. Il en a été de même pour le robot. Il ressemblait évidemment assez à un robot, mais il avait des caractéristiques humanoïdes, donc il serait quelque peu reconnaissable. L’humaine sur la vidéo s’est assurée de faire correspondre ses mouvements à ceux du robot afin qu’ils puissent paraître aussi similaires que possible. Le robot parlait d’une voix vaguement humaine mais néanmoins identifiable comme robotique.
L’équipe de recherche a prédit que les enfants feraient confiance aux robots précis mais pas aux robots inexacts (même s’ils étaient humanoïdes) – et leur feraient encore moins confiance qu’aux humains inexacts. Ils ont également prédit que cette dynamique changerait à mesure que les enfants grandiraient. « Nous avons émis l’hypothèse qu’avec l’âge, les enfants se fieraient davantage aux informations sur l’exactitude de l’informateur, plutôt qu’au fait que l’informateur soit un humain ou un robot, pour décider s’ils devaient faire confiance à l’informateur », ont déclaré les chercheurs dans une étude récemment publiée dans Child Development.
Panne de communication
Chaque enfant participant à l’expérience a vu des clips vidéo. Dans chaque clip, l’humain ou le robot regardait un objet familier ou nouveau sur une table devant lui et lui donnait un nom correct ou incorrect. L’humain et le robot communiquaient des informations que les sujets sauraient (comme « ceci est une banane ») ainsi que certaines choses qu’ils n’auraient pas su auparavant (comme « ceci est un blicket », pour un objet inventé et inconnu). ). On a ensuite montré aux enfants une image de l’objet uniquement, suivie de la question : « Comment pensez-vous que cela s’appelle ? »
Après avoir interagi avec le robot ou l’humain dans la vidéo, les enfants devaient évaluer si la personne ou le robot était doué pour identifier les choses. On leur a également montré une image de l’un des objets précédemment affichés à l’écran et on leur a demandé de quoi il s’agissait et si leur personne ou leur robot l’identifierait de la même manière. Cela permettait de savoir si les enfants pensaient que leurs partenaires avaient été précis.
Dans l’ensemble, il semble que les jeunes enfants fondaient leur confiance sur OMS leur donnait l’information. Pour eux, même les humains inexacts étaient encore plus dignes de confiance que les robots inexacts. Quatre ans était l’âge de transition où les enfants commençaient à se concentrer sur l’exactitude des informations plutôt que de savoir si elles provenaient d’un robot ou d’un humain. Les enfants de quatre et cinq ans ne se souciaient pas tellement OMS leur donnait l’information mais quoi ils pensaient que l’informateur était au courant. Les mauvaises réponses les rendaient tout aussi peu susceptibles de faire confiance aux robots et aux humains.
Les prédictions des chercheurs étaient exactes pour les jeunes enfants. Même s’ils faisaient autant confiance aux robots précis qu’aux humains, ils étaient plus susceptibles de faire confiance à un humain inexact qu’à un robot inexact. Les enfants plus âgés se méfiaient autant des humains que des robots inexacts. L’équipe souhaite découvrir à l’avenir l’opinion des enfants sur les robots avant de s’engager avec eux, ce qui pourrait influencer leur confiance ultérieure.
Pour l’instant, même si de nombreux enfants interagissent de plus en plus avec l’IA à l’école, il ne semble pas que les humains devraient aller quelque part.
Développement de l’enfant, 2023. DOI : 10.1111/cdev.14048