À quoi pourrait ressembler un avenir sans écran ? Humane, la société fondée par d’anciens dirigeants d’Apple il y a cinq ans, nous a peut-être donné un aperçu de son premier produit alors que des extraits d’une prochaine démo de TED Talk ont été divulgués plus tôt que prévu.
Des extraits de l’exposé – livrés par le président de Humane et ancien directeur du design d’Apple au sein de l’équipe d’interface humaine, Imran Chaudhri – ont été partout sur Twitter, et nous les avons intégrés tout au long de cet article pour en profiter.
Comme les communicateurs de Star Trek, le portable est montré attaché à la poitrine pour interagir avec via des robinets et de la voix.
« C’est un nouveau type d’appareil portable et de plate-forme qui est entièrement construit à partir de zéro pour l’intelligence artificielle », explique Chaudhri dans des commentaires transcrits par Inverse (s’ouvre dans un nouvel onglet), qui a vu l’enregistrement complet. « Et c’est complètement autonome. Vous n’avez pas besoin d’un smartphone ou de tout autre appareil pour le coupler.
Qu’est-ce que cela signifie en pratique ? Tout d’abord, il semble fonctionner comme une sorte d’Alexa portable ou d’assistant Google, capable d’accéder aux « e-mails, invitations de calendrier et messages » pour extraire intelligemment le contexte et répondre aux questions, comme dans le clip ci-dessous.
« Rattrapez-moi », un résumé des informations cruciales que vous avez peut-être manquées pendant que vous étiez occupé, sur l’appareil de @humane. pic.twitter.com/AAIfh2Chfm21 avril 2023
Comme Google Assistant, il est également montré en fournissant des traductions à la volée, mais avec une différence importante. Chaudhri maintient enfoncé un bouton sur l’appareil et prononce une phrase assez compliquée : « Les appareils invisibles devraient être si naturels à utiliser que vous en oublierez presque leur existence. »
Après une pause de trois secondes, l’appareil répète la phrase en français. C’est un peu mince, mais il utilise sans aucun doute la propre voix de Chaudhri, plutôt que les tonalités robotiques d’un assistant virtuel générique.
Le portable @Humane faisant la traduction de l’IA en anglais -> français dans votre propre voix… wow. (SOUND ON)Crédit vidéo @ZarifAli9 Lisez l’exclusivité sur les fonctionnalités du portable humain: https://t.co/TYRmtYPSYI pic.twitter.com/cmAWEU8DFS21 avril 2023
L’appareil semble également avoir une caméra intégrée. À un moment de la conversation, capturée sur Twitter, Chaudhri sort une barre laiteuse de sa poche, la place devant l’appareil et dit « Puis-je manger ça? » Après une autre pause de trois secondes, l’IA répond « Une barre laiteuse contient du beurre de cacao. Étant donné votre intolérance, vous voudrez peut-être l’éviter.
L’appareil de @humane vous aide à décider ce que vous pouvez et ne pouvez pas manger en fonction de vos préférences et de vos restrictions alimentaires. pic.twitter.com/PFwEAsNxDI21 avril 2023
« Je vais le manger de toute façon », dit Chaudhri à l’appareil. « Profitez-en », répond-il.
La dernière astuce de fête divulguée par l’appareil est la façon dont il gère les moments où vous avez réellement besoin de voir quelque chose – dans ce cas, un appel entrant de la femme de Chaudhri : la PDG de Humane, Bethany Bongiorno (ancienne directrice de l’ingénierie logicielle chez Apple). Les informations d’appel sont projetées sur la main de Chaudhri.
Première démo du prochain appareil portable alimenté par l’IA de @Humane. Un appel téléphonique. Merci @ZarifAli9 pour le partage ! pic.twitter.com/7qyDScPkOh21 avril 2023
L’IA portable est-elle l’avenir ?
Humane fonde certainement de grands espoirs sur le potentiel de cette technologie. C’est quelque chose qui pourrait théoriquement vous donner toute l’assistance de votre smartphone, tout en ne se révélant pas aussi distrayant qu’exaspérant.
Comme le dit Chaudhri : « Nous aimons dire que l’expérience est sans écran, transparente et sensible, vous permettant d’accéder à la puissance du calcul tout en restant présent dans votre environnement, en fixant un équilibre qui semble déplacé depuis un certain temps maintenant. »
Mais avant que nous ne soyons trop excités, cela vaut la peine de s’arrêter pour réfléchir à deux ou trois choses. Premièrement, il s’agit d’une démo de scène contrôlée, donc la quantité de ce que nous voyons ici est réellement faite en temps réel plutôt que préprogrammée est discutable.
En particulier, le bit de traduction semble un peu trop beau pour être vrai : comment l’appareil sait-il qu’il traduit en appuyant simplement sur le bouton ? Et même si c’est le cas, comment sait-il traduire en français plutôt qu’en espagnol ou en japonais ?
Même si tout cela est réalisable et publié dans les prochaines années, on se demande si c’est réellement plus pratique que les smartphones que nous transportons aujourd’hui. Parler à votre poitrine en public est beaucoup moins privé que de tapoter furtivement sur votre écran, d’une part.
Et c’est sans compter le facteur mode. À moins qu’une telle technologie ne soit adoptée en masse, il y aura toujours de la nervosité qui lui sera associée, quelle que soit son utilité ou non dans la pratique.
Il y a donc des raisons d’être sceptique. Mais malgré tout cela, nous avons hâte de voir le TED Talk complet lors de sa sortie.
On ne sait pas quand ce sera. Le journaliste Zarif Ali dit le 22 avril (s’ouvre dans un nouvel onglet)mais au moment de la rédaction, ce n’est toujours pas sur le site TED (s’ouvre dans un nouvel onglet) ou chaîne YouTube (s’ouvre dans un nouvel onglet). Surveillez cet endroit.