Combien de fois devez-vous dire « Hey, Google » au quotidien ? Lors de l’événement Google I/O, la société a annoncé deux nouvelles fonctionnalités : « Look and Talk » et les « Quick Phrases » étendues.
Look and Talk vous permet de regarder directement votre appareil Nest et de lui poser une question sans utiliser le mot clé. Vous pouvez activer cette fonctionnalité, et une fois que vous l’avez fait, tout le traitement est effectué sur l’appareil. Cela signifie que Google – ou qui que ce soit d’autre, d’ailleurs – ne verra pas votre visage ni n’entendra vos commandes.
Alors comment ça marche, exactement ? Google utilise six modèles d’apprentissage automatique différents pour distinguer un regard qui passe d’un contact visuel soutenu. Si vous posez plusieurs questions, c’est une excellente solution. L’exemple que Google a donné était « Montre-moi les plages près de Santa Cruz », avec des questions de suivi sur des réponses spécifiques.
La suivante est Quick Phrases, une liste de questions auxquelles Google peut répondre immédiatement sans le mot clé. Celles-ci incluent des commandes courantes telles que le réglage d’une minuterie, la mise en pause de la musique, etc.
Toutes ces mises à niveau sont alimentées par de nouveaux modèles vocaux qui s’exécutent sur l’appareil lui-même pour le rendre plus rapide. Des réseaux de neurones plus complets peuvent mieux comprendre la parole humaine, même si elle est brisée et saccadée. Dans l’exemple, Google Assistant a donné un léger coup de pouce à l’orateur pour terminer sa question, mais a pu distinguer ce que l’orateur voulait même avec des informations incomplètes. Google affirme que la puce Tensor est la force motrice de cette mise à jour, fournissant la puissance de calcul nécessaire pour rendre possible le traitement de la parole sur l’appareil.
Pour plus d’informations sur Google I/O 2022, cliquez ici.
Recommandations des éditeurs