Au cours de la dernière année, Meta a rendu son assistant IA si omniprésent dans ses applications qu’il est presque difficile de croire que Meta AI n’a qu’un an. Mais, un an après son lancement lors du dernier Connect, la société insuffle à Meta AI de nombreuses nouvelles fonctionnalités dans l’espoir que davantage de personnes trouveront son assistant utile.
L’un des changements les plus importants est que les utilisateurs pourront avoir des discussions vocales avec Meta AI. Jusqu’à présent, la seule façon de parler avec Meta AI était via les lunettes intelligentes Ray-Ban Meta. Et comme pour le lancement de Meta AI l’année dernière, la société a fait appel à un groupe de célébrités pour le changement.
Meta AI pourra reprendre les voix d’Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key et Kristen Bell, en plus d’une poignée de voix plus génériques. Alors que la société espère que les célébrités vendront aux utilisateurs les nouvelles capacités de Meta AI, il convient de noter que la société a progressivement supprimé ses personnages de chatbot de célébrités lancés lors du Connect de l’année dernière.
En plus de la prise en charge du chat vocal, Meta AI bénéficie également de nouvelles fonctionnalités d’image. Meta AI sera en mesure de répondre aux demandes de modification et d’édition de photos provenant de discussions textuelles sur Instagram, Messenger et WhatsApp. La société affirme que les utilisateurs peuvent demander à l’IA d’ajouter ou de supprimer des objets ou de modifier des éléments d’une image, comme échanger un arrière-plan ou un vêtement.
Les nouvelles capacités arrivent aux côtés du dernier modèle Llama 3.2 de la société. La nouvelle itération, qui arrive à peine deux mois après la sortie de Llama 3.1, est la première à avoir des capacités de vision et peut « combler le fossé entre la vision et le langage en extrayant les détails d’une image, en comprenant la scène, puis en rédigeant une phrase ou deux ». cela pourrait être utilisé comme légende d’image pour aider à raconter l’histoire. Llama 3.2 est « compétitif » sur « la reconnaissance d’images et une gamme de tâches de compréhension visuelle » par rapport aux offres similaires de ChatGPT et Claude, dit Meta.
Le réseau social teste d’autres moyens, potentiellement controversés, d’intégrer l’IA dans les fonctionnalités principales de ses principales applications. La société testera les fonctionnalités de traduction générées par l’IA pour Reels avec « doublage automatique et synchronisation labiale ». Selon Meta, cela « simulera la voix de l’orateur dans une autre langue et synchronisera ses lèvres pour qu’elles correspondent ». Il arrivera d’abord dans « les vidéos de certains créateurs » en anglais et en espagnol aux États-Unis et en Amérique latine, bien que la société n’ait pas partagé de détails sur le calendrier de déploiement.
Meta prévoit également d’expérimenter le contenu généré par l’IA directement dans les principaux flux de Facebook et Instagram. Avec le test, Meta AI fera apparaître des images générées par l’IA qui sont censées être personnalisées en fonction des intérêts et des activités passées de chaque utilisateur. Par exemple, Meta AI pourrait faire apparaître une image « imaginée pour vous » représentant votre visage.
Restez informé de toute l’actualité de Méta Connect 2024!