vendredi, novembre 1, 2024

Tout révélé, y compris Gemini AI, Android 15 et plus

À la fin de I/O, la conférence annuelle des développeurs de Google au Shoreline Amphitheatre de Mountain View, le PDG de Google, Sundar Pichai, a révélé que la société avait dit « IA » 121 fois. C’était essentiellement l’essentiel du discours d’ouverture de deux heures de Google : intégrer l’IA dans chaque application et service Google utilisé par plus de deux milliards de personnes dans le monde. Voici toutes les mises à jour majeures du grand événement de Google, ainsi que quelques annonces supplémentaires intervenues après le discours d’ouverture.

Gémeaux Pro

Google

Google a annoncé un tout nouveau modèle d’IA appelé Gemini 1.5 Flash, qui, selon lui, est optimisé pour la vitesse et l’efficacité. Flash se situe entre Gemini 1.5 Pro et Gemini 1.5 Nano, qui est le plus petit modèle de la société qui s’exécute localement sur l’appareil. Google a déclaré avoir créé Flash parce que les développeurs voulaient un modèle plus léger et moins coûteux que Gemini Pro pour créer des applications et des services basés sur l’IA tout en conservant certains éléments, comme une longue fenêtre contextuelle d’un million de jetons qui différencie Gemini Pro des modèles concurrents. Plus tard cette année, Google doublera la fenêtre contextuelle de Gemini pour la porter à deux millions de jetons, ce qui signifie qu’il sera capable de traiter simultanément deux heures de vidéo, 22 heures d’audio, plus de 60 000 lignes de code ou plus de 1,4 million de mots. .

Projet AstraProjet Astra

Google

Google a présenté le projet Astra, une première version d’un assistant universel alimenté par l’IA qui, selon Demis Hassabis, PDG de DeepMind de Google, était la version de Google d’un agent d’IA « qui peut être utile dans la vie de tous les jours ».

Dans une vidéo qui, selon Google, a été tournée en une seule prise, un utilisateur d’Astra se déplace dans le bureau londonien de Google en tenant son téléphone et en pointant la caméra vers diverses choses – un haut-parleur, du code sur un tableau blanc et par une fenêtre – et a un conversation naturelle avec l’application sur ce à quoi cela ressemble. Dans l’un des moments les plus impressionnants de la vidéo, l’utilisateur indique correctement où elle a laissé ses lunettes auparavant sans que l’utilisateur n’ait jamais remonté les lunettes.

La vidéo se termine par un rebondissement : lorsque l’utilisateur trouve et porte les lunettes manquantes, nous apprenons qu’ils disposent d’un système de caméra embarqué et qu’ils sont capables d’utiliser le projet Astra pour poursuivre une conversation de manière transparente avec l’utilisateur, indiquant peut-être que Google pourrait travailler. sur un concurrent des lunettes intelligentes Ray Ban de Meta.

Demander des photosDemander des photos

Google

Google Photos était déjà intelligent lorsqu’il s’agissait de rechercher des images ou des vidéos spécifiques, mais avec l’IA, Google passe au niveau supérieur. Si vous êtes abonné à Google One aux États-Unis, vous pourrez poser à Google Photos une question complexe telle que « montre-moi la meilleure photo de chaque parc national que j’ai visité » lorsque la fonctionnalité sera déployée au cours des prochains mois. Google Photos utilisera les informations GPS ainsi que son propre jugement sur ce qui est « le mieux » pour vous présenter des options. Vous pouvez également demander à Google Photos de générer des légendes pour publier les photos sur les réseaux sociaux.

VéoVéo

Google

Les nouveaux moteurs de création multimédia de Google basés sur l’IA s’appellent Veo et Imagen 3. Veo est la réponse de Google à Sora d’OpenAI. Il peut produire des vidéos 1080p de « haute qualité » pouvant durer « plus d’une minute », a déclaré Google, et peut comprendre des concepts cinématographiques comme un timelapse.

Imagen 3, quant à lui, est un générateur de texte en image qui, selon Google, gère mieux le texte que sa version précédente, Imagen 2. Le résultat est le modèle texte en image de la plus haute qualité de l’entreprise avec un « niveau de détail incroyable » pour « des images photoréalistes et réalistes » et moins d’artefacts – ce qui les oppose essentiellement au DALLE-3 d’OpenAI.

Recherche GoogleRecherche Google

Google

Google apporte de grands changements au fonctionnement fondamental de la recherche. La plupart des mises à jour annoncées aujourd’hui, comme la possibilité de poser des questions très complexes (« Trouvez les meilleurs studios de yoga ou de Pilates à Boston et affichez les détails de leurs offres d’introduction et le temps de marche depuis Beacon Hill. ») et l’utilisation de la recherche pour planifier les repas et les vacances gagnées. ‘ne sera disponible que si vous vous inscrivez à Search Labs, la plate-forme de l’entreprise qui permet aux utilisateurs d’essayer des fonctionnalités expérimentales.

Mais une nouvelle fonctionnalité importante que Google appelle AI Overviews et que la société teste depuis un an maintenant, est enfin déployée auprès de millions de personnes aux États-Unis. La recherche Google présentera désormais par défaut les réponses générées par l’IA en plus des résultats, et la société affirme qu’elle proposera cette fonctionnalité à plus d’un milliard d’utilisateurs dans le monde d’ici la fin de l’année.

Gémeaux sur AndroidGémeaux sur Android

Google

Google intègre Gemini directement dans Android. Lorsque Android 15 sortira plus tard cette année, Gemini connaîtra l’application, l’image ou la vidéo que vous exécutez, et vous pourrez l’afficher en superposition et lui poser des questions spécifiques au contexte. Où cela laisse-t-il Google Assistant qui fait déjà cela ? Qui sait! Google n’en a pas du tout évoqué lors du discours d’aujourd’hui.

Google n’est pas tout à fait prêt à déployer la dernière version de son système d’exploitation pour smartwatch, mais il promet des améliorations majeures de la durée de vie de la batterie. La société a déclaré que Wear OS 5 consommerait 20 % d’énergie en moins que Wear OS 4 si un utilisateur courait un marathon. Wear OS 4 a déjà amélioré la durée de vie de la batterie des montres intelligentes qui le prennent en charge, mais il pourrait encore être bien meilleur dans la gestion de l’alimentation d’un appareil. Google a également fourni aux développeurs un nouveau guide sur la manière d’économiser l’énergie et la batterie, afin qu’ils puissent créer des applications plus efficaces.

L’aperçu développeur d’Android 15 existe peut-être depuis des mois, mais il reste encore des fonctionnalités à venir. Theft Detection Lock est une nouvelle fonctionnalité d’Android 15 qui utilisera l’IA (la voilà encore) pour prédire les vols de téléphones et verrouiller les choses en conséquence. Google affirme que ses algorithmes peuvent détecter les mouvements associés au vol, comme ceux associés à la saisie du téléphone et à la fuite, au vélo ou à la fuite. Si un combiné Android 15 identifie l’une de ces situations, l’écran du téléphone se verrouille rapidement, ce qui rend beaucoup plus difficile pour le voleur de téléphone d’accéder à vos données.

Il y a eu également de nombreuses autres mises à jour. Google a déclaré qu’il ajouterait des filigranes numériques aux vidéos et textes générés par l’IA, rendrait Gemini accessible dans le panneau latéral de Gmail et Docs, alimenterait un coéquipier virtuel d’IA dans Workspace, écouterait les appels téléphoniques et détecterait si vous êtes victime d’une arnaque en réalité. du temps, et bien plus encore.

Restez informé de toutes les actualités de Google I/O 2024 directement ici!

Mise à jour le 15 mai à 14 h 45 HE : Cette histoire a été mise à jour après sa publication pour inclure des détails sur les nouvelles annonces d’Android 15 et WearOS 5 faites à la suite du discours d’ouverture d’I/O 2024.

Source-145

- Advertisement -

Latest