Événement Google « En direct de Paris » en direct : mises à jour de l’IA sur Maps, Search, Lens, etc.

Rafraîchir

(Crédit image : Google)

C’est donc tout de Google aujourd’hui – avec un retrait légèrement brusque de la prise de diffusion en direct pour marquer la fin de l’événement.

Dans l’ensemble, c’était assez décevant et ressemblait à un stratagème défensif pour faire éclater le ballon de battage médiatique de l’IA de Microsoft. Bien qu’il y ait eu quelques mini-annonces – une extension de Indoor View pour Google Maps, une fonctionnalité « écran de recherche » pour Google Lens et une démo de Google Bard in Search – il n’y avait certainement rien de nouveau à l’échelle du nouveau chat de Microsoft. fonction pour Bing et Edge.

Google a légèrement sapé son propre événement d’IA en se précipitant pour publier un aperçu de Google Bard il y a quelques jours – et nous n’avons pas vraiment obtenu de nouvelles informations sur exactement comment cela fonctionnera lorsqu’il sera déployé au public dans les  » prochaines semaines « .

Bon, nous allons voir si Immersive View de Google Maps fonctionne encore à Londres – merci de vous être connecté et gardez un œil sur les nouvelles mises à jour ici car nous obtenons plus d’informations officielles post-événement de Google.

Google en direct de Paris

(Crédit image : Google)

Il y a eu quelques autres annonces mineures pour terminer la présentation de Google, ainsi qu’une apparition du Blob Opera (s’ouvre dans un nouvel onglet).

Google a également annoncé une suite de nouvelles fonctionnalités Arts et Culture alimentées par l’IA. Parmi les nouveaux outils, il y a la possibilité de rechercher – et d’étudier avec des détails impressionnants – des peintures célèbres de milliers d’artistes.

La société affirme qu’elle fait également un effort conscient pour préserver les langues en voie de disparition, en tirant parti de l’IA et de Google Lens pour traduire intuitivement des mots pour des articles ménagers courants.

Hmm, le livestream semble maintenant être en panne – peut-être que Clippy de Microsoft a fait des trucs néfastes. Nous espérons être de retour bientôt les amis.

Google en direct de Paris

(Crédit image : Google)

Bonne nouvelle pour les propriétaires de voitures électriques. Google lance également de nouvelles fonctionnalités Maps pour les propriétaires de véhicules électriques afin de vous assurer que vous disposez d’une charge suffisante.

« Pour aider à éliminer l’anxiété liée à l’autonomie, nous utiliserons l’IA pour suggérer le meilleur arrêt de charge, que vous fassiez un voyage en voiture ou que vous fassiez simplement des courses à proximité ».

Il tiendra compte du trafic, du niveau de charge et de la consommation d’énergie de votre trajet. Il affichera également des arrêts de «charge très rapide» pour un coup de pouce rapide.

Google en direct de Paris

(Crédit image : Google)

Google parle maintenant du « Indoor Live View » moins connu pour les aéroports, les gares et les centres commerciaux. Dans quelques villes et endroits sélectionnés, cela utilise des flèches AR pour vous montrer où se trouvent des choses comme les ascenseurs et la récupération des bagages – très utile, bien qu’un peu limité en ce moment.

Heureusement, Google le déploie plus largement avec sa « plus grande expansion d’Indoor Live View à ce jour », l’amenant à 1 000 nouveaux sites dans les aéroports, les gares et les centres commerciaux de Londres, Tokyo et Paris « dans les mois à venir ».

Google en direct de Paris

(Crédit image : Google)

La « recherche avec affichage en direct » de Google Maps combine l’IA et la RA pour vous aider à trouver visuellement des choses à proximité, comme des restaurants, des guichets automatiques et des centres de transport en commun en regardant à travers l’appareil photo de votre téléphone.

Il est déjà en ligne dans cinq villes sur Android et iOS et « dans les mois à venir », il sera étendu à Barcelone, Dublin et Madrid. Maintenant, nous obtenons une démo extérieure – vous appuyez sur l’icône de la caméra dans Google Maps pour afficher des lieux réels superposés sur la vue de la caméra, y compris ceux qui sont hors de vue.

Vous pouvez voir s’ils sont actuellement occupés et à quel point ils sont notés. Pas une toute nouvelle fonctionnalité, mais certainement une fonctionnalité utile qui est déployée plus largement.

Google en direct de Paris

(Crédit image : Google)

Le vice-président et directeur général de Google chez Chris Philips est maintenant sur scène pour parler de Google Maps. « Nous transformons à nouveau Google Maps », déclare-t-il.

La très impressionnante « Immersive View » est en cours de démonstration, ce que nous avons déjà vu. Il utilise l’IA pour fusionner des milliards d’images Street View pour vous offrir des survols Superman de grands monuments et des vues intérieures de restaurants.

La bonne nouvelle : la vue immersive est enfin déployée dans plusieurs villes, dont Londres, Los Angles, New York et San Francisco aujourd’hui, et dans d’autres villes dans les prochains mois. Nous examinons maintenant « Rechercher avec Live View »…

Google en direct de Paris

(Crédit image : Google)

L’IA générative arrive dans la recherche Google et Google donne plus d’exemples de son fonctionnement.

Par exemple, vous pourrez demander « quelles sont les meilleures constellations à rechercher lorsque vous observez les étoiles », puis approfondir la période de l’année qui convient le mieux pour les voir. Tout cela est très similaire au nouveau chat Bing de Microsoft.

Google parle également d’imagerie générative, qui peut créer des images 3D à partir d’images fixes. Il indique que nous pourrons les utiliser pour concevoir des produits ou trouver la pochette parfaite pour votre nouveau blazer. Pas de détails sur la façon dont cela se déroulera cependant.

Les développeurs recevront également une grande suite d’outils et d’API pour créer des applications alimentées par l’IA.

Google en direct de Paris

(Crédit image : Google)

D’accord, nous sommes sur des « grands modèles de langage », comme LaMDA. C’est la puissance derrière le nouveau service de chat IA de Google « Bard », qu’il appelle « expérimental ».

Comme Google l’a annoncé précédemment, il publie cette semaine un modèle léger de LaMDA pour les « testeurs de confiance ». Aucune nouvelle sur le moment de son déploiement public, au-delà des « semaines à venir » mentionnées par Google plus tôt cette semaine.

Google en direct de Paris

(Crédit image : Google)

Google Lens reçoit un gros coup de pouce. Dans les mois à venir, vous pourrez utiliser Lens pour rechercher l’écran de votre téléphone.

Par exemple, appuyez longuement sur le bouton d’alimentation du téléphone Android pour rechercher une photo. Comme le dit Google, « si vous pouvez le voir, vous pouvez le rechercher ».

La recherche multiple vous permet également de trouver des objets du monde réel de différentes couleurs – par exemple, une chemise ou une chaise – et est déployée à l’échelle mondiale pour tous les résultats de recherche d’images.

Google en direct de Paris

(Crédit image : Google)

Le message actuel est que Google utilise les technologies de l’IA depuis un certain temps.

Un milliard de personnes utilisent Google Translate. Google affirme que de nombreux Ukrainiens cherchant refuge l’ont utilisé pour les aider à naviguer dans de nouveaux environnements.

Une nouvelle technique de ‘Zero-shot Machine Translation’ apprend à traduire dans une autre langue sans avoir besoin d’une formation traditionnelle. Il a ajouté 24 nouvelles langues à traduire en utilisant cette méthode.

Google Lens a également franchi une étape importante : les gens utilisent désormais Lens plus de 10 milliards de fois par mois. Ce n’est plus une nouveauté.

Google en direct de Paris

(Crédit image : Google)

Le vice-président principal Prabhakar Raghavan est sur scène pour parler de « la prochaine frontière de nos produits d’information et de la façon dont l’IA alimente cet avenir ».

Il indique que Google Lens va « au-delà de la notion traditionnelle de recherche » pour vous aider à magasiner et à placer un fauteuil virtuel que vous cherchez à acheter dans votre salon. Mais comme il le dit « la recherche n’est jamais résolue » et cela reste le produit moonshot de Google.

À ce moment-là, il ne reste que deux minutes avant que le flux en direct de Google ne se déclenche. On ne sait pas pourquoi Paris a été choisi comme lieu de l’événement – mais cela a peut-être quelque chose à voir avec ces fonctionnalités Maps suggérées…

Voir plus

Plus que 15 minutes avant le coup d’envoi de l’événement « En direct de Paris » de Google. L’une des grandes questions pour moi est de savoir à quel point l’IA conversationnelle de Google va être interactive – dans la nouvelle version de Microsoft Bing, les résultats du chat se développent progressivement plus en détail.

C’est un grand changement par rapport à la recherche traditionnelle, car cela signifie que votre premier résultat peut être le début d’une conversation plus longue. De plus, Google citera-t-il ses sources de la même manière que le nouveau Bing ? Les premières captures d’écran n’étaient pas claires à ce sujet, mais nous en saurons plus très bientôt.

Le chatbot Google Bard répondant à une question sur un écran d'ordinateur

(Crédit image : Google)

Alors, qu’attendons-nous exactement de Google aujourd’hui ? De toute évidence, la recherche va être le grand thème, car nous commençons à obtenir plus de détails sur la façon dont l’IA conversationnelle de Google va être intégrée à la recherche.

Tout changement important dans la recherche serait clairement un gros problème, car Google a à peine changé l’interface utilisateur externe de la barre minimaliste dans laquelle la plupart d’entre nous tapons sans réfléchir.

Mais nous sommes plus susceptibles de voir des pas de bébé aujourd’hui – Google a qualifié Bard de fonctionnalité « expérimentale » et elle n’est basée que sur une « version modèle légère » de la technologie LaMDA AI (qui est l’abréviation de Language Model for Dialogue Applications, si vous étiez se demandant).

Comme le nouveau Bing de Microsoft, toute intégration de Bard dans la recherche sera probablement présentée comme un supplément facultatif plutôt que comme un remplacement de la barre de recherche classique – mais même cela serait une énorme nouvelle pour un moteur de recherche qui détient 84 % de part de marché. (s’ouvre dans un nouvel onglet) (pour l’instant, du moins).

Le chatbot Google Bard répondant à une question sur un écran de téléphone

(Crédit image : Google)

Bonjour et bienvenue sur notre liveblog Google « En direct de Paris ».

C’est une autre journée passionnante au pays de l’IA, alors que Google se prépare à contrer les grandes annonces de Microsoft pour Bing et Edge hier. La bagarre de cette semaine me rappelle les grandes batailles technologiques des poids lourds du début des années 2010, lorsque Microsoft et Google ont échangé de petites attaques contre des logiciels mobiles et de bureau.

Mais c’est une nouvelle ère et le cercle carré est maintenant l’IA et l’apprentissage automatique. Microsoft semble penser qu’il peut voler une marche sur la recherche Google – et contre toute attente, il pourrait le faire. Je réserverai mon jugement jusqu’à ce que nous voyions ce que Google a annoncé aujourd’hui.

Source-130