https://lifehacker.com/tech/the-biggest-deatures-and-news-from-google-io-2025

https://lifehacker.com/tech/the-biggest-deatures-and-news-from-google-io-2025

Il aurait dû être évident que Google I / S 2025 serait bourré, étant donné que la société a estimé le besoin de organiser un événement séparé pour couvrir toutes ses nouvelles Android. Mais Color Me a choqué que Google ait réussi une présentation de près de deux heures, pleine d’annonces et de révélations, principalement sur l’IA.

Bien sûr, toutes les annonces d’IA ne sont pas égales. Certaines nouvelles étaient destinées aux utilisateurs des entreprises et à certains envers les développeurs. Mais bon nombre des fonctionnalités discutées sont également en route vers les appareils des consommateurs, certains dès aujourd’hui. Ce sont les mises à jour sur lesquelles je vais me concentrer ici – vous pouvez vous attendre à essayer ces fonctionnalités aujourd’hui, dans les semaines à venir, ou à un moment donné dans un avenir proche.

Gemini Live arrive sur l’iPhone

Plus tôt cette année, Google a déployé Gemini Live pour tous les utilisateurs d’Android via l’application Gemini. La fonctionnalité vous permet de partager votre flux de caméra ou l’écran avec des Gémeaux, afin qu’il puisse aider à répondre aux questions sur ce que vous voyez. À ce jour, Google propose maintenant la fonctionnalité à iPhones avec l’application Gemini. Tant que vous avez l’application, vous pouvez partager votre appareil photo et votre écran avec l’IA, quelle que soit la plate-forme sur laquelle vous vous trouvez.

Google teste le mode IA dans la recherche depuis mars. La fonctionnalité transforme essentiellement la recherche Google en plus d’une expérience Gemini, vous permettant d’empiler plusieurs questions en une seule demande complexe. Selon Google, l’IA peut gérer la décomposition de votre requête et la recherche sur le Web des sources les plus pertinentes. Le résultat, en théorie, est un rapport complet répondant à tous les aspects de votre recherche, y compris des liens vers des sources et des images.

Le mode AI se déroule pour tous les utilisateurs – pas seulement des testeurs – au cours des prochaines semaines. Mais ce n’est pas seulement l’expérience en mode AI que Google a testé. L’entreprise a également annoncé de nouvelles fonctionnalités en mode AI aux E / S.

Cram plusieurs recherches en une seule fois

Premièrement, il y a Recherche profondequi multiplie le nombre de recherches en mode AI ferait généralement votre requête et génère un « rapport entièrement cité au niveau expert » pour vous. Je vais toujours le vérifier à fond, car l’IA a l’habitude d’halluciner. Le mode AI obtient également des Gemini en direct, vous pouvez donc partager votre écran ou votre appareil photo dans la recherche.

Utilisez le « mode agent » comme assistant personnel du monde réel

Project Mariner arrive également en mode AI. Google dit que vous aurez accès à des « capacités agentiques », ce qui signifie essentiellement que vous pouvez compter sur l’IA pour effectuer des tâches pour vous. Par exemple, vous pourrez demander au mode IA de trouver vos « billets abordables pour le jeu Reds de ce samedi au niveau inférieur », et non seulement le bot fera la recherche pour vous, mais il remplira les formulaires nécessaires. Google dit que les fonctionnalités s’appliqueront aux billets d’événement, aux réservations de restaurants et aux rendez-vous locaux.

Vous pouvez voir cela en action avec Mode agentqui sera théoriquement en mesure d’exécuter des tâches complexes en votre nom. Nous ne savons pas grand-chose sur la façon dont cela fonctionnera encore, mais nous avons un exemple clair de la scène Google I / S. Au cours de la présentation, le PDG d’Alphabet, Sundar Pichai, a chargé le mode agent de Gemini pour trouver un appartement avec linge dans unité, en gardant un certain budget. Gemini s’est ensuite mis au travail, en ouvrant le navigateur, en tirant Zillow, en recherchant des appartements et en réservant une visite.

Le mode AI retirera de votre historique de recherche précédent afin de vous fournir des résultats plus pertinents. Cela inclut les résultats qui s’appliquent à votre sort – disons, des recommandations locales pour un prochain voyage – ainsi que les préférences (si vous avez tendance à réserver des lieux de restauration en plein air, le mode IA peut recommander des repas en plein air lorsque vous demandez à trouver des réservations de dîner).

Nouvelles fonctionnalités Gemini à venir dans l’espace de travail

Google a annoncé un certain nombre de nouvelles fonctionnalités Gemini chez E / S, dont certaines arrivent dans l’espace de travail.

L’une des fonctionnalités que Google s’est concentrée sur la plupart a été des réponses intelligentes personnalisées dans Gmail. Bien que Gmail ait déjà une fonction de réponse intelligente alimentée par AI, celle-ci va plus loin et fonde ses réponses sur toutes vos données Google. L’objectif est de générer une réponse qui sonne comme si vous l’avez écrit et comprend toutes les questions ou commentaires que vous pourriez raisonnablement avoir pour l’e-mail en question. Dans la pratique, je ne sais pas pourquoi je voudrais laisser l’IA à faire tous mes communications pour moi, mais la fonctionnalité sera disponible plus tard cette année et pour les abonnés payants en premier.

Si vous utilisez Google Rencontrez un plan payant, attendez-vous à voir la traduction de la parole en direct commencer à déployer aujourd’hui. La fonctionnalité décourage automatiquement les haut-parleurs sur un appel dans une langue cible, comme un traducteur universel instantané. Disons que vous parlez anglais et que votre partenaire de réunion parle espagnol: vous les entendez commencer à parler en espagnol, avant qu’une voix d’IA ne prenne le relais avec la traduction anglaise.

‘Essayez-le « 

Google ne veut pas que vous retourniez les vêtements que vous commandez en ligne. La société a annoncé une nouvelle fonctionnalité intitulée « Try It On » qui utilise l’IA pour vous montrer à quoi vous ressembleriez en portant n’importe quel vêtements que vous pensez acheter.

Ce n’est pas un simple concept non plus: Google déploie « Essayez-le » aujourd’hui aux utilisateurs de Google Search Lab. Si vous souhaitez en savoir plus sur la fonctionnalité et comment l’utiliser, consultez notre guide complet.

Android XR

Comme les rumeurs l’ont suggéré, Google a parlé un peu d’Android XR, l’expérience logicielle de l’entreprise pour les lunettes et les casques. La plupart des nouvelles qu’il a partagées ont été annoncées précédemment, mais nous avons vu des fonctionnalités intéressantes en action.

Par exemple, lorsque vous utilisez l’un des futurs lunettes avec Android XR intégrée, vous pourrez accéder à un HUD subtil qui peut vous montrer tout, des photos aux messages aux cartes Google. (Personnellement, le principal tirage ici pour moi serait AR Google Maps en se promenant dans une nouvelle ville.) Sur scène, nous avons également vu une démo en direct de traduction de la parole, qu’Android XR a recouvrant une traduction en anglais à l’écran alors que deux présentateurs parlaient dans différentes langues.

Bien qu’il n’y ait pas de véritable chronologie lorsque vous pouvez essayer Android XR, les grandes nouvelles de Google sont qu’il fonctionne à la fois avec Warby Parker et Gentle Monster sur la fabrication de lunettes avec le service intégré.

Veo 3, Imagen 4 et Flow

Google a dévoilé deux nouveaux modèles de génération d’IA à l’E / S cette année: Imagen 4 (images) et Veo 3 (vidéo).

Imagen 4 génère désormais des images de meilleure qualité avec plus de détails que Imagen 3, le modèle de génération d’images de Google. Cependant, la société a spécifiquement noté les améliorations de l’imagen 4 avec la génération de texte. Si vous demandez au modèle de générer une affiche, par exemple, Google dit que le texte sera à la fois précis à la demande, ainsi que stylistique.

Google a lancé l’émission avec des vidéos générées par VEO 3, il est donc sûr de dire que l’entreprise est assez fière de son modèle de génération de vidéos. Bien que les résultats soient nets, colorés et parfois emballés avec des éléments, il souffre définitivement des caprices et des problèmes habituels avec la vidéo générée par l’AI. Mais la plus grande histoire ici est « Flow », la nouvelle vidéo d’IA de Google éditeur. Flow utilise VEO 3 pour générer des vidéos, que vous pouvez ensuite assembler comme n’importe quel autre éditeur non linéaire. Vous pouvez utiliser Imagen 4 pour générer un élément que vous souhaitez dans une photo, puis demander à Flow de l’ajouter au clip suivant. En plus de la possibilité de couper ou de développer une photo, vous pouvez contrôler le mouvement de la caméra de chaque plan indépendamment.

C’est le plus « impressionnant » que cette technologie m’a semblé, mais en dehors d’un story-board de haute technologie, je ne peux pas imaginer l’utilisation à ce sujet. Peut-être que je suis en minorité, mais je ne veux certainement pas regarder des vidéos générées par AI, même si elles sont créées via des outils similaires à ceux que les créateurs de vidéos humains utilisent.

VEO 3 n’est disponible que pour les abonnés Google AI Ultra, bien que le flux soit disponible en capacité limitée avec les abonnés VEO 2 à AI Pro.

Deux nouvelles fonctionnalités chromées

Les utilisateurs de Chrome peuvent espérer deux nouvelles fonctionnalités suivant les E / S Google. Tout d’abord, Google apporte des Gémeaux directement au navigateur – n’a pas besoin d’ouvrir le site Gemini. Deuxièmement, Chrome peut désormais mettre à jour vos anciens mots de passe en votre nom. Cette fonctionnalité est lancée plus tard cette année, bien que vous deviez attendre que les sites Web eux-mêmes offrent l’assistance.

Une nouvelle façon de payer pour l’IA

Enfin, Google propose de nouveaux abonnements pour accéder à ses fonctionnalités d’IA. Google AI Premium est désormais AI Pro, et reste en grande partie la même, moins la nouvelle capacité à accéder au flux et aux geminies en chrome. Il coûte toujours 20 € par mois.

Le nouvel abonnement est Google AI Ultra, qui coûte 250 € par mois. Pour ce prix, vous obtenez tout dans Google AI Pro, mais avec les limites les plus élevées pour tous les modèles d’IA, y compris les Gémeaux, le flux, le fouet et le cahier. Vous avez accès à Gemini 2.5 Pro Deep Think (le modèle de raisonnement le plus récent et le plus avancé de la société), VEO 3, Project Mariner, YouTube Premium et 30 To de stockage cloud. Quelle affaire.

Total
0
Shares
Previous Post
Solo Leveling: 5 facts about Hell

Nivellement en solo: 5 faits sur le portier de l’enfer Cerberus!

Next Post
https://lifehacker.com/entertainment/quordle-answer-today-may-21-2025

https://lifehacker.com/entertainment/quordle-answer-today-may-21-2025

Related Posts