Home » Sciences et technologies » Project Astra : Arrivée sur Google Search, Gemini et pour les développeurs

Project Astra : Arrivée sur Google Search, Gemini et pour les développeurs

by Nouvelles

Project Astra de Google : L’IA multimodale arrive !

VILLE – 27 Octobre 2024 –

Google, à l’occasion de sa conférence I/O 2025, a dévoilé des avancées significatives concernant Project Astra, son expérience d’IA multimodale. Cette intelligence artificielle,présentée pour la première fois en 2024,promet d’améliorer Search,Gemini AI,et les produits tiers. Les utilisateurs pourront interagir avec l’IA en temps réel grâce à l’appareil photo de leur téléphone. Google semble déterminé à révolutionner l’accès à l’details et aux interactions numériques. Pour en savoir plus sur l’avenir de l’IA chez Google, lisez la suite !

Google a annoncé lors de google I/O 2025 que Project Astra, son expérience d’IA multimodale à faible latence, alimentera de nouvelles expériences dans Search, l’request Gemini AI et les produits de développeurs tiers.

Project Astra alimente une nouvelle fonctionnalité Search Live dans google Search. En utilisant le mode IA, la fonctionnalité de recherche basée sur l’IA de Google, ou Lens, la fonctionnalité de recherche visuelle de l’entreprise, les utilisateurs peuvent cliquer sur le bouton « Live » pour poser des questions sur ce qu’ils voient à travers l’appareil photo de leur smartphone. Project Astra diffuse en direct la vidéo et l’audio dans un modèle d’IA et répond aux questions des utilisateurs avec peu ou pas de latence.

Dévoilé pour la première fois lors de Google I/O 2024 via une démonstration de lunettes intelligentes, Project Astra est né de Google DeepMind comme un moyen de présenter des capacités d’IA multimodales en temps quasi réel. Google affirme construire ces lunettes Project Astra avec des partenaires, notamment Samsung et Warby Parker, mais la société n’a pas encore de date de lancement définie. L’entreprise propose diverses fonctionnalités basées sur Project Astra pour les consommateurs et les développeurs.

google indique que Project Astra alimente une nouvelle fonctionnalité dans son API Live, un point de terminaison destiné aux développeurs qui permet des interactions vocales à faible latence avec Gemini.Les développeurs peuvent créer des expériences qui prennent en charge l’entrée audio et visuelle, et la sortie audio native, comme Project Astra. Google précise que l’API Live mise à jour dispose également d’une détection des émotions améliorée, ce qui signifie que le modèle d’IA répondra de manière plus appropriée, et inclut des capacités de réflexion des modèles d’IA de raisonnement de Gemini.

Dans l’application Gemini, Google annonce que les capacités de vidéo en temps réel et de partage d’écran de Project Astra sont disponibles pour tous les utilisateurs. Bien que Project Astra alimente déjà les conversations à faible latence de Gemini Live, cette entrée visuelle était auparavant réservée aux abonnés payants.

Google semble confiant que Project Astra représente l’avenir de nombreux de ses produits et peut même alimenter une toute nouvelle catégorie de produits : les lunettes intelligentes. Bien que cela puisse être vrai, Google n’a toujours pas fixé de date de lancement pour les lunettes intelligentes project Astra présentées l’année dernière. L’entreprise a offert quelques détails supplémentaires sur l’apparence de ces lunettes intelligentes, mais elles semblent encore loin de la réalité.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.