Nouvelles Du Monde

Blog officiel : Examen clé de la conférence Google I/O 2024 : laissez chaque développeur utiliser facilement l’IA

Blog officiel : Examen clé de la conférence Google I/O 2024 : laissez chaque développeur utiliser facilement l’IA

Merci à tous d’avoir participé à la conférence Google I/O de cette année. L’IA révolutionne ce que nous créons et la manière dont nous le créons. Nous nous engageons à fournir les outils dont chaque développeur a besoin afin que tous les développeurs puissent facilement utiliser l’IA et continuer à apporter de l’innovation dans cette nouvelle ère. Poursuivez votre lecture pour découvrir comment nous y parvenons sur l’ensemble de notre pile de développement.

IA générative

Fournit une variété de modèles et d’API pour créer d’étonnantes applications d’IA.

Avec 2 millions de fenêtres contextuelles de mots, tout nouveau Gémeaux 1.5 Flash et 1.5 Pro

Notre modèle Flash 1.5, conçu pour les tâches à haute fréquence, peut simplifier les flux de travail et simplifier les applications assistées par la technologie IA. Il est disponible dans l’API Gemini de Google AI Studio. Gemini 1.5 Flash et 1.5 Pro sont actuellement en avant-première publique dans plus de 200 pays/régions, dont l’Espace économique européen (ainsi que l’UE), le Royaume-Uni et la Suisse.Les développeurs peuvent égalementRejoignez la liste d’attente de Google AI Studiosoyez le premier à découvrir notre fenêtre contextuelle de 2 millions de mots qui dépasse les limites de la technologie existante.

Nouvelles fonctionnalités de l’API telles que la mise en cache contextuelle

L’API Gemini prend désormais en charge les appels de fonctions parallèles et la récupération d’images vidéo. Nous avons également ajouté une fonction de cache contextuel à partir du mois prochain, vous pourrez mettre en cache les fichiers contextuels couramment utilisés à moindre coût, simplifiant ainsi le flux de travail des invites volumineuses. Cette fonctionnalité est idéale pour de nombreux scénarios d’application, tels que le brainstorming d’idées basées sur des travaux existants, l’analyse de documents complexes ou la synthèse de documents de recherche ou de matériel de formation.

Notre gamme de modèles ouverts :Gemme

En utilisant les mêmes recherches et technologies qui ont permis de développer Gemini comme base, nous avons créé et publié la série de modèles ouverts Gemma pour que la communauté puisse l’utiliser, et nous avons été agréablement surpris par la réponse enthousiaste de la communauté des développeurs.plus tôt cette année, nous avons ajouté CodeGemma et RecurrentGemma à cette série, et aujourd’hui nous avons lancé PaliGemma pour les tâches de langage d’image multimodales. Nous invitons également tout le monde à jeter un coup d’œil au modèle Gemma 2, qui possède un nombre étonnant de 27 milliards de paramètres, mais qui non seulement surpasse les modèles deux fois sa taille, mais fonctionne également sur un seul TPUv5e.

écosystème ouvert

Profitez d’un choix riche et d’une flexibilité à tous les niveaux de la pile d’IA avec les outils de notre écosystème ouvert. Vous pouvez utiliser Keras avec TensorFlow, PyTorch ou JAX pour exécuter des flux de travail, utiliser LoRA avec Keras sur Colab pour affiner facilement les modèles, utiliser OpenXLA pour augmenter considérablement la vitesse de formation ou utiliser RAPIDS cuDF dans Colab pour accélérer le traitement de la charge de travail.

Google AI Edge

Vous pouvez déployer le machine learning dans des environnements périphériques, notamment des appareils mobiles et des pages Web. Que vous ayez besoin de tâches d’apprentissage automatique prêtes à l’emploi, de grands modèles de langage (LLM) populaires pouvant s’exécuter entièrement sur l’appareil ou de la possibilité de personnaliser des modèles ou des pipelines de modèles, vous pouvez trouver la bonne combinaison d’outils dans Google AI Edge. rendant l’ensemble du processus fluide et concis. La prise en charge étendue de TensorFlow Lite vous permet de fournir des modèles PyTorch directement aux utilisateurs de vos appareils mobiles. Les améliorations apportées aux diverses fonctions de Tensorflow facilitent également le développement de l’IA pour les appareils mobiles.

Lire aussi  "Taïwan : Un enjeu crucial pour l'Europe dans les opérations de liberté de navigation"

Concours de développeurs d’API Gemini

Montrez vos compétences dans le cadre du concours de développeurs Gemini API, utilisez l’API Gemini pour créer des applications innovantes et révolutionnaires et courez la chance de gagner une voiture électrique DeLorean édition spéciale 1981 et d’autres prix attrayants. Nous sommes très impatients de voir comment vous utiliserez les différentes fonctions innovantes de l’API Gemini pour redéfinir les limites des applications de l’IA et façonner un avenir plus passionnant. Que les applications que vous créez créent un impact positif, fournissent des solutions pratiques ou repoussent les limites de la créativité, cet événement est votre chance de vous démarquer dans le domaine du développement de l’IA.

Développement d’appareils mobiles

Créez une expérience utilisateur de haute qualité, améliorée par la technologie de l’IA, sur la plate-forme Android et favorisez la productivité des développeurs grâce à des API, des outils et du matériel pédagogique puissants.

Gemini dans Android Studio

L’année dernière, nous avons lancé Studio Bot en tant que partenaire dans le développement de programmation d’IA pour Android. Merci à tous pour vos commentaires, nous avons amélioré notre modèle, promu cette fonctionnalité dans plus de 200 pays/régions et l’avons publiée sur Stable. Le mois dernier, nous avons intégré la fonctionnalité dans l’écosystème Gemini et lancé Gemini dans Android Studio. Gemini pour Android Studio a été soigneusement conçu pour faciliter le développement d’applications Android de haute qualité et réduire le temps de développement. Plus tard cette année, Gemini dans Android Studio prendra en charge la saisie multimodale avec Gemini 1.5 Pro.

Gemini Nano et AICore

Utilisant notre modèle le plus performant, le Gemini Nano,Exécuter des tâches côté appareil directement sur l’appareil mobile de l’utilisateur, qui non seulement offre une latence de réponse extrêmement faible, mais protège également la confidentialité des données et élimine l’impact de la réception du réseau mobile. Tout cela repose sur AICore, qui est un service système qui gère le modèle de base sur l’appareil, de sorte que nous n’avons plus besoin de gérer manuellement l’attribution de grands modèles de langage. Les deux technologies sont actuellement disponibles sur les séries Pixel 8 Pro et Samsung Galaxy S24, et davantage d’appareils pris en charge seront ajoutés plus tard cette année.

sur la plateforme Android Kotlin multiplateforme (KMP)

Vous pouvez partager la logique métier de vos applications sur différentes plates-formes et profiter de la prise en charge de premier ordre d’Android pour la technologie KMP pour améliorer votre productivité. Nous avons actuellement ajouté la prise en charge de bibliothèques Jetpack spécifiques, telles que DataStore et Room, et ajouterons davantage de prise en charge plus tard cette année.

Composer Jetpack


Créez une expérience utilisateur époustouflante qui s’adapte automatiquement aux besoins environnementaux, tout en optimisant les performances et en rendant les transitions d’interface fluides et transparentes. Il utilise également pleinement l’API orientée guide des matériaux afin que la configuration de la mise en page puisse être facilement ajustée pour s’adapter aux différents appareils. Simplifiez le traitement de la saisie, notamment la reconnaissance de l’écriture manuscrite des notes assistée par la technologie d’IA, et utilisez Jetpack Glance pour créer des gadgets personnalisables. Le mode d’inspection de l’émulateur redimensionnable et de Compose UI vous permet d’effectuer divers tests avec audace, et la fonction de génération d’aperçu d’Android 15 peut améliorer la visibilité des gadgets.

Lire aussi  une femme menace d'explosion, blessée par la police

développement web

Créez un meilleur environnement de développement pour vous et créez facilement des applications réseau plus puissantes.

Utiliser Gemini Nano dans Chrome

En plus de WebGPU et WebAssembly, vous disposez désormais de Gemini Nano, un bon assistant intégré à la version Chrome PC, qui vous permet d’exploiter la puissance de l’IA côté appareil et de développer de nouvelles fonctions d’IA intégrées. Vous pouvez créer des produits qui fonctionnent sur une variété d’appareils, qui sont évolutifs, abordables et qui tiennent compte de la confidentialité et de la sécurité.Rejoignez notreProjet d’avant-premièreet ensemble, nous réaliserons un avenir où tout le monde pourra utiliser le développement de l’IA à l’aide de nouvelles API réseau.

API des règles de spéculation

Dites adieu aux longs temps d’attente pour le chargement des pages Web. Avec cette nouvelle API, vous pouvez facilement créer une expérience de navigation rapide et fluide avec seulement quelques lignes de code. Cette API effectuera la prélecture et le pré-rendu des pages Web en arrière-plan, ne prenant que quelques millisecondes pour terminer le chargement de la page Web. Si vous souhaitez améliorer encore les performances, vous pouvez utiliser l’IA pour prédire intelligemment les modèles de navigation Web et maximiser l’efficacité du préchargement des ressources.

Être applicableAfficher l’API Transitions pour les sites Web multipages


Étant donné que Chrome Canary 126 inclut des mises à jour majeures pour les applications multipages, vous pouvez désormais bénéficier d’une expérience de navigation rapide et fluide sur une variété d’architectures de sites Web. L’API View Transitions combine les règles de spéculation et l’IA pour permettre aux transitions de page d’être effectuées instantanément et de manière transparente, permettant ainsi d’interagir avec des applications Web qui n’étaient pas possibles dans le passé.

La console Chrome Developer Tools fournit une analyse approfondie

Obtenez une analyse approfondie à l’aide de la technologie IA dans la console Chrome Developer Tools. Gemini fournira des instructions et des solutions aux erreurs et aux avertissements dans les outils de développement, simplifiant considérablement le processus de débogage.

Stack complète, développement multiplateforme
Créez, testez et déployez des applications complètes optimisées par l’IA et assurez-vous qu’elles fonctionnent correctement sur toutes les plates-formes dont vos utilisateurs ont besoin.

Projet bêta public IDX

Profitez spécialement conçu pourFull stack, multiplateformeet une expérience de développement rationalisée conçue avec des applications assistées par l’IA. Désormais, il n’est plus nécessaire de s’inscrire sur une liste d’attente, tous les développeurs peuvent l’utiliser immédiatement. Démarrez facilement avec des modèles préchargés, importez des projets précédents ou créez de nouvelles idées à partir de zéro. IDX inclut désormais de nouvelles intégrations de fonctionnalités majeures telles que les outils de développement Chrome, Lighthouse et Cloud Run pour simplifier les déploiements multirégionaux.

Lire aussi  5 comportements des acheteurs que vous ne voulez pas perdre en achetant cet aliment qui rend votre poitrine lisse

Flutter et Dart s’intègrent à WASM, Impeller et d’autres technologies

Profitez pleinement de Flutter 3.22 et Dart 3.4 et bénéficiez d’améliorations significatives des performances de dessin et d’application.Obtenez jusqu’à 30 % de réduction avec Impeller sur AndroidRastériséPerformance améliorée. Grâce à la prise en charge de la compilation WASM, il fournit des effets visuels époustouflants et une exécution efficace du modèle d’IA dans l’environnement Web. Si vous êtes un développeur Dart, essayez la nouvelle fonctionnalité de langage expérimental Dart Macros et bénéficiez d’une plus grande productivité.

Firebase considérablement mis à jour pour les applications modernes basées sur l’IA


Utilisez Firebase Data Connect avec CloudSQL pour connecter votre application à une base de données PostgreSQL. Déployez rapidement des applications Web modernes grâce à la sécurité et à l’évolutivité fournies par Google Cloud, et simplifiez le processus de déploiement d’applications depuis GitHub avec Firebase App Hosting. Essayez Firebase Genkit pour créer et surveiller des fonctionnalités d’IA prêtes à l’emploi et compatibles avec les modèles Gemini et Gemma. Nous nous sommes associés à NVIDIA pour améliorer les performances d’inférence pour les modèles Gemma, afin que vous puissiez exécuter Genkit avec Ollama et Gemma de manière native sur votre GPU RTX pour des performances améliorées.

Chèques

Laissez Checks simplifier le processus pour vous et vérifier la confidentialité, la sécurité et la conformité réglementaire de vos applications. Checks est une plate-forme de vérification de conformité construite par Google à l’aide de la technologie d’IA. Checks Code Compliance peut surveiller et détecter les problèmes de conformité en temps réel pendant le processus d’écriture du code pour garantir la sécurité et la qualité des applications. Les développeurs iOS et Android peuvent utiliser la plateforme Checks à partir d’aujourd’hui.

Ressource
Intégrez les meilleures ressources, formations et évolutions de Google pour créer une meilleure expérience de développement pour les développeurs.

Programme pour développeurs Google

Découvrez les nouveaux avantages du programme, comme l’accès gratuit à Gemini permettant aux développeurs d’apprendre, de rechercher et d’interagir avec Google Docs. Si vous êtes un utilisateur IDX, vous pouvez désormais créer 3 espaces de travail supplémentaires, portant le total à 5. De plus, si vous choisissez de rejoindre la communauté Google Cloud Innovators et de suivre des cours de laboratoire interactifs sur la plateforme Google Cloud Skills Boost, vous pouvez également gagner des points d’apprentissage. Bienvenue à vous inscrire maintenant pour expérimenter.

Nous venons de commencer

Notre mission est de vous aider à donner vie à vos grandes idées et à vos projets existants. Grâce à l’innovation continue des outils et des plateformes, construisons ensemble l’avenir.

À partir de 23 heures le 16 mai, heure de Taiwan, vous pourrez regarder la conférence Google I/O à la demande.Plus de 150 conférences/ateliers et contenus d’apprentissage, pensez à consulter nos différentes annonces et mises à jour. La magie de la conférence Google I/O continuera de fermenter. Bienvenue pour participer au prochain I/O Connect ou I/O Extended qui se tiendra près de chez vous. Activité

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT