Google Lens contre Apple Visual Intelligence : Google a-t-il déjà gagné ?
Google Lens contre Apple Visual Intelligence : Google a-t-il déjà gagné ?
Google Lens contre Apple Visual Intelligence : Google a-t-il déjà gagné ?
Google a peut-être laissé l’intelligence visuelle d’Apple dans la poussière avant même qu’elle n’existe sur nos téléphones. Laissez-moi vous expliquer. Salut, je m’appelle Lexi. Bienvenue dans votre dose hebdomadaire de tout ce qui concerne le mobile. Lorsqu’Apple a annoncé l’intelligence visuelle lors de l’événement iPhone 16, beaucoup d’entre nous pensaient la même chose. Cela ressemble beaucoup à l’objectif de Google, n’est-ce pas ? Vous appuyez sur le bouton de commande de l’appareil photo, placez l’iPhone devant quelque chose qui vous intéresse et votre téléphone vous dira tout. Il peut ajouter un événement au calendrier, afficher le chat GP T pour obtenir plus d’aide ou effectuer une recherche sur Google si vous voyez, par exemple un vélo que vous voudrez peut-être acheter, une partie de cela est similaire à ce que vous avez pu faire avec l’objectif Google pour un moment maintenant. Mais Google a récemment ajouté une gamme de nouvelles fonctionnalités telles que la saisie vocale et la recherche vidéo à l’application Google qui vont au-delà de ce qu’Apple nous a montré jusqu’à présent avec l’intelligence visuelle et font que ces fonctionnalités fonctionnent encore mieux sur les versions I Os et Android de l’application Google. . Vous pouvez obtenir cette fonctionnalité dès maintenant sur l’iPhone sans avoir à attendre qu’Apple déploie officiellement l’intelligence visuelle dans I OS 18.2 ou quelle que soit la version, elle arrive enfin sur nos iPhone seize. Je vais vous montrer comment obtenir une expérience similaire en utilisant l’application Google sur n’importe quel iPhone en appuyant sur un bouton personnalisé en une seconde seulement. Ok, je sais à quoi tu penses. Nous ne savons pas encore exactement comment l’intelligence visuelle fonctionnera au-delà de ce qu’Apple nous a montré lors du discours d’ouverture, car elle n’est pas encore disponible et elle n’est même pas encore en version bêta. Et oui, je suis d’accord à 100%. Il y a beaucoup d’inconnues ici. Il y a aussi un autre élément en jeu. Apple propose quelque chose appelé recherche visuelle dans l’application Photos. Vous pouvez prendre une photo ou une vidéo d’une plante emblématique ou d’un animal de compagnie, puis appuyer sur ce visuel en haut ici. En quoi cela sera-t-il différent de l’intelligence visuelle ou l’intelligence visuelle sera-t-elle liée à ce système existant ? Tant de questions sans réponse ? Mais étant donné que je peux faire beaucoup de choses avec l’application Google existante sur l’iPhone, je ne retiens pas mon souffle pour les fonctionnalités d’intelligence visuelle qui changent la donne en plus de la fonctionnalité d’objectif de Google que vous connaissez peut-être déjà, notamment l’identification des éléments que vous prendre des photos et trouver des choses à acheter. Voici les nouvelles choses qu’il peut faire par saisie vocale, vous permettant de tenir le téléphone devant quelque chose, d’appuyer et de maintenir le bouton de l’obturateur à l’écran et de poser une question. Donc, si j’ai un objet aléatoire devant moi. Je peux demander qu’est-ce que c’est ? Et cela va afficher un aperçu de l’IA en utilisant Gemini qui me donne une idée de ce que c’est et de toute autre information que je pourrais souhaiter. Vous pouvez également enregistrer une vidéo et l’insérer dans l’objectif de Google pour en savoir plus sur quelque chose et même raconter une question. pendant que vous le faites comme vous le feriez avec une capture fixe. Celui-ci est disponible. Si vous êtes inscrit à la section Aperçus de l’IA et autres sections des laboratoires, vous pouvez le faire en appuyant sur l’icône des laboratoires en haut à gauche de l’application Google, puis en l’activant sous Aperçus de l’IA. Disons par exemple que j’essaie de jouer une partie de billard amicale, mais que je suis hypercompétitif, je peux sortir une petite vidéo de mon téléphone et dire laquelle dois-je essayer de synchroniser en premier ? Très bien, vous êtes donc prêt à profiter dès maintenant d’une partie de cette vie d’intelligence visuelle sur l’iPhone. Voici donc la formule pour obtenir l’objectif Google sur l’iPhone qui simule ce que cela pourrait être d’utiliser l’intelligence visuelle lors de son déploiement final, assurez-vous d’avoir l’application Google sur l’iPhone, puis ouvrez l’application de raccourcis et appuyez sur le plus L’icône dans la barre d’actions de recherche, tapez Google et l’objectif Google devrait apparaître, sélectionnez-le, puis appuyez sur Terminé. Vous pouvez maintenant accéder aux paramètres de votre bouton d’action dans l’application des paramètres et faire glisser votre doigt pour en faire cette option de raccourcis. Assurez-vous de sélectionner ici le raccourci que vous venez de créer. Désormais, si vous n’avez pas d’iPhone avec le bouton d’action, tout n’est pas perdu, vous pouvez utiliser le bouton arrière pour démarrer le raccourci. Avec ce même raccourci. Vous venez d’accéder à l’accessibilité, touchez en arrière, puis sélectionnez soit une double ou une triple pression selon celle que vous préférez. Et puis faites défiler vers le bas pour choisir ce même raccourci. Ta da One note de ménage. Si vous essayez d’exécuter ce raccourci à partir de l’écran de verrouillage, vous recevrez peut-être une invite vous demandant si vous souhaitez l’exécuter. Vous devrez déverrouiller votre iPhone ici. Mais si Face ID est activé, vous regardez probablement le téléphone de toute façon, lorsque vous le retirez et il devrait simplement se déverrouiller automatiquement. Et une dernière astuce, vous pouvez même exécuter ce raccourci à partir du centre de contrôle, en faisant glisser votre doigt vers le bas, puis en appuyant longuement dessus, puis en appuyant sur pour ajouter un contrôle de recherche de raccourcis, puis en ajoutant ce raccourci. Vous venez de le faire, je suis curieux de savoir si la recherche vidéo ou vocale est quelque chose que vous trouveriez utile ou si vous l’utiliseriez même ou si vous avez plutôt l’impression que ces entreprises technologiques essaient simplement de se précipiter pour nous apporter de nouvelles informations utiles. Des fonctionnalités d’IA sur le marché sans un cas d’utilisation suffisamment solide pour moi, il est encore tôt avec toutes ces nouvelles fonctionnalités, mais je peux vous le dire avec certitude. Le bouton d’action de mon iPhone a bel et bien été mappé sur ce raccourci d’objectif Google. Maintenant, j’espère vraiment qu’il y a quelque chose de plus dans l’intelligence visuelle que ce que l’on voit lorsqu’elle est enfin déployée. Alors jouez sur Apple, il est temps de nous montrer ce que vous avez. Merci beaucoup d’avoir regardé. J’espère que vous avez apprécié l’épisode. Assurez-vous de m’envoyer un commentaire avec vos réflexions sur l’intelligence visuelle, l’objectif Google et tout ce qui concerne le mobile. Je te rattraperai la prochaine fois.
#Google #Lens #contre #Apple #Visual #Intelligence #Google #atil #déjà #gagné #Vidéo