OpenAI a révélé, ce lundi (13), le nouveau cerveau de ChatGPT: GPT-4o. Dans une démonstration qui rapproche son outil du film Her (Spike Jonze, 2013), la société d’intelligence artificielle (IA) a montré des avancées par rapport au turbo GPT-4 et étendu ses capacités de traitement de texte et de compréhension d’images, en plus de maintenir la prise en charge de la voix. conversations.
Selon l’entreprise, par rapport au GPT-4 actuel, le GPT-4o est deux fois plus rapide dans le traitement des réponses, 50 % moins cher et a une capacité cinq fois supérieure. Dans le nouveau modèle, chaque million de jetons (petits morceaux de mots) coûte 5 USD (en référence aux données d’entrée), contre 10 USD dans GPT-4 Turbo. Les utilisateurs d’OpenAI, y compris les non-abonnés au forfait ChatGPT Plus, pourront accéder gratuitement à la nouvelle IA, progressivement, précise la startup américaine.
La cadre Mira Murati, responsable de la technologie chez OpenAI, a réalisé des démonstrations qui indiquent la capacité de ChatGPT à gérer les images et la voix. Dans la démonstration, l’IA est apparue non seulement plus intelligente, mais aussi plus naturelle dans ses réponses, avec des résultats moins robotiques et plus « humains ». Le chatbot a également démontré qu’il est capable de lire les émotions humaines.
Murati a également déclaré que GPT-4o sera également disponible sous forme d’API (interface de programmation d’application), permettant aux développeurs et aux entreprises, sous abonnement, d’« intégrer » ChatGPT dans leurs services et d’intégrer l’intelligence artificielle dans différents produits. En outre, la société a annoncé des améliorations dans 50 autres langues.
OpenAI a également annoncé une nouvelle application ChatGPT pour Mac, un ordinateur Apple. L’entreprise affirme qu’il sera plus facile d’intégrer le chatbot dans les tâches des utilisateurs.
L’annonce a eu lieu un jour avant que Google organise son principal événement de l’année, Google I/O, qui devrait également apporter des nouvelles importantes dans le domaine. Les experts s’attendent à ce que l’entreprise démontre les capacités de Gemini AI en tant qu’assistant personnel.
GPT-4o est un coup dur pour Siri et Alexa
L’événement OpenAI a montré comment fonctionnent les capacités multimodales de ChatGPT-4o. Le modèle peut être un assistant vocal, similaire à Alexa (d’Amazon) et Siri (d’Apple), et est capable de lire des images du monde réel à partir de l’appareil photo d’un smartphone. La principale différence avec ses concurrents est qu’il s’agit d’un seul modèle capable de faire tout cela.
Dans la démonstration, l’IA peut raconter des histoires avec différentes intonations dans la voix, comme quelque chose d’émotionnel ou de complètement robotique. De plus, grâce à l’appareil photo du téléphone portable, l’IA permet de résoudre des équations mathématiques du premier degré écrites sur une feuille de papier ou même de traduire en temps réel une conversation. Selon OpenAI, ces fonctions arriveront aux utilisateurs dans les semaines à venir.