Nouvelles Du Monde

À quel point les grands modèles de langage sont-ils vraiment intelligents ?

À quel point les grands modèles de langage sont-ils vraiment intelligents ?


Le comportement humain signifie-t-il aussi la pensée humaine ? Dans le film “Ex-Machina”, la frontière entre les humains et l’IA est floue.
Image : AKG

Les grands modèles de langage tels que GPT-4 acquièrent des capacités croissantes qui les font paraître de plus en plus intelligents. C’est intentionnel, mais cela peut aussi provoquer des malentendus.

Oorsqu’il pourrait souhaiter une capacité supplémentaire, ce serait de pouvoir visionner des photos et des vidéos – cela a été révélé par le chatbot de Sydney de Microsoft au journaliste du New York Times Kevin Roose lors d’une conversation sensationnelle en février. Et même si une telle déclaration résultant de l’analyse statistique de quantités gigantesques de données textuelles ne doit pas être interprétée comme un véritable souhait d’une intelligence artificielle : cela a au moins montré que ce serait une prochaine étape évidente pour améliorer les grands modèles de langage.

Vous n’avez vraiment pas eu à attendre longtemps pour cette étape. GPT-4, le dernier exemple de ce modèle d’auto-apprentissage de la société américaine Open AI, qui a été présenté mardi dernier, a maintenant atteint cette capacité. Il est donc multimodal : contrairement à son prédécesseur GPT-3, sur lequel repose le bot ChatGPT, il peut traiter à la fois du texte et des images. “Cela nous rapproche de ce que nous pouvons appeler une forme de compréhension faible”, a déclaré Nello Cristianini, professeur d’intelligence artificielle à l’Université de Bath, au Science Media Center britannique. Une telle compréhension primitive comprendrait la prédiction des sons correspondant à la vidéo d’une balle rebondissante.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT