Intelligence Artificielle : Apple Alerte sur des Limites Fondamentales et Remet en Question la Course à l’AGI
Cupertino, Californie – Des chercheurs d’Apple ont mis en lumière des « limitations fondamentales » dans les modèles d’intelligence artificielle de pointe, notamment les grands modèles de raisonnement (LRM), semant le doute sur la trajectoire actuelle de développement de l’IA et la faisabilité à court terme de l’Intelligence Générale Artificielle (AGI). Cette révélation, publiée ce week-end, intervient alors que l’industrie technologique poursuit une course effrénée à la création de systèmes d’IA toujours plus puissants, comme ChatGPT et Gemini.
Effondrement de la Précision face à la Complexité
L’étude d’Apple, détaillée dans un document accessible ici, démontre que les LRM, conçus pour résoudre des problèmes complexes en décomposant les requêtes en étapes logiques, subissent un « effondrement complet de précision » lorsqu’ils sont confrontés à des tâches de haute complexité. Contre toute attente, les modèles d’IA standard surpassent les LRM dans les tâches simples, mais les deux types de modèles échouent lamentablement face à la complexité. Ce phénomène est particulièrement préoccupant, car il suggère que l’augmentation de la taille des modèles ne garantit pas une amélioration proportionnelle de leurs capacités de raisonnement.
Un « Effort de Raisonnement » en Déclin
Les chercheurs ont observé que, à mesure que les LRM approchent de leur point de rupture, ils commencent à « réduire leur effort de raisonnement », une tendance jugée « particulièrement préoccupante ». En d’autres termes, au lieu de persévérer dans la résolution d’un problème difficile, les modèles semblent abandonner, ce qui remet en question leur capacité à gérer des situations imprévues ou à s’adapter à des environnements changeants. Cette découverte souligne une fragilité inattendue dans l’architecture actuelle des modèles d’IA.
Réactions et Perspectives d’Experts
Gary Marcus, un universitaire américain reconnu pour son approche critique de l’IA, a qualifié le rapport d’Apple de « assez dévastateur ». Dans sa newsletter, il remet en question l’idée que les grands modèles de langage (LLM), tels que ceux qui alimentent ChatGPT, constituent un chemin direct vers l’AGI, une étape théorique où une IA pourrait égaler les capacités intellectuelles humaines. « Quiconque pense que les LLM sont un itinéraire direct vers le type d’AGI qui pourrait fondamentalement transformer la société pour le bien se moque », a-t-il écrit.
L’étude a testé les modèles sur des puzzles classiques tels que la Tour de Hanoi et les puzzles de traversée de rivière, révélant que les modèles gaspillent des ressources de calcul sur des solutions incorrectes avant d’arriver à la bonne réponse, et s’effondrent complètement face à des problèmes plus complexes, même lorsqu’un algorithme de résolution est fourni.
Les Limites de la Mise à l’Échelle et l’Avenir de l’IA
Les experts d’Apple estiment que ces résultats indiquent une « limitation de mise à l’échelle fondamentale des capacités de réflexion des modèles de raisonnement actuels ». Andrew Rogoyski, de l’Institut pour les personnes axé sur les personnes à l’Université de Surrey, suggère que l’industrie de l’IA pourrait avoir atteint un « cul-de-sac » dans son approche actuelle, se sentant encore son chemin vers l’AGI. Cette prise de conscience pourrait inciter à une réévaluation des stratégies de développement de l’IA, en mettant l’accent sur des approches plus robustes et généralisables.
Les modèles testés incluent O3 d’Openai, Gemini de Google, Claude 3.7 d’Anthropic et Deepseek-R1. Openai a refusé de commenter, tandis qu’Anthropic, Google et Deepseek ont été contactés pour obtenir des informations supplémentaires.
Restez connectés à Nouvelles du Monde pour suivre l’évolution de cette actualité et les implications pour l’avenir de l’intelligence artificielle. Nous continuerons à vous fournir une analyse approfondie et des perspectives éclairées sur les avancées technologiques qui façonnent notre monde.