Effondrement des modèles d’IA: une crise de données en vue ?
PARIS – 13 Juin 2024 –
L’effondrement des modèles d’IA est-il une menace réelle ? Récemment,des experts se demandent sérieusement si la prolifération des modèles d’IA engendre une forme de contamination. Cette inquiétude provient de la formation de ces modèles sur des données générées par d’autres modèles, ce qui pourrait conduire à une perte de fiabilité. Cette effondrement des modèles d’IA pourrait avoir des conséquences significatives. Pour en savoir plus, continuez la lecture.
Okay,here’s the extracted text from the provided HTML,focusing on the main content and removing the ad-related elements:
Extracted Text:
Peu de temps après les débuts de Chatgpt,les universitaires et les technologues ont commencé à se demander si l’explosion récente des modèles d’IA a également créé la contamination.Leur préoccupation est que les modèles d’IA sont formés avec des données synthétiques créées par les modèles d’IA. Les générations ultérieures de modèles d’IA peuvent donc devenir de moins en moins fiables,un état connu sous le nom d’effondrement du modèle d’IA.
En mars 2023, John Graham-Cumming, puis CTO de Cloudflare et maintenant membre du conseil d’management, a enregistré le domaine Web LowbackgroundSteel.ai et a commencé à publier sur diverses sources de données compilées avant l’explosion de l’IA 2022, comme le blank” rel=”nofollow” href=”https://getpopfile.org/docs/welcome”>Popfile. C’était une analogie qui vient de me promener dans la tête et j’ai aimé l’idée d’un référentiel de trucs connues créées par l’homme. D’où le site.”
L’effondrement est-il une véritable crise?
Graham-Cumming n’est pas sûr que les corpus AI contaminés sont un problème.
“La question intéressante est” Est-ce que cela compte? “”, A-t-il demandé.
Certains chercheurs d’IA pensent que c’est le cas et cet effondrement du modèle d’IA est préoccupant. L’année après les débuts de Chatgpt blank” rel=”nofollow” href=”https://arxiv.org/abs/2311.09807″>académique blank” rel=”nofollow” href=”https://arxiv.org/abs/2307.01850″>Trouble de l’autophagie modèle (MAD)comme un ensemble d’auteurs a appelé le problème. Le registre blank” rel=”nofollow” href=”https://arxiv.org/abs/2404.05090″>peut être atténuéla mesure dans laquelle c’est vrai blank” href=”https://www.theregister.com/2025/06/09/appleaiboffinspunctureagihype/”>Modèle effondrement dans de grands modèles de raisonnement (par exemple O1 / O3 d’Openai, Deepseek-R1, Claude 3.7 Sonnet Thinking et Gemini Thinking), seulement Claude Opus.
Essentiellement, Lawenn a fait valoir que les tests d’évaluation du raisonnement d’apple, qui ont révélé que les modèles de raisonnement échouaient à un certain niveau de complexité, ont été défectueux parce qu’ils ont forcé les modèles à écrire plus de jetons qu’ils ne pouvaient en tenir compte.
En décembre 2024, les universitaires affiliés à plusieurs universités ont réitéré les préoccupations concernant l’effondrement du modèle