Nouvelles Du Monde

Entrepreneurs et chercheurs appellent à une pause dans le développement de l’IA

Entrepreneurs et chercheurs appellent à une pause dans le développement de l’IA

EUne pause de six mois dans le développement pour l’entraînement de systèmes d’IA plus puissants que GPT-4 : c’est ce que réclament mardi près de 2 000 signataires d’une lettre ouverte a été publié sur le site du “Future of Life Institute”. – une organisation à but non lucratif dédiée à l’utilisation responsable et à faible risque des technologies transformatrices. L’intelligence artificielle avancée pourrait annoncer un changement radical dans l’histoire de la vie sur Terre, et cela doit être planifié avec soin, indique la lettre.

Sibylle Anderl

Rédacteur au feuilleton, responsable du département “Nature et Sciences”.

Les risques de propagande et de fausses informations, la perte d’emplois et une perte de contrôle générale sont particulièrement préoccupants. La poursuite du développement de puissants systèmes d’IA ne devrait donc avoir lieu que lorsqu’il est clair que ces risques peuvent être maîtrisés. Parmi les signataires figurent des noms bien connus tels que le co-fondateur d’Apple Steve Wozniak et Elon Musk – même si ce dernier ne s’est pas forcément distingué en tant qu’entrepreneur aux normes morales particulièrement élevées.

« Nous craignons de ne pas pouvoir suivre la réglementation »

La professeure allemande Ute Schmidt, qui dirige le groupe de travail sur les systèmes cognitifs de l’université Otto Friedrich de Bamberg, et Silja Vöneky, responsable du groupe de recherche FRIAS Responsible AI de l’université Albert Ludwig de Fribourg, sont également impliquées. Schmidt a expliqué sa participation au German Science Media Center (SMC) avec la nécessité de souligner les risques liés à l’utilisation de grands modèles de langage et d’autres technologies d’IA actuelles. Il faut essayer d’entrer dans un large discours démocratique auquel participent activement les experts en IA des instituts de recherche et des grandes entreprises technologiques.

Lire aussi  'La Havane Madrid' apportera un mélange de musique latine et de contes culturels à la Mission San Juan Capistrano

D’autre part, en tant que professeur de droit international et d’éthique juridique, Vöneky a particulièrement souligné l’absence d’un cadre juridique adapté : « Mon inquiétude est que nous ne pourrons pas suivre la réglementation. Le règlement de l’UE sur l’IA n’est pas encore en vigueur – et ne classe ces systèmes que comme à faible risque, donc les réglemente à peine.” Il en va de même pour la Convention du Conseil des droits de l’homme de l’Europe sur l’IA. Il n’existe aucun autre traité international contraignant sur l’IA.

Le règlement de l’UE sur l’IA, en place depuis deux ans, est actuellement en cours de négociation et ne pourrait pas être adopté avant cette année au plus tôt. À la base, il consiste en un cadre réglementaire à trois niveaux fondé sur les risques qui fait la distinction entre les systèmes d’IA à risque inacceptable, les systèmes d’IA à haut risque et les systèmes d’IA à faible risque. Les chatbots comme ChatGPT entreraient dans cette dernière catégorie. Même si le règlement entrait effectivement en vigueur dans deux ans au plus tôt, il n’y aurait aucun changement pour les technologies critiquées dans la lettre ouverte. Vöneky critique cette maladresse : le règlement a jusqu’à présent été pensé de manière trop ‘statique’ et ne peut pas “réagir assez rapidement aux nouvelles situations à risque provoquées par de nouvelles évolutions techniques”.

Un gel temporaire de la recherche pourrait, du moins en théorie, servir à donner aux politiciens et à la justice l’occasion de rattraper ce qui a été négligé ici. “Un moratoire aurait l’avantage que les réglementations pourraient être décidées de manière proactive avant que la recherche ne progresse davantage”, a déclaré Thilo Hagendorff, chef de groupe de recherche à l’Université de Stuttgart, au SMC. En même temps, cependant, il voit la déclaration d’un œil critique : « En fin de compte, le moratoire sert précisément les institutions dont les activités doivent en fait être problématisées. Cela suggère des capacités complètement exagérées des systèmes d’IA et les stylise comme des outils plus puissants qu’ils ne le sont réellement.

Le moratoire alimente ainsi les malentendus et les perceptions erronées sur l’IA et tend ainsi à détourner l’attention des problèmes réels – voire à les exacerber. Après tout, des attentes exagérées et une trop grande confiance dans les nouveaux modèles de langage puissants sont des facteurs qui favorisent davantage la perte de contrôle déplorée et le risque de divulguer des informations intimes ou de ne pas vérifier adéquatement les informations fournies.

Dans tous les cas, on ne sait absolument pas comment un gel de la recherche pourrait être contrôlé et sanctionné. Cela est déjà évident du fait que l’exigence de ralentir des systèmes plus puissants que GPT-4 n’est pas clairement définie : En raison du manque de transparence concernant les détails techniques et les possibilités de ce modèle de langage d’OpenAI, il serait difficile de décider quels modèles sont concernés. De plus, l’arrêt du développement comporte également des risques. Thilo Hagendorff voit cela illustré par divers scénarios : “Si une requête à un modèle de langage peut fournir de meilleures réponses que les experts humains, cela rend l’ensemble du travail de connaissance plus productif. Dans les cas extrêmes, cela peut même sauver des vies. Les modèles linguistiques en médecine, par exemple, sont une excellente occasion de sauver plus de vies ou de réduire la souffrance.

Pendant ce temps, l’Italie a déjà créé des faits. L’autorité italienne de protection des données a profité des violations alléguées des règles de protection des données et de protection de la jeunesse pour demander à la société OpenAI d’arrêter l’application en Italie. Nello Cristianini, professeur d’intelligence artificielle à l’Université de Bath, a interprété cela au SMC britannique comme une confirmation que la lettre ouverte avait fait valoir un argument valable : “Il n’est pas clair comment ces décisions seront appliquées. Mais le simple fait qu’il semble y avoir une déconnexion entre la réalité technologique et le cadre juridique en Europe suggère qu’il peut y avoir une part de vérité dans la lettre signée par divers entrepreneurs et chercheurs en IA il y a deux jours. »

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT