Nouvelles Du Monde

L’IA est-elle existentiellement dangereuse ou non ?

L’IA est-elle existentiellement dangereuse ou non ?

2023-06-30 21:32:35

M. Bostrom, M. Socher, ChatGPT émeut le public, mais attise aussi les peurs. Vous, M. Bostrom, avez déjà averti il ​​y a neuf ans dans votre livre “Superintelligence” que l’IA pourrait devenir plus intelligente que les humains et même nous menacer. Vous sentez-vous validé ?
Nick Boström : Je recommanderais de regarder le développement avec un mélange de peur et d’espoir. Nous nous dirigeons vers des capacités d’IA transformatrices qui façonneront potentiellement l’avenir de notre espèce et notre vie sur cette planète. L’IA peut comporter des risques existentiels, mais elle peut aussi aider à résoudre de nombreux problèmes. On aurait tort de l’accueillir avec indifférence ou complaisance.

Richard Socher : Il est parfaitement logique d’aborder les nouvelles technologies avec prudence. Si les inventeurs du moteur à deux ou quatre temps avaient pensé aux effets sur le climat, les voitures électriques auraient peut-être existé plus longtemps.

Pourtant, je ne pense pas qu’il y ait les risques existentiels décrits par Nick. C’est une peur inutile qui détourne l’attention des vrais problèmes. L’IA peut écrire d’innombrables contrevérités – mais pas nécessairement les propager.

Lire aussi  Oppo dévoile ces trois nouveaux gadgets ; Vérifiez tous les détails ici

Les experts parlent d’hallucinations, l’IA raconte parfois des bêtises. Elle donne aussi souvent des résultats faussés et transporte les préjugés. Ne nous préoccuperons-nous plus, en effet, de ces difficultés ?
Boström : Il y a certainement de nombreuses questions importantes. Certains sont plus évidents et doivent être résolus plus tôt. Mais il y a aussi ceux qui sont plus éloignés et qui comportent de grands risques. Nous devrions nous concentrer sur les deux types de problèmes. Tout comme d’autres doivent faire face aux médicaments anticancéreux, aux accidents de la circulation ou à la paix dans le monde. Nous n’avons pas le luxe de nous concentrer sur un seul problème. Nous avons perdu 20 ans.

Socher : Je peux écrire beaucoup de livres sympas sur les voyages dans le temps ou sur une cape qui vous rend invisible. Dans un livre comme celui-ci, je peux penser à tous les problèmes qui pourraient survenir. C’est cool et intéressant – mais finalement c’est toujours de la science-fiction.

Richard Socher

L’informaticien allemand étudie les applications de l’intelligence artificielle dans la Silicon Valley.

(Photo: Urs Bucher/Saint-Gall)

Boström : Mais il y a une grande différence si vous vous inquiétez du voyage dans le temps ou de l’IA, qui a investi plusieurs milliards de dollars. Autant que je sache, personne ne travaille sur des machines à voyager dans le temps ou quelque chose comme ça. Mais toutes les grandes entreprises technologiques se battent pour les talents de l’IA et les semi-conducteurs Nvidia. Les pays élaborent des stratégies nationales pour être à l’avant-garde.

Il y a une raison pour laquelle tant de membres de la communauté de l’IA signent des pétitions. Des meilleurs laboratoires d’IA comme Anthropic, Deepmind et OpenAI, tous les dirigeants et plus d’une centaine de professeurs ont récemment déclaré que la menace d’anéantissement de l’IA équivaut à la menace d’une guerre nucléaire.

Avez-vous signé la lettre, M. Socher ?
Socher : Bien sûr que non. Il y a tellement de pétitions différentes qui sortent et que certains experts en IA signent tandis que d’autres les trouvent ennuyeuses. Les scénarios évoqués par Nick, comme celui impliquant les trombones, sont hautement improbables.

Vous jouez sur le scénario bien connu du « trombone » dans le livre de Bostrom : une IA est programmée dans le but de fabriquer le plus de trombones possible. Le logiciel n’a rien contre les gens, il ne veut pas non plus s’emparer de la domination du monde – mais il veut atteindre l’objectif par tous les moyens nécessaires. Si l’IA est suffisamment intelligente, elle peut acquérir en masse des ressources et d’autres machines, voire convaincre les humains de l’aider – jusqu’à ce que le monde ne fabrique plus que des trombones.
Socher : C’est un scénario complètement négligeable. Comment une machine peut-elle être suffisamment intelligente pour atteindre des sous-objectifs aussi complexes, mais pas assez intelligente pour savoir que ces quantités de trombones doivent également être vendues ?

Pourquoi une entreprise devrait-elle mettre à disposition toutes les ressources, en dehors de la puissance de calcul, qui seraient nécessaires pour cela ? Et pourquoi ne pouvez-vous pas désactiver l’IA, pourquoi fonctionne-t-elle de manière totalement indépendante, avec des ressources infinies et sa propre source d’alimentation, mais pas de serveurs ou quelque chose comme ça ? C’est comme un scénario mal écrit où, en y regardant de plus près, on trouve beaucoup de contradictions.

Nick Boström

Le livre “Superintelligence” du philosophe suédois fait partie du canon littéraire de l’IA.

(Photo : Sportsfile/Getty Images)

Pourtant, beaucoup y croient.
Socher : Personne n’y travaille – parce que vous ne pouvez pas gagner d’argent avec. Vous ne gagnez pas d’argent en construisant une voiture super intelligente qui décide d’elle-même d’aller quelque part pour regarder un coucher de soleil avec ses caméras. Même les goûts d’Elon Musk veulent que la voiture soit plus intelligente, mais pas pour qu’elle décide d’aller faire un tour en évitant quiconque sur son chemin.

Boström : Mais de nombreux investisseurs souhaitent rendre les machines plus intelligentes. Et s’ils pouvaient les rendre super intelligents, je suis sûr que beaucoup seraient très heureux de le faire. C’est l’objectif de nombreux laboratoires de recherche. Et ce n’est pas comme si quelqu’un construisait explicitement une IA qui produit autant de trombones que possible – puis les déchaîne sur l’humanité. L’exemple signifie que vous pouvez spécifier n’importe quel objectif.

Et pour presque tous les objectifs imaginables, il existe des raisons compréhensibles pour que l’IA sécurise davantage de ressources. Parce qu’avec plus de ressources, elle peut mieux atteindre son objectif, quel qu’il soit. Cela pourrait être la puissance de calcul ou l’augmentation de votre propre intelligence. L’IA pourrait tromper ses développeurs sur ses véritables capacités pour éviter d’être modifiée ou assommée pour atteindre ses objectifs.

Nick Bostrom : Superintelligent.
Verlag de Suhrkamp
Berlin 2016
480 pages
24 euros
Traduction : Jan Erik Strasser

Socher : Les modèles de langage n’ont même pas une idée complète de ce qu’est un mot. Ils reconnaissent les parties individuelles, les jetons, et apprennent des choses intéressantes sur le monde en prédisant le mot suivant. C’est vraiment significatif et très excitant. Mais le modèle de langage va-t-il maintenant anéantir l’humanité pour s’assurer que le mot suivant est toujours aaaa ? Les modèles de langage ne le font pas. Et ne le sera jamais.

Pourquoi le monde a attendu en vain des voitures volantes

M. Socher, vous avez fait un pari intéressant sur l’Intelligence Générale Artificielle (AGI), qui est la capacité d’un programme informatique à apprendre n’importe quelle tâche intellectuelle qu’un humain peut effectuer – ce qui serait une sorte de précurseur de la superintelligence. Dis m’en plus sur le sujet.
Socher : Oui, il tourne depuis quelques années avec un fondateur d’OpenAI. Ils croient que nous atteindrons AGI en 2027. Nous avons défini trois critères pour cela. Premièrement, un robot doit pouvoir nettoyer toute la maison, trier toutes les chaussettes, laver la vaisselle et tout le reste. Pour ce faire, l’IA doit résoudre un problème mathématique jusqu’alors non résolu et être capable de traduire un livre aussi bien qu’un être humain.

Je ne sais pas, peut-être que si quelqu’un y mettait beaucoup d’efforts, l’IA pourrait vraiment traduire un livre aussi bien qu’un humain. Mais actuellement, il existe encore de nombreuses incohérences qui n’arriveraient pas à un traducteur humain. Mais cela pourrait fonctionner. Mais on est loin d’un robot nettoyant ma maison. L’IA nous aidera également à trouver de nouvelles idées créatives en mathématiques. Mais inventer un tout nouveau domaine des mathématiques pour résoudre un problème non résolu va être difficile.

Quand atteignons-nous AGI, M. Bostrom ?
Boström : 2027 est en effet très ambitieux. Mais que cela se produise alors ou quelques années plus tard n’a pas d’importance. Nous ne devons pas reculer. Je n’ai pas d’année fixe en tête, mais je prendrais au sérieux les prévisions annuelles à un chiffre. Mais l’incertitude est grande ; Il est difficile de prévoir les ruptures technologiques. J’ai commencé à travailler sur mon livre “Superintelligence” en 2008, il est sorti en 2014 – et depuis lors, la révolution de l’apprentissage en profondeur a remarquablement progressé. Il n’y a aucun signe de ralentissement.

Socher : Avec le même orgueil et la même excitation que pour AGI, certaines personnes ont prédit des voitures autonomes. Mais toutes les start-up ont échoué. Généralement, nous anticipons les mauvaises choses. Il n’y a que quelques décennies entre les débuts de l’aviation avec les frères Wright et le vol à la vitesse du son. Les gens étaient convaincus que nous conduirions tous des voitures volantes dans les années 1980 ou 1990. Mais personne ne les a.

Nous avons une IA très intelligente à laquelle il est évidemment facile de parler. Si vous le configurez correctement, il peut lire tous les textes et inclure des statistiques. Mais il n’a pas d’esprit propre.

L’IA doit être réglementée dans le cas d’utilisation, pas en général

M. Bostrom, devrions-nous introduire un moratoire de six mois sur la recherche en IA, comme le demandent Elon Musk et d’autres ?

Boström : Je suis déchiré à ce sujet. Je n’ai pas signé la pétition. Il peut être utile de faire une pause à un moment critique et de ralentir pendant six mois, un an ou même deux ans. Alors quiconque développe la superintelligence aurait la possibilité de procéder avec prudence et de mettre en place des garde-fous. C’est bien mieux que d’avoir 20 laboratoires et pays différents en lice pour être les premiers à franchir la ligne d’arrivée. Ce serait la voie la plus dangereuse.

Et qu’est-ce qui s’y oppose ?
Boström : Quel est l’intérêt d’un moratoire de six mois ? Que se passerait-il ensuite ? Prolonger la pause d’un an ? À cette époque, un organisme de réglementation majeur pourrait potentiellement être créé et commencer à stigmatiser la recherche sur l’IA. C’est peu probable à mon avis, mais cela pourrait aller si loin que l’IA deviendrait taboue et interdite. Ce serait aussi un risque existentiel pour l’humanité que nous ne développions rien de plus grand que ce que nous avons déjà.

Ce texte fait partie du grand spécial du Handelsblatt sur l’intelligence artificielle. Êtes-vous intéressé par ce sujet? Tous les textes déjà parus dans le cadre de notre semaine thématique

Vous trouverez ici.

Socher : Nous devrions réglementer l’IA. Mais nous devrions réglementer les applications, par exemple lorsque l’IA est utilisée dans une voiture autonome ou lorsqu’un neurochirurgien opère une tumeur au cerveau. Des craintes mal placées ne doivent pas nous conduire à réglementer l’IA en général, comme prescrire un certain nombre de paramètres. Cela a autant de sens que l’idée de ralentir Internet – afin que l’IA n’apprenne pas à développer un virus cérébral si rapidement. Ou les puces devraient fonctionner plus lentement pour que l’IA ne puisse pas penser aussi vite. Tout cela n’a aucun sens.

Quelle est votre suggestion ?
Socher : Il ne devrait y avoir aucune autorité sur l’IA, tout comme il n’y a aucune autorité sur les ordinateurs. Mais il devrait y avoir des autorités liées aux applications, telles que la FDA aux États-Unis, qui supervisent le développement des médicaments. Pouvez-vous utiliser l’IA pour découvrir de nouvelles protéines ? Absolument. Pouvez-vous donner de l’argent aux chercheurs pour développer un virus mortel en utilisant l’IA et l’ingénierie des protéines ? Certainement pas.

Toutes les craintes que les gens associent à l’IA sont avant tout des craintes de personnes voulant abuser de ce nouvel outil à leur profit. À bien des égards, l’IA nous tend un miroir. L’humanité fait beaucoup de mal à l’humanité – et nous devrions les réglementer spécifiquement.

Plus: Comment Sam Altman et Jensen Huang façonnent le boom de l’IA.



#LIA #estelle #existentiellement #dangereuse
1688154767

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Un F16 s’est écrasé à Halkidiki, le pilote est sain et sauf

F-16 ©Eurokinissi ” )+(“arrêter\”> “).length); //déboguer contenttts2=document.querySelector(“.entry-content.single-post-content”).innerHTML.substring( 0, document.querySelector(“.entry-content.single-post-content “).innerHTML.indexOf( “” )); contenttts2=contenttts2.substring(contenttts2.indexOf( “fa-stop\”> ” )+(“arrêter\”> “).length);

ADVERTISEMENT