Nouvelles Du Monde

Melanie Mitchell : « L’intelligence artificielle décollera lorsqu’elle sera insérée dans des robots qui expérimentent le monde comme des enfants » | Technologie

Melanie Mitchell : « L’intelligence artificielle décollera lorsqu’elle sera insérée dans des robots qui expérimentent le monde comme des enfants » |  Technologie

2024-03-30 07:20:00

Sommes-nous surestimés le potentiel de l’intelligence artificielle (IA) ? À quel point est-il intelligent ? Atteindra-t-il un jour les humains ? Telles sont quelques-unes des questions que se pose Melanie Mitchell (Los Angeles, 55 ans) dans son livre Intelligence artificielle. Guide pour les êtres pensants, que Captain Swing publie ce lundi en espagnol. Sa réponse est catégorique : nous sommes très loin de créer une superintelligence, malgré les affirmations contraires de certaines entreprises. Et l’une des raisons fondamentales est que les machines ne raisonnent pas comme nous. Ils peuvent accomplir presque toutes les tâches mieux que quiconque, mais ils comprennent le monde moins bien qu’un bébé d’un an.

Mitchell fournit un contexte fondamental pour évaluer le phénomène de l’IA, une technologie qui fait partie du débat public depuis l’apparition d’outils comme ChatGPT il y a deux ans. Des hommes politiques, des hommes d’affaires et des universitaires ont récemment mis en garde contre les dangers de ces systèmes, qui ont ébloui le monde avec les textes élaborés qu’ils sont capables de générer et les images et vidéos hyperréalistes qu’ils peuvent produire.

La professeure Davis de complexité à l’Institut de Santa Fe et professeur à l’Université d’État de Portland décrit dans son travail le fonctionnement des systèmes d’IA les plus avancés et les compare au raisonnement humain. Conclusion : des aspects clés tels que l’intuition ou la connaissance de l’environnement sont, pour l’instant, inaccessibles à n’importe quelle machine. Mitchell assiste à EL PAÍS par appel vidéo depuis son domicile à Santa Fe, au Nouveau-Mexique.

DEMANDER. De quoi l’IA est-elle capable aujourd’hui ?

RÉPONDRE. Ses capacités ont fait un grand bond en avant il y a quelques années avec l’arrivée de l’IA générative, notamment des applications comme ChatGPT ou Dall-E. Mais ces systèmes, bien que cela puisse paraître, n’ont pas le même type de compréhension du monde que nous. C’est pourquoi parfois ils font quelque chose d’étrange ou inventent des choses. Ils manquent de fiabilité et présentent une série de limitations difficiles à prévoir. Je pense donc que même si ces systèmes peuvent être très utiles et que je les utilise tout le temps, nous devons faire attention à la confiance que nous leur accordons. Surtout s’il n’y a pas de surveillance humaine.

P. Parce que?

R. Ils peuvent commettre de graves erreurs. Un exemple clair est celui des voitures autonomes. L’une des raisons pour lesquelles ils ne sont pas encore parmi nous est qu’ils échouent là où un humain le ferait rarement, par exemple en ne parvenant pas à identifier un piéton ou un obstacle. Un autre exemple est celui des systèmes de reconnaissance faciale automatique. Les machines sont extrêmement efficaces pour détecter les visages dans les images, mais se sont révélées moins efficaces pour identifier les personnes ou les femmes à la peau plus foncée. Avec ChatGPT, nous avons vu d’innombrables cas où ils inventent ce qu’ils disent.

Le professeur Mitchell utilise quotidiennement des outils d’IA, mais reconnaît leurs limites et surveille toujours ses résultats.Kate Joyce

P. L’essor de l’IA générative favorise-t-il ou nuit-il le développement de la discipline ?

Lire aussi  Les réfrigérateurs Samsung BeSpoke de Toiletpaper, sur le marché après la Design Week

R. D’une certaine manière, ceci battage Cela augmente les attentes des gens, et cela provoque ensuite des déceptions. Cela s’est produit à plusieurs reprises au cours de l’histoire de l’IA. Dans les années 1950 et 1960, on disait que nous aurions des machines dotées d’une intelligence humaine d’ici quelques années. Cela ne s’est pas produit. L’hiver de l’IA est arrivé : le financement de la recherche s’est tari et les entreprises ont fait faillite. Nous sommes désormais dans une période de grandes attentes. La question est : est-ce vraiment le moment où les prédictions des optimistes se réaliseront ou allons-nous nous retrouver dans une autre grande déception ? C’est difficile à prévoir.

P. Il y a à peine trois ans, l’avenir était celui du métaverse. Aujourd’hui plus personne n’en parle. Pensez-vous que quelque chose de similaire puisse se produire avec l’IA ?

R. Cela arrive tout le temps avec les grandes innovations technologiques : il y a une sorte de grosse bulle de battage médiatique, puis les attentes ne sont pas satisfaites et les gens sont déçus, et puis la technologie arrive finalement en tête. Ce développement s’avère utile, mais pas aussi brillant que prévu. C’est probablement ce qui se passera avec l’IA.

P. Vous soutenez que les systèmes d’IA manquent de compréhension sémantique ou de bon sens et ne peuvent donc pas être véritablement intelligents. Pensez-vous que cela va changer à un moment donné ?

R. C’est possible. Il n’y a aucune raison pour que nous ne puissions pas développer une telle machine. La question est : comment y arriver ? ChatGPT a été formé avec tous les livres et textes numériques disponibles, ainsi que toutes les vidéos et images sur Internet. Mais il y a des choses qui relèvent du bon sens et de la connaissance et qui ne sont pas codées dans le langage et les données : elles ne peuvent être appréhendées que par l’expérience. Peut-être que les machines ne seront pas capables de penser de manière plus humaine tant qu’elles n’auront pas vécu le monde comme nous. Il y a beaucoup de débats dans la discipline de l’IA à ce sujet. Je soupçonne que le grand pas en avant se produira lorsque la machine sera non seulement entraînée passivement au langage, mais qu’elle expérimentera également activement le monde comme le fait un enfant.

L’histoire de l’IA a montré que nos intuitions sur la vie et l’intelligence sont souvent fausses, qu’en réalité tout est bien plus complexe qu’on ne le pensait.

P. Quand ils sont sous forme de robot.

R. Oui, une IA insérée dans un robot pourrait avoir le même type d’éducation ou de développement qu’un enfant. C’est une chose sur laquelle Alan Turing, l’un des pères de l’informatique, spéculait déjà dans les années 1950. Cette idée a plus de sens maintenant.

P. Vous décrivez dans le livre comment fonctionne l’IA et à quel point cela a peu à voir avec notre façon de raisonner. Le processus est-il important s’il remplit sa fonction ?

Lire aussi  Samsung propose un scanner d'empreintes digitales tout écran ! Sera 2,5 milliards de fois plus sûr

R. Cela dépend de l’utilisation que vous souhaitez faire du système. Le GPS de ma voiture peut trouver un itinéraire vers et depuis l’endroit où je veux aller. Il ne comprend pas le concept de route ou de trafic, mais il fait du bon travail. La question est de savoir si nous souhaitons réellement que les systèmes interagissent plus généralement avec le monde humain. Dans quelle mesure devront-ils le comprendre ? Il y a eu un cas où un véhicule autonome a freiné brusquement à un moment donné, et le conducteur ne savait pas pourquoi. Il s’est avéré qu’il y avait un panneau d’affichage avec une publicité sur laquelle était inscrit un panneau d’arrêt. Pouvez-vous éviter de telles erreurs ? Seulement quand vous comprenez le monde comme nous.

P. Jusqu’où pensez-vous que l’IA peut aller ?

R. Je ne vois aucune raison pour laquelle nous ne pourrions pas développer des machines dotées d’une intelligence comparable à celle des humains. Mais ce sera très difficile d’y arriver, nous n’en sommes pas près. Dans les années 1970, on pensait que lorsque les machines pouvaient jouer aux échecs au niveau d’un grand maître, elles auraient égalé l’intelligence humaine. Il s’est avéré que ce n’était pas le cas. On disait alors que lorsqu’ils étaient capables de traduire des textes ou d’entretenir des conversations. Cela n’est pas arrivé non plus. Toute l’histoire de l’IA a montré que nos intuitions sur la vie et l’intelligence sont souvent fausses, qu’en réalité tout est bien plus complexe que nous le pensions. Et je pense que cela continuera à être le cas. Nous allons en apprendre beaucoup plus sur ce que signifie réellement être intelligent.

Dire que les systèmes d’IA pourraient se détraquer et nous détruire est, à tout le moins, une affirmation hautement improbable et spéculative.

P. Alors ça en aura valu la peine.

R. L’un des objectifs de l’IA est d’aider à comprendre ce que nous entendons par intelligence. Et, lorsqu’on essaie de l’implémenter sur des machines, on se rend souvent compte qu’il inclut en réalité de nombreux éléments que nous n’avions pas pris en compte.

P. Certains pionniers de l’IA, comme Geoffrey Hinton, estiment que cette technologie peut devenir difficile à contrôler. Qu’en penses-tu?

R. L’IA comporte de nombreux types de dangers. Il peut être utilisé pour produire de la désinformation et contrefaçons profondes. Il existe des biais algorithmiques, comme celui que j’ai évoqué dans le cas de la reconnaissance faciale. Hinton et d’autres vont plus loin et affirment que ces systèmes pourraient se détraquer et nous détruire. Cette affirmation est pour le moins hautement improbable et spéculative. Si nous développons un système superintelligent, je doute qu’il ne se soucie pas de nos valeurs, comme tuer tous les humains n’est pas acceptable. Se concentrer autant sur cette idée dramatique de menaces existentielles pour l’humanité ne fait que détourner l’attention de choses qui sont vraiment importantes en ce moment.

Lire aussi  Les 208 000 billets de Coldplay se sont vendus, les plaintes et les spéculations se multiplient | Chanson

P. Pensez-vous qu’en tant que société, nous répondons de manière adéquate aux menaces auxquelles nous sommes confrontés aujourd’hui ?

R. Oui, même si la législation a toujours du mal à suivre l’innovation. L’UE a fait un premier pas avec le règlement européen sur l’IA. L’une des choses que nous observons aux États-Unis, ce sont les poursuites en matière de droits d’auteur. Tous ces systèmes sont entraînés avec d’énormes quantités de texte et d’images. Si vous n’avez pas payé pour son utilisation, sommes-nous confrontés à une violation du droit d’auteur ? La loi n’est pas claire car elle a été adoptée bien avant le développement de cette technologie. Nous verrons comment cela est résolu.

Les neuroscientifiques ne comprennent pas le fonctionnement du cerveau et font des expériences pour essayer de donner un sens à ce qu’ils voient. C’est ce qui se passe actuellement avec l’IA générative

P. Quelle est l’application d’IA la plus impressionnante que vous ayez vue récemment ?

R. Ce qui me passionne le plus, c’est l’application de ces systèmes à des problèmes scientifiques. DeepMind, par exemple, travaille à utiliser l’IA pour prédire la structure des protéines. Il est également utilisé pour développer de nouveaux matériaux et médicaments. Nous sommes dans une sorte de nouvelle ère scientifique, peut-être aussi importante que celle inaugurée avec l’arrivée des ordinateurs.

P. Il dit dans le livre que ceux qui calibrent les systèmes d’apprentissage profond, la technique d’IA la plus avancée, semblent être des alchimistes plutôt que des scientifiques, car ils ajustent les paramètres des machines sans savoir exactement ce qu’ils font.

R. Peu de temps après avoir écrit le livre, les gens ont commencé à parler d’ingénieurs en génie. instructions [las instrucciones que se le da las herramientas de IA generativa]. Votre travail consiste à essayer de faire fonctionner le système aussi bien que possible. Il s’avère qu’il y a des gens qui gagnent beaucoup d’argent en faisant ce travail. Et c’est de la pure alchimie, il n’y a aucune science derrière cela. Il s’agit simplement d’essayer des choses. Certains fonctionnent et d’autres non, et nous ne savons pas pourquoi.

P. Il est ironique que ceux qui tentent d’optimiser l’une des technologies les plus sophistiquées de l’histoire de l’humanité le fassent aveuglément.

R. Ces systèmes sont en quelque sorte des boîtes noires. Ce sont des systèmes de logiciel des systèmes extrêmement complexes qui n’ont pas été explicitement programmés pour faire des choses, mais qui ont été formés, appris à partir de données, et personne ne peut comprendre pourquoi ils fonctionnent comme ils le font. Les neuroscientifiques ne comprennent pas non plus comment fonctionne le cerveau et ils font des expériences pour essayer de donner un sens à ce qu’ils voient. C’est ce qui se passe actuellement avec l’IA générative.

Vous pouvez suivre Technologie EL PAÍS dans Facebook oui X ou inscrivez-vous ici pour recevoir notre bulletin d’information semanal.

Abonnez-vous pour continuer la lecture

Lire sans limites

_




#Melanie #Mitchell #Lintelligence #artificielle #décollera #lorsquelle #sera #insérée #dans #des #robots #qui #expérimentent #monde #comme #des #enfants #Technologie
1711799609

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT