Nouvelles Du Monde

L’intelligence artificielle au psychanalyste – Santé et Médecine

L’intelligence artificielle au psychanalyste – Santé et Médecine

2023-11-07 03:23:21

L’esprit critique doit être renforcé pour corroborer la fiabilité de l’IA.

Par José Antonio Marina, pédagogue.

Dans les années 1950, le paradigme behavioriste en psychologie – qui étudiait uniquement les comportements observables – a été remplacé par le « paradigme cognitiviste », s’intéressant aux processus mentaux qui se déroulaient dans la « boîte noire » de notre cerveau. L’informatique était en plein essor et la volonté de simuler des processus cognitifs à l’aide d’une machine nous obligeait à les décrire de manière plus précise. L’ordinateur était une machine stupide qui suivait simplement les instructions que le programmeur lui donnait, ce qui obligeait le programmeur à ne sauter aucune étape, aussi triviale que cela paraisse.

Les progrès actuels en matière d’intelligence artificielle (IA), notamment ChatGPT, permettent également de mieux comprendre le fonctionnement du cerveau humain, qui est en réalité un système GPT (Transformateur de pré-formation génératif). Comme le cerveau humain, cette technologie génère des textes basés sur de gigantesques banques de données et des procédures syntaxiques pour les gérer. La machine ne comprend pas ce qu’elle fait, et cela arrive aussi à notre cerveau. Les mécanismes qui préparent une phrase – ou tout phénomène mental – ne sont pas conscients. Le cerveau ne connaît pas la phrase qu’il forme. Nous en avons conscience au moment de l’énonciation. C’est pourquoi EM Forster avait raison lorsqu’il faisait dire à l’un de ses personnages : « Comment puis-je savoir ce que je pense si je ne l’ai pas encore dit ?

Les programmes ChatGPT 3 et 4 fonctionnent par apprentissage par renforcement, comme nous. C’est la procédure étudiée par BF Skinner, pour de nombreux experts le psychologue le plus influent du XXe siècle, suivi par Piaget et Freud. Le changement le plus radical dans l’intelligence artificielle s’est produit lorsque les programmeurs, au lieu de donner des instructions à la machine, lui ont offert des récompenses (renforts) pour qu’elle parvienne à les atteindre.

Lire aussi  À 3 semaines, elle a attrapé le VRS, le virus qui emballe les hôpitaux à travers les États-Unis

Les experts sur ce sujet difficile affinent et distinguent les récompenses et les valeurs. Les deux ont le caractère d’une fin – bien que sous la forme d’un nombre dans une équation – et, jusqu’à présent, ce but est assuré par le programmeur. En eux-mêmes, les programmes n’ont aucun objectif. Je pense que le livre est une bonne introduction à ce sujet. Apprentissage par renforcement : une introductiond’Andrew Barto (du Autonomous Learning Laboratory) et Richard S. Sutton (investigateur de Deep Mind).

Lorsqu’un programme ne suit pas les instructions, mais cherche plutôt à obtenir des récompenses, nous pouvons ne plus savoir ce que fait la machine, quelles données elle a traitées, quels modèles elle a trouvés, quelles transformations et extrapolations elle a effectuées. Lorsque vous demandez à des experts en IA une « transparence algorithmique », vous faites une demande impossible à satisfaire. Les chercheurs d’OpenIA qui ont conçu ChatGPT viennent d’admettre qu’ils ne savent pas comment le programme prend des décisions. C’est forcément opaque. C’est ce qui a donné un frisson de panique à beaucoup de gens, et je tiens à expliquer pourquoi cela ne m’a pas donné de frisson : parce que notre cerveau fait exactement la même chose.

Nous ne savons pas comment nous prenons des décisions, pourquoi certaines choses nous arrivent plutôt que d’autres, d’où viennent nos préférences et nos désirs, par exemple l’orientation ou l’identité sexuelle. Sigmund Freud a écrit : « Toute ma vie, j’ai essayé d’être honnête. Je ne sais pas pourquoi”. Pour le savoir, il a inventé la psychanalyse. Je voulais découvrir le métier inconscient où se tissaient nos idées et nos sentiments.

Les théories actuelles de l’intelligence admettent un inconscient, bien que non freudien. Si ce « nouvel inconscient » vous intéresse, vous pouvez lire les travaux de John Bargh. Cette expression désigne l’ensemble des opérations par lesquelles le cerveau capte et gère l’information. Petit à petit, nous découvrons comment il fait, mais c’est aussi opaque que les programmes GPT. Ce qui se passe, c’est que le cerveau humain a inventé un système de sécurité qui lui permet de ne pas faire confiance à ce merveilleux travail de notre « inconscient cognitif ». Une partie de ses résultats passe à l’état conscient et à partir de là nous pouvons les soumettre à un test de fiabilité. Où avez-vous obtenu les données, comment savoir si le processus est fiable, peut-on le reproduire ? L’intelligence artificielle ne dispose pas de cette couche supérieure, et nous devons la fournir. Daniel Kahneman, prix Nobel d’économie, a appelé ces deux niveaux d’intelligence humaine Système 1 (non conscient, automatique, rapide, efficace, mais peu fiable) et Système 2 (réflexif, rationnel, lent, fiable). Dans mes livres, je défends une théorie similaire de l’intelligence, mais j’appelle ces niveaux « intelligence générative ou computationnelle » et « intelligence exécutive ».

Lire aussi  Réduire l'incidence du VIH grâce au traitement et à la Prep chez les hommes gays et bisexuels en Australie.

Je vais donner un exemple de ce modèle de double intelligence. Henri Poincaré, considéré comme le grand mathématicien de son temps, a déclaré que, fatigué de se débattre avec un problème compliqué, il avait décidé de quitter son travail et de se distraire avec un voyage. À un moment donné de l’excursion, alors qu’il ne pensait pas aux équations, la solution est apparue dans sa conscience. Cette apparition spontanée l’intriguait. S’il n’avait pas consciemment réfléchi au problème, qui l’aurait résolu ? Sa conclusion était que c’était son infatigable « inconscient cognitif », qu’il considérait depuis lors comme la source des créations mathématiques. Il y avait cependant un problème. Ces créations pourraient être fausses. Ils ont dû être soumis à des critiques conscientes avant de les accepter comme étant vrais.

Telle est notre situation face à l’intelligence artificielle. Si l’on veut être rigoureux, il faudra d’une manière ou d’une autre corroborer la fiabilité de ses résultats. Cela nécessite de renforcer la pensée critique. Plus les mécanismes d’IA sont puissants, plus devra être puissante la pensée critique qui les évalue. De la même manière que Freud voulait emmener ses patients sur le canapé pour tenter de découvrir l’origine de leurs rêves ou de leurs idées, il faudra amener l’IA chez le psychanalyste.

Lire aussi  Cérémonie de remise de vaccins DTC-HBV-Hib au Vietnam

Le grand danger est « l’étourdissement » de l’intelligence humaine. Les atouts de l’IA sont si prodigieux qu’on peut lui déléguer des fonctions essentielles. Harari et Fukuyama craignent une ivresse de « facilité ». On assiste en effet dans le monde intellectuel à un affaiblissement de l’esprit critique, qui nous rend plus dépendants des machines. Nous commettons une erreur naïve si nous imaginons cette situation comme un film de science-fiction dans lequel les humains finiront par devenir les serviteurs des machines. Non. Les humains ne peuvent être que les serviteurs d’autres humains qui utilisent des machines.

Malgré les progrès des « systèmes autonomes », leur autonomie est limitée, non seulement pour des raisons d’approvisionnement énergétique dont ils ont besoin, mais aussi parce que leurs systèmes de préférences doivent être conçus par des humains, comme je l’ai mentionné précédemment. Ce que l’on appelle intelligence artificielle est en réalité une machine hybride + composant humain. Il ne faut pas tomber dans l’arnaque de l’autonomie de l’intelligence artificielle, car si l’on finit par se convaincre que les machines sont autonomes et toutes-puissantes, on provoquera une « prophétie qui s’accomplit par le fait de l’énoncer ». Nous tremblerons devant les machines, au lieu de trembler devant les gens qui utilisent les machines. Autrement dit, nous leur laisserons le champ libre.



#Lintelligence #artificielle #psychanalyste #Santé #Médecine
1699340310

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT