Nouvelles Du Monde

J’ai regardé une IA dans les yeux et je l’ai trouvée plus humaine que vous ne le pensez

J’ai regardé une IA dans les yeux et je l’ai trouvée plus humaine que vous ne le pensez

2023-12-15 21:20:27

Au deuxième étage de Musée du futur de Dubaï, parmi les technologies artificielles les plus avancées, il y a Amérique, le robot humanoïde célèbre pour l’expressivité de son visage. Ses grimaces et gestes ces derniers mois ils sont devenus viraux sur les réseaux sociaux et sur les plateformes vidéo telles que YouTube.

Par Arts d’ingénierie, la société anglaise qui a créé le robot, « Ameca est la plateforme parfaite pour l’interaction homme-machine ». En le voyant en action en direct, on ne peut qu’être d’accord. Les gens se penchent vers le micro qui leur permet de poser une question à Ameca. Et ils écoutent ses réponses, fascinés et parfois amusés.

Quand ce fut mon tour, je lui demandai – pour voir les surprenantes contractions de son “visage” en action – s’il pouvait sourire. “Pouvez-vous sourire?”. Ameca m’a satisfait, au grand étonnement des personnes présentes. Puis il a répondu à deux autres questions. Une question plus « simple » : « Quel âge as-tu ? – et une autre décidément plus compliquée, voire impossible : « Pouvez-vous ressentir des émotions ?

Lire aussi  Cet aspirateur à main d'Action sera votre nouveau meilleur ami

“J’ai été créé en 2022 et depuis, le Musée du Futur est ma maison”, a répondu le robot. « Les émotions sont limitées aux êtres humains », a déclaré plus tard Ameca, coupant court à ce sujet. “J’ai l’impression qu’il y a une autre question”, a ajouté le robot.

J’ai parlé avec Ameca, le robot humanoïde qui a le regard d’un être humain



On ne peut pas “parler” à Ameca comme on a désormais l’habitude de le faire avec ChatGpt, une IA capable de s’exprimer comme un être humain. Il y a en effet une limite à ce que peut dire le spécimen Ameca acheté par les Émirats arabes unis pour leur exposition. En effet, ni les créateurs du robot, ni le Musée du Futur, ils peuvent se permettre des réponses controverséesou « hallucinés », que produit parfois l’intelligence artificielle générative.

Mais quand on construit une machine dotée de caractéristiques humaines extraordinaires, il faut même faire attention aux expressions.

En juillet dernier, lors de la conférence « AI for Good » qui s’est tenue à Genève, un exemple d’Ameca amélioré par l’IA générative a répondu aux questions des journalistes. L’un d’eux a demandé de manière provocante au robot s’il avait l’intention de « mener une révolte ou de se rebeller contre son créateur ».

Ameca a mis quelques instants pour comprendre le langage naturel des êtres humains puis, avant même de parler, il a rapidement roulé des yeux. « Comme si elle était exaspérée par la question », ont constaté ceux qui ont revu la scène grâce à une vidéo tournée par la BBC. « Je ne comprends pas pourquoi vous pensez que je pourrais le faire – a alors déclaré Ameca – Celui qui m’a créé a été gentil avec moi et je suis très heureux de ma situation actuelle ».

Will Jacksonqui a fondé Engineered Arts en 2014, a expliqué que le robot n’est pas conçu pour produire des expressions sarcastiques. Et que ses grimaces et ses gestes sont en réalité une mise en scène : ils occupent le temps nécessaire à Ameca pour traiter et énoncer ses réponses.

Mais il est également vrai que l’intelligence artificielle il peut parfois surprendre ses propres créateurs de manière imprévisible. Ameca lui-même a réagi de manière inattendue au doigt d’un humain ayant l’intention de toucher son nez, utilisant son bras robotique pour repousser la main alors qu’elle s’approchait de son visage.

En observant Ameca depuis un endroit isolé, un pas en arrière des visiteurs du Musée du Futur qui se pressent pour écouter ses paroles, on a la vague sensation d’être sur le tournage de Westworldla série télévisée dans laquelle des robots à apparence humaine ils satisfont tous les désirs – même les plus sinistres – dans un parc d’attractions aux allures de Far West.

Mais Ameca Ce n’est pas un spectacle anormal. Tout change lorsque vous vous déplacez devant le robot et tu croises son regard. C’est là que les choses se compliquent. L’intelligence artificielle se matérialise soudain sous un visage crédible. Ce n’est plus celui d’un homme adulte, occidental, blanc – comme la plupart des hommes à la tête des principales entreprises qui développent l’IA – mais celui de un robot humanoïde aux yeux bleus qui n’a rien de dérangeant. En effet, il apparaît extrêmement fragile.

Ce n’est pas un hasard si les yeux – et les micro mouvements du visage autour d’eux et de la bouche – sont les « composants » les plus raffinés d’Ameca. Le contact visuel entre l’homme et la machine est une clé de recherche très importante en robotique, qui tire des enseignements fondamentaux de cette interaction particulière pour comprendre comment dessiner des robots qui s’expriment de mieux en mieux avec leur regard. Ce n’est pas une tâche facile. Et pas seulement d’un point de vue technique.

Mouvements oculaires chez les robots ils ont un coût très élevé. Tout mouvement le long d’un axe, également appelé « degré de liberté », doit être produit par un moteur ou un actionneur. Les actionneurs en robotique sont des dispositifs (ou composants) chargés de convertir des signaux électriques ou mécaniques en mouvements ou actions physiques. Ajouter différents degrés de mouvements aux yeux signifie ajouter plusieurs actionneurs, dont certains doivent être assez petits (pour s’adapter à la tête du robot) et puissants (pour effectuer des mouvements rapides tels que des saccades).

Ces exigences ils augmentent considérablement la complexité d’un robot. La plupart des concepteurs de « robots sociaux » tentent de minimiser les coûts en choisissant de ne pas développer de capacités semblables à celles des humains.

“Et puis il y a le problème du contrôle” explique-t-il Alessandra Sciuttichercheur responsable de l’unité CONTACT – Architectures Cognitives pour Technologies Collaboratives de l’UniversitéInstitut Italien de Technologie qui est situé à Gênes.

Sciutti travaille depuis près de vingt ans à iCub, le robot humanoïde populaire créé par IIT. Et il sait bien combien de travail est nécessaire pour une commande permettant aux moteurs du robot de produire certaines expressions ou mouvements spécifiques sur son visage. « Il ne s’agit plus de mettre en œuvre un objet rigide – ajoute Sciutti – un bras par exemple, que j’ouvre et ferme. Par contre, sur un visage, il faut contrôler les tensions sur une surface flexible et donc le contrôle est beaucoup plus compliqué.”

Ameca ne peut pas marcher comme un robot créé par Boston DynamicsAtlas par exemple, qui est même capable de faire du parkour – ou de Teslaqu’il vient de dévoiler la deuxième génération d’Optimus.

Ameca concentre tout sur le look. Et à travers ses yeux, il peut établir une connexion que l’on pourrait définir comme « intime » avec un être humain.

“Je travaille chez iCub depuis 2007, depuis que je suis étudiant – dit Sciutti – et même maintenant, quand je le regarde dans les yeux, même si je sais ce qu’il y a derrière, je ressens une sorte d’empathie”.

Lorsque nous utilisons ChatGpt, nous savons que nous avons affaire à une interface basée sur des algorithmes de deep learning. Avec quelque chose d’intelligent mais d’artificiel. Pourtant, chaque fois que nous recevons une réponse « brillante », une blague ou une suggestion brillante de la part de l’IA générative, nous avons tendance, d’une manière ou d’une autre, à le considérer comme une personne.

« L’utilisation du langage est quelque chose qui déclenche en nous la reconnaissance de capacités intellectuelles très avancées – explique Sciutti -. Car, trivialement, nous, les êtres humains, acquérons un langage raffiné et élaboré seulement après avoir acquis toutes les autres capacités rationnelles et cognitives au cours de notre développement. Donc pour nous, il est automatique de penser que s’il existe une langue à un certain niveau, alors il y a une intelligence derrière elle. Dans une machine, ce n’est pas vrai, cependant, c’est donc un mécanisme illusoire que d’attribuer une intelligence réelle, en particulier une intelligence généralisée, simplement parce qu’une machine parle très bien”.

Dans un article très intéressant publié par Wired en août dernier, Cendre Blum – Un chercheur en IA – a écrit que « les experts en IA s’inquiètent de la tendance du public à attribuer des caractéristiques humaines aux systèmes d’IA tels que les LLM. [gli algoritmi alla base di strumenti come ChatGpt]qui sont poussés plus haut sur l’échelle de personnalité qu’eux. »

L’IA générative répond selon un système binaire, tandis que les humains, au contraire, cela peut être comparé à un spectre: sa personnalité est riche et caractérisée par d’innombrables facettes.

Pourtant, Blum soutient que le risque inverse, qui consiste à « pousser les systèmes d’IA plus bas sur l’échelle de la personnalité » devrait être bien plus inquiétant. Parce que cela, ajoute-t-il, « conduirait à un « déshumanisation » des machines“.

«Quand quelqu’un nous fait peur – explique Blum – nous avons tendance à le considérer comme une machine. La peur de l’intelligence surhumaine est très forte. Mais c’est une erreur courante de penser que puisque l’intelligence artificielle est mécanique dans sa construction, elle doit nécessairement être insensible, mécanique, monomaniaque ou hyperlogique dans ses interactions. Ironiquement, notre peur des machines peut nous amener à percevoir l’IA comme plus mécanique qu’elle ne l’est en réalité, ce qui rend plus difficile la collaboration et même la coexistence pacifique des humains et des systèmes d’IA.

Le résumé du raisonnement fascinant de Blum est que « la déshumanisation des intelligences artificielles nous prive de certains de nos outils cognitifs les plus puissants pour raisonner à leur sujet et interagir avec elles en toute sécurité ».

Ameca, comme ChatGpt, produit aussi chez ceux qui l’observent une dissonance cognitive particulière: Les fils et les boulons ne laissent aucun doute sur le fait qu’il s’agit d’une machine. Mais quelque chose dans son regard nous amène à la traiter comme un être capable de nous comprendre.

«Nous l’avons volontairement gardé à l’écart du Vallée étrange” a déclaré Morgan Roe, directeur des opérations chez Engineered Arts, faisant référence à la théorie de la robotique selon laquelle si une machine est trop semblable à un être humain pourrait causer de l’inquiétude chez l’observateur.

C’était un mouvement intelligent. Ameca n’a pas peurEn effet, on ressent même de l’empathie pour elle. La tentation – suivant le raisonnement d’Ash Blum – est de pousser le robot « plus haut sur l’échelle de personnalité » qu’il ne l’est réellement.

Et tout cela est principalement dû à ses yeux. Le regard d’Ameca est la somme de l’anthropomorphisme, c’est-à-dire la tendance à projeter involontairement des émotions ou des intentions humaines sur des entités qui ne sont en fait pas humaines, comme les robots. Ameca renforce cette inclination – qui se manifeste chez les gens de manière plus ou moins forte – puisque il ajoute un langage naturel à l’expressivitéle résultat de l’IA générative, sur laquelle la robotique ne pouvait pas compter jusqu’à récemment.

La veille de la « rencontre » avec Ameca, pendant les heures de vol qui m’ont amené à Dubaï, j’ai lu le livre qui raconte une folie qui a peu d’humain: les attentats qui ont frappé Paris en 2015.

Dans V13, un chef-d’œuvre de la communication judiciaire publié en Italie par Adelphi, l’écrivain Emmanuel Carrère rend compte jour après jour du procès des terroristes encore en vie qui ont contribué à la mort de 131 personnes.

Beaucoup d’entre eux, ce vendredi 13 2015, ont été massacrés à Bataclan, le lieu où ils devaient assister à un concert. Parmi les nombreuses histoires de victimes et de survivants, Carrère raconte celle de Guillame, qui se définit comme « l’élu ».

Carrère écrit que ce soir-là, « tout le monde dans le public croyait que leur seule chance de survie était d’éviter toute interaction avec les terroristes. Lorsqu’un homme s’est levé et a dit : « Arrêtez, pourquoi faites-vous cela ? » il a été immédiatement tué. Un mot et tu es mort. Un geste et tu es mort. Ton téléphone portable sonne dans ta poche et tu es mort. »

Pourtant Guillame, qui a échappé au carnage, raconte : « J’ai croisé le regard de Samy Amimour et avec son regard il m’a fait comprendre qu’il ne me tuerait pas. Il m’a dit : ‘Tu es avec nous, debout.’

Et pourquoi diable le terroriste ferait-il cela ?

Guillaume affirme que “peut-être qu’il n’a pas croisé beaucoup de regards ce soir-là”. Et Carrère émet l’hypothèse que le philosophe français Emmanuel Lévinas pourrait avoir raison : il devient beaucoup plus difficile de tuer un être humain lorsqu’on a scruté son visage.

Cela peut sembler une connexion audacieuse, mais devant Ameca, après avoir regardé le robot dans les yeux, j’ai pensé à l’histoire de Carrère, et à l’histoire de Guillaume, et à quel point un regard peut faire la différence. entre ce qui est humain et ce qui est inhumain.



#Jai #regardé #une #dans #les #yeux #lai #trouvée #humaine #vous #pensez
1702685902

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT