Nouvelles Du Monde

«L’IA ne peut pas être appliquée uniquement à des fins commerciales»

«L’IA ne peut pas être appliquée uniquement à des fins commerciales»

2023-12-19 02:59:36

L’intelligence artificielle (IA) promet de transformer radicalement la réalité des gens. Son développement et sa démocratisation augmenteront bien sûr la richesse. Mais si elle est utilisée correctement, elle peut également améliorer les soins de santé, réduire les heures de travail et même faire la différence dans la lutte contre le changement climatique. C’est du moins ce qu’espèrent de nombreuses entreprises dédiées à son développement et de grands gourous de l’Internet, comme c’est le cas du cofondateur de Microsoft, Bill Gates, ou de Sam Altman, directeur exécutif d’OpenAI et principal responsable du flot d’outils génératifs qui ont est arrivé au réseau ces derniers mois. Tout cela grâce au succès retentissant du robot conversationnel ChatGPT, qui a accéléré le développement de la technologie jusqu’à des points insoupçonnés.

Malgré tout le bien qu’elle est censée apporter, l’utilisation et le développement de cette technologie peuvent également présenter des risques dans son application par des personnes ou des organisations, selon Richard Benjamins, responsable de l’IA chez Telefónica. D’une part, il met en évidence l’utilisation possible de l’intelligence artificielle par la cybercriminalité pour tromper la société en générant de faux audios et vidéos.

De même, un autre risque concerne les effets négatifs et involontaires qui peuvent être causés par les biais que les modèles peuvent avoir en fonction de leur formation avec des données, qui peuvent finir par violer les droits des personnes en fonction des minorités, de la race, de la croyance ou du sexe. entre autres, ce qui a été exprimé peut influencer, par exemple, l’attribution de crédits financiers ou la prévision de la criminalité dans des quartiers spécifiques. Le troisième risque est celui d’appliquer l’IA uniquement dans un but lucratif et de ne pas promouvoir son développement d’un point de vue éthique.

Lire aussi  aussi une écharpe de Milan

« Utiliser l’IA uniquement à des fins commerciales et non pour résoudre les grands problèmes de notre époque tels que le changement climatique, les pandémies, les catastrophes naturelles, la pauvreté et les inégalités, est un danger. Actuellement, les investissements dans l’IA commerciale sont énormes, tandis que les investissements dans les questions sociales ou environnementales sont anecdotiques et soutenus par la philanthropie”, déclare le dirigeant de l’entreprise de télécommunications espagnole.

Pour minimiser tous ces dangers, les entreprises, les scientifiques et les universitaires exigent depuis des mois que les États réglementent cette technologie. “Si cela tourne mal, cela pourrait tourner très mal”, avait prévenu Sam Altman au printemps dernier lors d’une audition devant le Sénat américain. L’exécutif à l’origine du développement de ChatGPT est même allé jusqu’à souligner que le développement de l’IA pourrait finir par conduire à l’arrivée d’un nouvel algorithme capable de surpasser n’importe quel être humain en termes de connaissances, et que cela pourrait finir par devenir un danger pour la survie de l’humanité. Cependant, à l’heure actuelle, il n’est pas du tout sûr que cette menace puisse devenir réelle.

«Le fait que l’intelligence artificielle progresse n’implique pas qu’elle puisse, par exemple, développer une tendance à dominer le monde. C’est nous, les humains, qui le créons et le guidons. C’est un outil », déclare Juan Bernabé-Moreno, directeur d’IBM Research en Europe. Le chercheur ne croit pas non plus que, pour le moment, la création d’une IA présentant ces caractéristiques soit possible : « Nous n’en sommes pas là. Quelques lueurs de raisonnement peuvent être aperçues dans les données, mais cela reste encore un domaine de recherche. “Je pense qu’il est encore temps.” Selon lui, il faut se soucier de contrôler les dangers réels avant les dangers hypothétiques et de préparer la société, ce qui sera essentiel pour que la technologie ne finisse pas par devenir un problème. Surtout dans le monde du travail.

Lire aussi  RBB : Le nouveau directeur devrait bientôt prendre ses fonctions, mais n'a pas encore de contrat

Expliquer les décisions

L’objectif du gouvernement espagnol est que d’ici 2025, 25 % des entreprises nationales utilisent l’IA et le Big Data dans leurs activités. Cela permettra d’alléger le travail et aux entreprises d’être plus productives. Cependant, il est essentiel que l’ensemble du processus de formation se déroule de manière transparente. Si, par exemple, une machine décide si une personne a accès à un certain emploi ou à une promotion, elle doit bien savoir comment fonctionne l’outil qui prend cette décision. Et cela n’est possible qu’avec transparence.

« Lorsqu’une entreprise utilise l’IA, elle doit expliquer pourquoi et quels sont les avantages de ce système. Aussi les principes sur lesquels il se base lors de son utilisation, comme la recherche de l’équité. Et évidemment, il faut expliquer comment on prend des décisions, pour qu’il soit clair que cela ne profite à personne”, explique Juan Ignacio Rouyet, professeur d’IA à l’Université internationale de La Rioja. Rouyet reconnaît que l’IA va transformer le marché du travail.

Selon Goldman Sachs, quelque 300 millions d’emplois seraient touchés. D’autres études suggèrent que le développement de ce type d’outils entraînera l’émergence de nouveaux emplois. “Des emplois seront détruits et créés, il y aura un peu des deux”, souligne-t-il. La question de savoir si l’engagement en faveur de la technologie ne deviendra pas un problème dépendra en grande partie de l’engagement que prendront les entreprises, et en particulier l’administration, à « former les citoyens ».

Pour minimiser les risques liés à l’utilisation de la technologie, la réglementation est en effet essentielle. Il y a quelques jours, l’UE a réussi à trouver un accord de principe pour l’approbation de sa loi sur l’IA, qui devrait entrer en vigueur d’ici deux ans. Les réglementations contrôleront les utilisations de la technologie et obligeront les sociétés de développement à être plus transparentes sur le fonctionnement de la technologie. Il limite également l’utilisation de la technologie de reconnaissance faciale dans les espaces publics et interdit directement tous les outils susceptibles d’influencer négativement et préméditéement l’utilisateur.



#LIA #peut #pas #être #appliquée #uniquement #des #fins #commerciales
1702944469

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT