Nouvelles Du Monde

« Réfléchissons à la question de savoir si nous devrions construire une technologie semblable à Dieu »

« Réfléchissons à la question de savoir si nous devrions construire une technologie semblable à Dieu »

2023-07-13 21:00:01

Les technologies basées sur l’Intelligence Artificielle sont déjà un fait : elles ont provoqué une révolution. Par exemple, grâce à eux, des médicaments « à la carte » et personnalisés sont développés ; des machines autonomes capables d’effectuer des tâches mieux que les humains ont été créées ; soutenir les diagnostics médicaux avec une précision jamais vue auparavant ; ils permettent de savoir ce qui se cache derrière certains comportements animaux et favorisent leur conservation et leur élevage ; ou ils apprennent les statistiques, la coopération, la négociation ou la gestion d’entreprise grâce aux jeux de société traditionnels dans lesquels ils sont déjà meilleurs que nous, leurs créateurs.

Mais accompagnant les avantages, il y a aussi des risques. Et, selon Seth Lazar, philosophe australien et directeur du Machine Intelligence and Normative Theory Laboratory de l’Australian National University ; et Alondra Nelson, présidente du Conseil de recherche en sciences sociales de l’Université de Columbia, ils ont tous besoin d’être calibrés. Menez une réflexion approfondie sur la manière dont nous devrions faire face à notre avenir commun avec l’intelligence artificielle. Ceci est indiqué dans un article d’opinion publié dans le magazine ‘Science‘, qui consacre un numéro spécial au sujet, abordant les enjeux de cette technologie transformatrice en onze textes.

Lire aussi  De nombreux dirigeants technologiques, comme Sam Altman, rejoignent le Conseil fédéral de la sécurité de l'IA

“L’adoption rapide et généralisée des derniers grands modèles de langage a suscité l’enthousiasme et l’inquiétude pour l’intelligence artificielle avancée”, notent-ils, arguant que les pays prennent des mesures en la matière. Cependant, ils soulignent qu’au fur et à mesure de l’avancement de l’enquête, une approche qui englobe à la fois une vision technique et sociale de la question n’est pas menée.

Aborder le débat sous différents angles

Ils demandent quel sens nous attachons à créer une IA avancée « sûre » : « Qu’est-ce que cela signifie de rendre les systèmes d’IA sûrs, et quelles valeurs et approches doivent être appliquées pour y parvenir ? S’agit-il d’« alignement », de s’assurer que la mise en œuvre de l’IA répond à l’intention de certains concepteurs ? Ou s’agit-il simplement d’empêcher la destruction de l’humanité par une IA avancée ?

Même si l’on peut penser que toute cette batterie de questions est suffisamment complète pour régler les fondements du futur de l’intelligence artificielle, les chercheurs soulignent qu’« elles sont clairement insuffisantes » : « Un système d’intelligence artificielle capable d’anéantir l’humanité, même si nous parvenons pour éviter de le faire, elle serait toujours parmi les technologies les plus puissantes jamais créées et devrait respecter un ensemble de valeurs et d’intentions beaucoup plus riche.” En d’autres termes, pour arriver au point où une arme aussi puissante nous détruit, il faudra d’abord la créer. Et, une fois créée, elle viendra s’ajouter aux technologies qui peuvent décider de tout l’avenir de l’Humanité, comme la bombe atomique.

Lire aussi  La prochaine pandémie ? Une nouvelle étude révèle comment le récent virus d'origine animale pénètre dans les cellules humaines

Les auteurs vont plus loin et soulignent que bien avant de constituer une équipe qui nous détruit, avant qu’il y en ait d’autres sans cette capacité, mais qui peuvent être utilisées par les gens pour leur propre intérêt. « Des années de recherche socio-technique montrent que les technologies numériques avancées, laissées sans contrôle, sont utilisées pour gagner du pouvoir et du profit au détriment des droits de l’homme, de la justice sociale et de la démocratie. Sécuriser l’IA avancée signifie également comprendre et atténuer les risques pour ces titres.”

Pour cette raison, ils affirment qu’aucun groupe d’experts (et encore moins formé uniquement par des technologues) ne devrait décider unilatéralement de “quels risques comptent, quels dommages comptent et avec quelles valeurs une intelligence artificielle sûre devrait avoir”. Et pour que cela soit sûr, il doit y avoir “un débat public urgent sur toutes ces questions et sur la question de savoir si nous devrions essayer de construire des systèmes d’IA” divins “”.

Lire aussi  Chicago a fait 3 échanges: Domi et Chudobin déménagent également

Marqué par les idées des hommes blancs et favorisés

Encore faut-il, selon les auteurs, que la sécurité de l’intelligence artificielle ne soit pas seulement marquée par l’idéologie de ceux qui l’utilisent le plus, qui sont « disproportionnellement blancs, masculins et avantagés, souvent issus des mouvements sociaux de la Silicon Valley de ‘Altruisme Efficace’ et ‘Rationalisme’ ».

Par conséquent, ils avertissent qu’il ne faut pas faire “une erreur de famille”: “Face à des changements technologiques désorientants, les gens se tournent instinctivement vers les technologues pour trouver des solutions. Mais les impacts de l’IA avancée ne peuvent être atténués uniquement par des moyens techniques ; les solutions qui n’incluent pas une vision sociale plus large ne feront qu’exacerber les dangers de l’Intelligence Artificielle.



#Réfléchissons #question #savoir #nous #devrions #construire #une #technologie #semblable #Dieu
1689314941

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT