L'éthique doit être au centre de la technologie de l'IA, selon un rapport de Lords

L'éthique doit être au centre de la technologie de l'IA, selon un rapport de Lords

La première enquête publique du Royaume-Uni sur le développement et l’utilisation de l’intelligence artificielle (AI) a indiqué que la loi régissant ses effets «n’est pas claire à l’heure actuelle».
Le Comité restreint de l’Intelligence artificielle de la Chambre des Lords a demandé à la Commission du droit d’enquêter sur la question de savoir si la loi britannique est “suffisante” lorsque les systèmes fonctionnent mal ou causent des dommages aux utilisateurs. La recommandation fait partie d’un rapport du comité de 13 membres sur «les implications économiques, éthiques et sociales des progrès de l’intelligence artificielle». Le rapport propose un «code AI» national et international basé sur cinq principes pour s’assurer que le pays devienne «un leader mondial» dans l’application de l’apprentissage automatique par l’industrie. Les principes sont axés sur l’équité, l’éducation et la prévention des actes répréhensibles. Le président du comité, Lord Clement-Jones, a déclaré: «L’IA n’est pas sans risques … une approche éthique permet au public de faire confiance à cette technologie et de voir les avantages de son utilisation et de la préparer à la contester. Les membres du comité ont visité DeepMind, la branche de l’intelligence artificielle de Google, à son siège à Kings Cross en septembre, pour mieux comprendre l’approche de l’IA par les entreprises. L’année dernière, Le Royal Free NHS Trust a illégalement remis plus de 1,6 million de données personnelles de brevets à la société .

Image:
Le NHS devrait «capitaliser sur» les progrès de l’IA pour les soins de santé, ajoute le rapport

Malgré cela, le rapport recommande que le NHS “devrait capitaliser sur” les progrès de l’IA pour les soins de santé, qu’il qualifie de “impressionnant”. Les témoignages présentés au comité ont soulevé des inquiétudes de la part de certains témoins à propos de systèmes reflétant des «modèles historiques de préjugés», comme la formation d’un algorithme pour trier les demandeurs d’emploi en se basant sur les décisions humaines antérieures. Big Brother Watch a écrit au comité pour dire que les plans de la police de Durham concernant l’utilisation de l’IA pour les décisions de garde sont une «tendance très inquiétante, particulièrement lorsque la technologie est testée lorsque ses capacités sont loin d’être exactes».

Plus de Intelligence artificielle

Le comité a noté que Google n’a toujours pas réparé ses algorithmes d’identification visuelle, qui ne pouvaient pas faire la distinction entre les gorilles et les Noirs , près de trois ans après l’identification du problème. Le rapport demande également à l’Autorité de la concurrence et des marchés d’agir sur la «monopolisation des données» par les grandes entreprises technologiques opérant au Royaume-Uni et préconise l’enseignement de la «conception éthique et de l’utilisation de l’IA» aux enfants comme partie intégrante de le programme national.

Leave a comment

Send a Comment

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.