Search by category:
Économie

Le seul moyen est l’éthique: les seigneurs britanniques s’inquiètent de la «panique morale» de l’IA

La Chambre des lords veut s’assurer que les données utilisées par les systèmes d’IA ne sont pas monopolisées et que la technologie est développée selon des directives éthiques.
Ce n’est pas impossible, nous a dit Lord Tim Clement-Jones, président du comité spécial des lords sur l’intelligence artificielle.
“Nous avons cherché à voir où cela avait été bien fait et mal fait. GM Foods est l’endroit où cela a été mal fait, et la recherche sur l’embryon humain est là où elle a été bien faite.
Le rapport a été conçu «pour éviter une panique morale», nous a dit Clement-Jones.
Le comité a recueilli des témoignages oraux de plus de 200 témoins – dont le «capitaine Cyborg», le professeur Kevin Warwick, et un témoin de Le registre – l’année dernière. Le rapport évitait le boosterisme associé à la couverture médiatique souvent surchauffée de l’intelligence artificielle, et évitait sensiblement de faire des prédictions rapides sur les effets sur le marché du travail causés par l’automatisation. En fait, de telles revendications sont contestées, il a noté.
El Reg a été invité à la Chambre des Lords pour faire éclater la bulle AI-pocalypse
LIRE LA SUITE
“La représentation de l’intelligence artificielle dans la culture populaire est à des années-lumière de la réalité souvent plus complexe et plus banale”, indique le rapport. Les chercheurs et les universitaires étaient un peu marre de cela, ils ont dit au Comité restreint, le rapport a également noté que grâce aux médias, le public «concentrait son attention sur les menaces qui sont encore éloignées, telles que la possibilité d’intelligence générale artificielle« superintelligent » , tout en détournant l’attention des risques et des problèmes plus immédiats.
Elon Musk, le regretté professeur Stephen Hawking et le professeur Nick “hypothèse de simulation” Bostrom se sont rendus coupables de s’inquiéter régulièrement de l’apocalypse. Les lords ont peint un scénario proche-futur qu’ils veulent éviter: où les décisions sont prises au nom des gens.

Cliquez pour agrandir

Il est remarquable combien de cela – phishing et recommandations – ont déjà utilisé des techniques statistiques, sans “AI”. Le rapport a noté que lorsqu’il s’agit de responsabilité pour les systèmes autonomes, les avocats ne peuvent pas être d’accord. Certains pensent que les IA devraient avoir une personnalité juridique, d’autres pas. Le Comité a recommandé que la Commission du droit reste coincée pour «clarifier».
Les lords veulent également que l’Autorité de la concurrence et des marchés ait un rôle à jouer pour que les données ne soient pas recueillies par cinq grandes entreprises.
“Nous appelons le gouvernement, avec l’Autorité de la concurrence et des marchés, à examiner de manière proactive l’utilisation et la monopolisation potentielle des données par les grandes sociétés de technologie opérant au Royaume-Uni.”
Il y a un risque que cinq entreprises «conservent leur hégémonie». Les lords envisagent également un rôle actif, après le Brexit, pour le Commissaire à l’information. “Nous ne voulons pas que les gens se réveillent dans des situations où l’utilisation des données a été injuste ou biaisée”, nous a dit le président du Comité.
En ce qui concerne la «quatrième révolution industrielle», une restructuration radicale de l’emploi prédite par les futurologues, les Lords ont noté que «l’impact économique de l’IA au Royaume-Uni pourrait être profond».
Le Royaume-Uni affiche une piètre performance en matière de productivité – en grande partie due au passage à une économie plus axée sur les services – et n’a connu aucune croissance de la productivité depuis 2008. Les secteurs importants, notamment de nombreuses PME et le NHS, ne parviennent pas à Cela ne fait rien, AI. Le NHS est le plus grand acheteur de télécopieurs au monde. Par conséquent, les Lords ont dit, il est aussi important d’améliorer le haut débit.
“Le NHS ne dispose pas d’une approche unifiée des données, de leur utilisation, de leur licence ou de leur partage”, nous a dit Clement-Jones.
Le rapport a noté que l’IA est un «champ de prospérité et d’effondrement», et que la dernière fois que le gouvernement a jeté de l’argent sur AI à l’ère des systèmes experts, cela ne s’est pas bien terminé. Les AI fondées sur des règles étaient caractérisées par «des coûts élevés, des exigences pour des mises à jour fréquentes et longues, et une tendance à devenir moins utile et plus précis au fur et à mesure que de nouvelles règles étaient ajoutées». L’équivalent d’un milliard de quid a été investi dans l’IA dans les années 1980, le contribuable ayant dépensé l’équivalent de 200 millions de livres sterling. Nous n’avons pas encore atteint ce stade.
L’enquête des Lords a commencé dans le feu de l’astuce sur AI à l’automne dernier, depuis quand l’ardeur s’est un peu refroidie. Les inquiétudes du professeur Geoffrey Hinton sur les techniques qui atteignent leur limite sont notées. Au début de cette année, neuroscientifique, auteur et entrepreneur Gary Marcus a fait quelques critiques pointues dans son papier Apprentissage profond: une évaluation critique .
En décembre, Monsanto aurait tenté 50 expériences d’apprentissage en profondeur et aurait connu un «taux d’échec de 95%». Cela signifie qu’au moins 49 ont complètement échoué, et la moitié a fonctionné.
Vous pouvez trouver le rapport ici (PDF) ®
Bootnote
En octobre dernier, j’ai témoigné devant le Comité lors d’une séance sur les médias et l’IA. Le message principal était que les espoirs d’améliorations radicales de l’automatisation industrielle pourraient être mal placés, car l’apprentissage automatique n’a pas beaucoup contribué à améliorer la robotique, et les grands résultats dans les micromondes ou les jeux ne se traduisaient pas nécessairement par des progrès réels. experts comme Le paradoxe de Moravec . En confondant les voitures sans conducteur avec l’IA, les médias ont peut-être suscité des attentes bien au-delà de ce que la technologie peut réaliser. Une digression non écrite l’a fait dans:

Cliquez pour agrandir

Cela a été provoqué par la pensée que si vous aviez vingt minutes pour placer de nouvelles connaissances dans le cerveau de Donald Trump (que son cerveau conserverait miraculeusement), le monde serait plus sûr si cette connaissance était une histoire, disons, plutôt que Technique ML.

Post Comment