AI Weekly: Watson Health et les échecs de conduite semi-autonome montrent les dangers d’une IA trop prometteuse

Vous avez manqué une session du Future of Work Summit ? Rendez-vous sur notre bibliothèque à la demande Future of Work Summit pour diffuser.


Cette semaine dans l’IA, la réalité a frappé – à la fois pour la technologie de la santé de l’IA et les systèmes de conduite semi-autonomes. IBM a accepté de vendre les actifs de son activité Watson Health à la société d’investissement Francisco Partners, suite à la forte baisse des performances de la division. Pendant ce temps, l’Insurance Institute for Highway Safety (IIHS), une organisation à but non lucratif financée par le secteur de l’assurance, a annoncé un nouveau programme de notation conçu pour évaluer dans quelle mesure les systèmes d’automatisation « partiels » comme le pilote automatique de Tesla offrent des protections pour prévenir les abus.

Les développements jumeaux sont emblématiques du problème éternel de l’industrie de l’IA : reconnaître les limites de l’IA. Jeffrey Funk et Gary Smith de Slate font un travail approfondi de récapituler les prédictions trop optimistes de l’IA ces dernières années, y compris la déclaration de Ray Kurzweil selon laquelle les ordinateurs auront une intelligence “humaine” et “la capacité de raconter une blague, d’être drôle, d’être romantique, d’aimer, d’être sexy” par 2029.

Comme tout expert le confirmera, l’IA est loin d’approcher l’intelligence au niveau humain – émotionnelle ou autre. (La nouvelle estimation de Kurzweil est de 2045.) De même, les voitures autonomes et les soins de santé basés sur l’IA n’ont pas atteint les sommets que les futuristes pensaient atteindre. C’est une leçon importante dans la définition des attentes – l’avenir n’est pas facile à prédire, après tout – mais aussi un exemple de la façon dont la poursuite du profit amplifie le cycle de battage médiatique. Sous la pression de montrer le retour sur investissement, certaines entreprises de technologies de la santé et de véhicules autonomes se sont effondrées sous le poids de leurs promesses excessives, comme le montre l’actualité de cette semaine.

Surfant haut sur la victoire de Watson contre Péril! champion Ken Jennings, IBM a lancé Watson Health en 2015, positionnant la suite de services basés sur l’IA comme l’avenir des soins augmentés. L’argumentaire de vente de la société était que Watson Health pouvait analyser des tonnes de données médicales – beaucoup plus rapidement que n’importe quel médecin humain, apparemment – pour générer des informations qui améliorent les résultats de santé.

IBM aurait dépensé 4 milliards de dollars pour renforcer sa division Watson Health avec des acquisitions, mais la technologie s’est avérée au mieux inefficace – et au pire nuisible. UNE STAT rapport a constaté que la plate-forme donnait souvent des conseils de traitement du cancer médiocres et dangereux, car les modèles de Watson Health étaient formés à l’aide de dossiers médicaux synthétiques erronés plutôt que de données réelles sur les patients.

La disparition de Watson Health peut être en partie attribuée au PDG d’IBM, Arvind Krishna déplacement priorités, mais le cynisme croissant à l’égard des capacités de santé de l’IA a sans aucun doute également joué un rôle. Études ont montré que presque tous les ensembles de données sur les maladies oculaires proviennent de patients d’Amérique du Nord, d’Europe et de Chine, ce qui signifie que les algorithmes de diagnostic des maladies oculaires sont moins sûrs de bien fonctionner pour les groupes raciaux des pays sous-représentés. Une audit d’un algorithme UnitedHealth Group déterminé qu’il pourrait sous-estimer de moitié le nombre de patients noirs nécessitant des soins plus importants. Et un nombre croissant d’œuvres suggère que les algorithmes de détection du cancer de la peau ont tendance à être moins précis lorsqu’ils sont utilisés sur des patients noirs, en partie parce que les modèles d’IA sont formés principalement sur des images de patients à la peau claire.

Les systèmes de conduite semi-autonomes alimentés par l’IA font l’objet d’un examen similaire, en particulier alors que les constructeurs automobiles accélèrent le déploiement de produits qui, selon eux, peuvent presque conduire eux-mêmes une voiture. En octobre 2021, Tesla a reçu l’ordre de transmettre des données à la National Highway Traffic Safety Administration dans le cadre d’une enquête sur les voitures de l’entreprise qui se sont écrasées sur des véhicules en stationnement. Le soupçon était que le pilote automatique de Tesla était responsable – en partie ou en totalité – des comportements dangereux.

Ce n’est pas une hypothèse déraisonnable. À la fin de l’année dernière, Tesla a déployé un mettre à jour au pilote automatique avec un bogue qui a provoqué l’engagement du système de freinage automatique de Teslas sans raison apparente. Cela a provoqué une décélération rapide des voitures lorsqu’elles roulaient sur l’autoroute, les exposant au risque d’être prises à l’arrière.

Tesla n’est pas le seul fournisseur à avoir du mal à perfectionner la technologie des voitures semi-autonomes. Une étude qui donne à réfléchir en 2020 de l’American Automobile Association a révélé que la plupart des systèmes semi-autonomes sur le marché – y compris ceux de Kia et BMW – rencontraient des problèmes en moyenne tous les huit milles. Par exemple, lorsqu’ils rencontraient un véhicule en panne, les systèmes provoquaient une collision 66 % du temps.

En 2016, GM était forcé pour repousser le déploiement de sa fonction Super Cruise en raison de problèmes non spécifiés. Gué récemment a retardé son système BlueCruise afin de “simplifier” la technologie.

Cela nous amène à l’actualité de cette semaine : l’Insurance Institute programme de classement pour évaluer les protections de sécurité des systèmes semi-autonomes. Le groupe espère que cela encouragera les constructeurs automobiles à créer de meilleurs designs une fois que la première série de notes, actuellement en développement, sera publiée cette année.

“La façon dont bon nombre de ces systèmes fonctionnent donne aux gens l’impression qu’ils sont capables de faire plus qu’ils ne le sont réellement”, a déclaré Alexandra Mueller, chercheuse à l’Insurance Institute, dans un communiqué. «Mais même lorsque les conducteurs comprennent les limites de l’automatisation partielle, leur esprit peut encore vagabonder. En tant qu’êtres humains, il est plus difficile pour nous de rester vigilants lorsque nous surveillons et attendons qu’un problème survienne que lorsque nous conduisons nous-mêmes.

C’est tout pour dire que l’IA – qu’elle soit autonome ou qu’elle diagnostique une maladie – est faillible, tout comme les humains qui la conçoivent. Visions d’un Jetson l’avenir peut être alléchant, mais lorsque des vies sont en jeu, l’histoire a montré qu’il vaut mieux être trop prudent.

Pour la couverture de l’IA, envoyez des conseils d’actualité à Kyle Wiggers – et assurez-vous de vous abonner à la newsletter AI Weekly et de mettre en signet notre chaîne AI, The Machine.

Merci d’avoir lu,

Kyle Wiggers

Rédacteur principal

VentureBeat

La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie transformatrice et d’effectuer des transactions. Notre site fournit des informations essentielles sur les technologies et les stratégies de données pour vous guider dans la direction de vos organisations. Nous vous invitons à devenir membre de notre communauté, pour accéder :

  • des informations actualisées sur les sujets qui vous intéressent
  • nos newsletters
  • contenu de leader d’opinion fermé et accès à prix réduit à nos événements prisés, tels que Transformer 2021: Apprendre encore plus
  • fonctionnalités de mise en réseau, et plus encore

Devenir membre

Facebook
Twitter
LinkedIn
Pinterest

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT