AI Weekly: Watson Health et les échecs de conduite semi-autonome montrent les dangers d'une IA trop prometteuse

janvier 22, 2022 Par admin 0
AI Weekly: Watson Health et les échecs de conduite semi-autonome montrent les dangers d'une IA trop prometteuse


Avez-vous manqué une session du Sommet sur l'avenir du travail? Rendez-vous sur notre bibliothèque à la demande du Future of Work Summit pour diffuser.

Cette semaine en IA, la réalité est venu frapper à la porte – à la fois pour les technologies de santé IA et les systèmes de conduite semi-autonomes. IBM a accepté de vendre les actifs de son activité Watson Health à la société d'investissement Francisco Partners, suite à la forte baisse des performances de la division. Pendant ce temps, l'Insurance Institute for Highway Safety (IIHS), une organisation à but non lucratif financée par le secteur de l'assurance, a annoncé un nouveau programme de notation conçu pour évaluer dans quelle mesure les systèmes d'automatisation « partiels » comme le pilote automatique de Tesla offrent des protections pour prévenir les abus.

Les développements jumeaux sont emblématiques du problème éternel de l'industrie de l'IA: reconnaître les limites de l'IA. Jeffrey Funk et Gary Smith de Slate font un travail minutieux pour récapituler les prédictions trop optimistes de l'IA ces dernières années, y compris la déclaration de Ray Kurzweil selon laquelle les ordinateurs auront une intelligence « humaine » et « la capacité de raconter une blague, d'être drôle, d'être romantique ». , aimer, être sexy » d'ici 2029.

Comme tout expert le confirmera, l'IA est loin d'approcher l'intelligence au niveau humain – émotionnelle ou autre. (La nouvelle estimation de Kurzweil est de 2045.) De même, les voitures autonomes et les soins de santé basés sur l'IA n'ont pas atteint les sommets que les futuristes pensaient atteindre. C'est une leçon importante dans la définition des attentes – l'avenir n'est pas facile à prédire, après tout – mais aussi un exemple de la façon dont la poursuite du profit amplifie le cycle de battage médiatique. Sous la pression de montrer un retour sur investissement, certaines entreprises de technologies de la santé et de véhicules autonomes se sont effondrées sous le poids de leurs promesses excessives, comme le montre l'actualité de cette semaine.

Fort de la victoire de Watson contre Péril! champion Ken Jennings, IBM a lancé Watson Health en 2015, positionnant la suite de services basés sur l'IA comme l'avenir des soins augmentés. L'argumentaire de vente de la société était que Watson Health pouvait analyser des tonnes de données médicales – beaucoup plus rapidement que n'importe quel médecin humain, apparemment – pour générer des informations qui améliorent les résultats de santé.

IBM aurait dépensé 4 milliards de dollars pour renforcer sa division Watson Health avec des acquisitions, mais la technologie s'est avérée au mieux inefficace – et au pire nuisible. Un rapport STAT a révélé que la plate-forme donnait souvent des conseils de traitement du cancer médiocres et dangereux, car les modèles de Watson Health étaient formés à l'aide de dossiers médicaux synthétiques erronés plutôt que de données réelles sur les patients.

La disparition de Watson Health peut être en partie attribué aux priorités changeantes du PDG d'IBM, Arvind Krishna, mais le cynisme croissant à l'égard des capacités de santé de l'IA a sans aucun doute également joué un rôle. Des études ont montré que presque tous les ensembles de données sur les maladies oculaires proviennent de patients d'Amérique du Nord, d'Europe et de Chine, ce qui signifie que les algorithmes de diagnostic des maladies oculaires sont moins sûrs de bien fonctionner pour les groupes raciaux des pays sous-représentés. Un audit d'un algorithme du UnitedHealth Group a déterminé qu'il pouvait sous-estimer de moitié le nombre de patients noirs nécessitant des soins plus importants. Et un nombre croissant de travaux suggèrent que les algorithmes de détection du cancer de la peau ont tendance à être moins précis lorsqu'ils sont utilisés sur des patients noirs, en partie parce que les modèles d'IA sont formés principalement sur des images de patients à la peau claire.

Les systèmes de conduite semi-autonomes alimentés par l'IA font l'objet d'un examen similaire, en particulier alors que les constructeurs automobiles accélèrent le déploiement de produits qui, selon eux, peuvent presque conduire eux-mêmes une voiture. En octobre 2021, Tesla a reçu l'ordre de transmettre des données à la National Highway Traffic Safety Administration dans le cadre d'une enquête sur les voitures de l'entreprise qui se sont écrasées sur des véhicules en stationnement. Le soupçon était que le pilote automatique de Tesla était responsable – en partie ou en totalité – des comportements dangereux.

Ce n'est pas une hypothèse déraisonnable. À la fin de l'année dernière, Tesla a déployé une mise à jour du pilote automatique avec un bogue qui a provoqué l'engagement du système de freinage automatique de Teslas sans raison apparente. Cela a provoqué une décélération rapide des voitures lorsqu'elles roulaient sur l'autoroute, les exposant au risque d'être prises à l'arrière.

Tesla n'est pas le seul fournisseur qui a eu du mal à perfectionner la technologie des voitures semi-autonomes. Une étude qui donne à réfléchir en 2020 de l'American Automobile Association a révélé que la plupart des systèmes semi-autonomes sur le marché – y compris ceux de Kia et BMW – rencontraient des problèmes en moyenne tous les huit milles. Par exemple, lorsqu'ils rencontraient un véhicule en panne, les systèmes provoquaient une collision 66 % du temps.

En 2016, GM a été contraint de repousser le déploiement de sa fonction Super Cruise en raison de problèmes non spécifiés. Ford a récemment retardé son système BlueCruise afin de « simplifier » la technologie.

Cela nous amène à l'actualité de cette semaine : le programme de notation de l'Insurance Institute pour évaluer les protections de sécurité des systèmes semi-autonomes. Le groupe espère que cela encouragera les constructeurs automobiles à créer de meilleures conceptions une fois que la première série de notes, actuellement en développement, sera publiée cette année.

« La façon dont bon nombre de ces systèmes fonctionnent donne les gens ont l'impression qu'ils sont capables de faire plus qu'ils ne le sont réellement », a déclaré Alexandra Mueller, chercheuse à l'Insurance Institute, dans un communiqué. «Mais même lorsque les conducteurs comprennent les limites de l'automatisation partielle, leur esprit peut encore vagabonder. En tant qu'êtres humains, il est plus difficile pour nous de rester vigilants lorsque nous surveillons et attendons qu'un problème survienne que lorsque nous conduisons nous-mêmes.»

C'est tout cela pour dire que l'IA – qu'elle soit autonome ou qu'elle diagnostique une maladie – est faillible, tout comme les humains qui la conçoivent. Les visions d'un avenir Jetsons peuvent être alléchantes, mais lorsque des vies sont en jeu, l'histoire a montré qu'il vaut mieux être trop prudent.

Pour la couverture de l'IA, envoyez des conseils d'actualité à Kyle Wiggers – et assurez-vous de vous abonner à la newsletter AI Weekly et de mettre en signet notre chaîne AI, La machine.

Merci d'avoir lu,

Kyle Wiggers

Personnel senior Écrivain

VentureBeat

La mission de VentureBeat est d'être une place publique numérique permettant aux décideurs techniques d'acquérir des connaissances sur la technologie transformatrice et d'effectuer des transactions . Notre site fournit des informations essentielles sur les technologies et les stratégies de données pour vous guider dans la direction de vos organisations. Nous vous invitons à devenir membre de notre communauté, pour accéder à :

  • information à jour sur les sujets qui vous intéressent
  • nos newsletters

  • contenu de leader d'opinion fermé et accès à prix réduit à nos événements prisés, tels que Transformer 2021

    : En savoir plus

      fonctionnalités de mise en réseau, et plus encore

    Devenir membre