Nouvelles Du Monde

L’IA pourrait rendre la science incompréhensible

L’IA pourrait rendre la science incompréhensible

2024-06-18 00:13:50

Il y a des jours un article pré-accepté dans le magazine Nature Il nous a parlé des merveilles du modèle d’intelligence artificielle (IA) AlphaFold 3, qui a largement surpassé sa version précédente. Il s’agit d’un système capable de prédire la structure des protéines, des acides nucléiques et des petites molécules dont le potentiel pour la médecine de précision et la création de médicaments est énorme. De plus, l’utilisation de modèles d’IA – à la fois prédictifs et génératifs – pour le diagnostic produit des résultats étonnants.

Presque au même moment, nous avons été informés dans les médias du projet de création d’un centre de recherche en IA dans l’Union européenne dédié notamment au développement de systèmes utiles à la recherche scientifique.

Tout cela ne fait que commencer. Les conséquences qu’aurait pour la science l’extension de l’usage des modèles prédictifs D’un point de vue épistémologique et méthodologique, c’est une question qui suscite un intérêt croissant.

Dans un autre article publié cette année dans Nature Trois illusions sont pointées du doigt auxquelles peut conduire une application non critique de l’IA dans la recherche scientifique :

  1. L’illusion d’une profondeur explicative. Il s’agirait de faire croire aux scientifiques qu’ils comprennent mieux un ensemble de phénomènes parce qu’ils ont été prédits avec précision par un modèle d’IA.

  2. L’illusion d’une ampleur exploratoire. Cela consisterait à croire que ce qui peut être modélisé par l’IA épuise la réalité qu’il faut explorer.

  3. L’illusion de l’objectivité. Cela consisterait à croire que les outils d’IA éliminent tout élément de subjectivité et représentent tous les points de vue pertinents.

Il faudra éviter trois dangers. La perte de l’importance d’une compréhension approfondie des phénomènes scientifiques constitue un risque. La science a cherché des explications et des prédictions. Il est possible que l’énorme succès prédictif obtenu grâce aux systèmes d’IA – qui se comportent comme des boîtes noires, car incapables de justifier leurs résultats – relègue la capacité explicative au second plan.

Lire aussi  Le commerce illégal d'images d'abus sexuels d'enfants par l'IA dévoilé

En conséquence, l’élaboration théorique en science et la recherche des causes perdraient du poids.

Ces modèles prédictifs peuvent être très utiles en pratique, car ils sont capables d’établir des corrélations précises qui nous avertissent avec suffisamment de certitude quand quelque chose peut arriver – lorsque l’incidence d’une maladie augmente – mais le prix à payer pourrait être l’impossibilité de démêler ce qui se passe. est en train de trouver une explication causale.

Il est vrai que tous les systèmes d’IA utilisés dans la recherche ne fonctionnent pas comme des boîtes noires. Il est également vrai que les corrélations trouvées par les modèles prédictifs pourraient aider à découvrir, grâce à des recherches plus approfondies, des relations causales imprévues, de nouvelles connexions et même des phénomènes jusque-là inconnus ou non conceptualisés.

Cependant, l’utilisation de plus en plus répandue de systèmes d’IA qui présentent ce que l’on appelle opacité épistémique Cela peut conduire à une diminution de la compréhension de la réalité qui nous offre la capacité explicative des hypothèses, des modèles et des théories.

“Tais-toi et calcule”

On dit souvent que l’interprétation de Copenhague de la mécanique quantique se résume dans le commandement « tais-toi et calcule ». Il est bien entendu exagéré de vouloir que les physiciens ne s’occupent pas trop de questions fondamentales, largement philosophiques, et se concentrent sur le succès prédictif de la théorie. Il serait possible que de nombreux scientifiques prennent cela boutade comme un mandat inévitable de la science soumis aux conceptions de l’IA.

Cette attitude pourrait avoir des conséquences négatives dans les sciences sociales et biomédicales, sur lesquelles reposent les politiques publiques, et les décisions prises peuvent affecter la vie des gens en raison, par exemple, de préjugés non détectés. Ces sciences traitent de systèmes complexes dans lesquels une petite variation des conditions initiales peut souvent conduire à des résultats complètement différents.

Lire aussi  Les racines des attaques contre le secteur de l'énergie trouvent leur origine dans le Dark Web


Lire la suite : Comment l’IA nous discrimine dans l’ombre et ce que proposent les nouvelles réglementations européennes pour l’éviter


Comment dire à un patient qu’un modèle prédictif a abouti à une forte probabilité de souffrir d’une maladie mortelle pour laquelle il ne présente aucun symptôme, mais sans pouvoir lui donner d’explication sur la manière dont le système est parvenu à une telle conclusion ? Suffira-t-il de souligner que le système est très fiable car son succès prédictif n’est plus à démontrer ? Un médecin doit-il agir d’une manière ou d’une autre ou prescrire un traitement sans avoir de justification épistémique supplémentaire justifiant son intervention ?

Un résultat intéressant à cet égard est que quelques études récentes ont montré que les gens sont favorables à donner la priorité à l’exactitude des prédictions des systèmes d’IA plutôt qu’à l’explicabilité des résultats s’ils doivent choisir entre les deux.

Toutes les sciences basées sur des modèles mathématiques, comme l’économie ou la biologie évolutionniste, pourraient en dire long sur ce choix entre explication et prédiction. Mais, jusqu’à présent, même dans ces sciences, les modèles quantitatifs cherchaient à établir autant que possible des relations causales, ce qui n’est pas l’objectif central des modèles prédictifs d’IA, qui ne recherchent que le succès.

Cependant, la tentation d’utiliser ces modèles prédictifs est forte, dans la mesure où les responsables des politiques publiques exigent souvent de la part des spécialistes des sciences sociales des réponses claires aux problèmes urgents. Il s’agit essentiellement d’obtenir des réponses fiables à des problèmes complexes, même au prix de ne pas bien comprendre pourquoi cela devrait être la bonne réponse. Il y a ceux qui préconisent par une intégration des deux types de modèles, ceux axés sur l’explication causale et ceux axés sur la prédiction. Reste à savoir comment y parvenir.

Vers une science inintelligible ?

L’utilisation généralisée de ces modèles en science affecterait également l’idée selon laquelle le progrès scientifique repose sur le développement d’hypothèses révisables qui sont remplacées par de meilleures hypothèses. Dans ce processus, Comme le soulignait déjà le philosophe des sciences Larry Laudanun gain explicatif peut compenser une certaine perte prédictive.

Non moins inquiétante serait la tendance à croire que ce qui ne peut pas être traité à l’aide de modèles d’IA n’intéresse plus la science elle-même. En fin de compte, cela pourrait même conduire à une science largement inintelligible pour les humains, dans le sens où les résultats seraient obtenus au moyen de modèles ininterprétables. Ce changement nous obligerait à repenser non seulement quelle notion de vérité nous accepterions, mais même si nous devrions abandonner le concept en tant que tel, nous contentant de la simple utilité d’une croyance.

Il ne semble pas que l’être humain soit, à l’heure actuelle, capable de ce changement.

Autant de bonnes raisons de ne pas accorder tout le poids de la recherche aux modèles prédictifs, aussi bénéfiques soient-ils. Ces modèles doivent être complétés par l’utilisation de modèles explicatifs et par la recherche d’hypothèses explicatives testables. Un contraste pour lequel les modèles prédictifs peuvent jouer un rôle important.

Une autre question serait de savoir si ces boîtes noires pouvaient enfin être ouvertes d’une manière ou d’une autre, peut-être via d’autres systèmes d’IA qui n’étaient pas elles-mêmes des boîtes noires, ou si une IA transparente pouvait être réalisée à l’avenir, dans laquelle les algorithmes seraient capables de prendre pleinement en compte leurs résultats d’une manière intelligible pour les êtres humains. C’est un objectif sur lequel travaillent avec une attention croissante de la part du intelligence artificielle explicable (XAI), mais le chemin est encore incertain. J’espère que nous pourrons le trouver bientôt.



#LIA #pourrait #rendre #science #incompréhensible
1718664416

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT