Nouvelles Du Monde

Les risques liés à l’utilisation de l’IA générative dans la recherche scientifique et une solution potentielle

Les risques liés à l’utilisation de l’IA générative dans la recherche scientifique et une solution potentielle

⇧ [VIDÉO] Vous pourriez aussi aimer ce contenu
partenaire

La qualité des futures recherches scientifiques risque
de se dégrader avec l’implication toujours plus répandue de l’IA
générative. Du moins, c’est ce que suggèrent certains chercheurs
qui soulignent les risques associés à ces technologies, notamment
en raison des erreurs encore trop fréquentes qu’elles génèrent.
Toutefois, des chercheurs de l’Université d’Oxford proposent une
solution : utiliser les LLMs (grands modèles de langage) en tant
que « traducteurs zero-shot ». Selon eux, cette méthode pourrait
permettre une utilisation sûre et efficace de l’IA dans la
recherche scientifique.

Dans un article paru dans la revue Comportement humaindes chercheurs de l’Université d’Oxford partagent
leurs préoccupations concernant l’utilisation des grands modèles de
langage (LLMs) dans la recherche scientifique.

Ces modèles peuvent générer des réponses erronées pouvant
réduire la fiabilité des études et même conduire à la diffusion de
fausses informations par la
création de fausses données d’études. De plus, la science a
toujours été décrite comme une activité intrinsèquement humaine.
Elle fait appel à la curiosité, à la pensée critique, à la création
de nouvelles idées et hypothèses et à la combinaison créative de
connaissances. Le fait de « déléguer » tous ces aspects humains à
des machines soulève des inquiétudes au sein des communautés
scientifiques.

Lire aussi  OpenAI annonce ChatGPT-4o, capable d'interagir par voix et vidéo | Intelligence artificielle

L’effet Eliza et la confiance excessive aux IA

Les scientifiques d’Oxford ont évoqué deux principales raisons
liées à l’utilisation des modèles de langage dans la recherche
scientifique. La première est la tendance des utilisateurs à
attribuer des qualités humaines aux IA génératives. C’est un
phénomène récurrent qui porte le nom « d’effet Eliza », dans lequel
les utilisateurs considèrent inconsciemment ces systèmes comme
étant compréhensifs et empathiques, voire sages.

La deuxième raison est que les utilisateurs peuvent montrer une
confiance aveugle aux informations fournies par ces modèles.
Pourtant, les IA sont susceptibles de produire des données
incorrectes et ne garantissent en rien la véracité des réponses,
malgré les récentes avancées.

Par ailleurs, selon les chercheurs de l’étude, les LLMs
fournissent souvent des réponses qui semblent convaincantes,
qu’elles soient vraies, fausses, ou imprécises. Face à certaines
requêtes par exemple, au lieu de répondre « je ne sais pas », les
IA préfèrent fournir des réponses incorrectes, car elles ont été
entraînées pour satisfaire les utilisateurs, et notamment pour
simplement prédire une suite de mots logique face à une
requête.

Lire aussi  Les acteurs hollywoodiens mettent fin à leur grève après un accord avec les studios

Tout cela remet évidemment en question l’utilité même des IA
génératives dans le cadre de la recherche, où l’exactitude et la
fiabilité des informations sont cruciales. « Notre tendance à
anthropomorphiser les machines et à faire confiance aux modèles
comme s’ils étaient des diseurs de vérité à l’image de l’homme, en
consommant et en diffusant les mauvaises informations qu’ils
produisent dans le processus, est particulièrement inquiétante pour
l’avenir de la science
 », écrivent les chercheurs dans leur
document.

La traduction « zero-shot » comme solution au problème ?

Les chercheurs proposent toutefois une autre manière plus sûre
d’impliquer l’IA dans la recherche scientifique. Il s’agit de la
« traduction zero-shot ». Dans cette technique, l’IA fonctionne à
partir d’un ensemble de données entrantes qui sont déjà considérées
comme fiables.

Au lieu de générer des réponses nouvelles ou créatives, l’IA se
concentre dans ce cas sur l’analyse et la réorganisation de ces
informations. Son rôle se limite ainsi à manipuler les données,
sans introduire de nouvelles informations.

Lire aussi  La CIA développe un agent conversationnel pour rivaliser avec la Chine dans le domaine de l'intelligence artificielle

Dans cette approche, le système n’est donc plus utilisé comme un
vaste répertoire de connaissances, mais plutôt comme un outil
visant à manipuler et réorganiser un ensemble spécifique et fiable
de données afin d’en tirer des apprentissages. Néanmoins,
contrairement à l’utilisation ordinaire des LLMs, cette technique
requiert une compréhension plus approfondie des outils d’IA et de
leurs capacités, et selon l’application, de langages de
programmation tels que Python.

Afin de mieux comprendre, nous avons directement demandé à l’un
des chercheurs de nous expliquer plus en détail le principe. Pour
commencer, selon lui, utiliser les LLMs pour transformer des
informations précises d’une forme à une autre, sans formation
spécifique pour cette tâche, amène les deux avantages suivants
:

Source : Comportement humain

in an article which can rank high in google
#pour #protéger #recherche #scientifique #des #griffes #delIA #des #experts #proposent #une #solution #simple
publish_date] pt]

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT