Nouvelles Du Monde

José Luis Hernández, informaticien : « Il est très facile de tromper l’intelligence artificielle pour qu’elle génère une attaque » | Technologie

José Luis Hernández, informaticien : « Il est très facile de tromper l’intelligence artificielle pour qu’elle génère une attaque » |  Technologie

2023-11-08 07:20:00

José Luis Hernández Ramos (Murcie, 37 ans) est chercheur Marie Skłodowska-Curie à l’Université de Murcie, où il a étudié la licence, la maîtrise et le doctorat en informatique. «Quand j’étais enfant et que je jouais avec le petites machines comme sur la Game Boy, je me demandais comment il était possible que toutes ces images apparaissent lorsque j’insérais les cartouches », avoue-t-il. Tout au long de sa carrière professionnelle, il a été responsable scientifique à la Commission européenne et a publié plus de 60 articles de recherche, en plus de collaborer pendant cinq ans avec l’Agence de l’Union européenne pour la cybersécurité (ENISA) et l’Organisation européenne de cybersécurité (ECSO), où son intérêt pour la recherche de l’impact de son travail est apparu. « Tout chercheur doit se demander ce que l’intelligence artificielle peut faire dans son domaine », dit-il. Aujourd’hui, son projet Gladiator fait partie des 58 sélectionnés par le Bourses Leonardo 2023 de la Fondation BBVAdoté jusqu’à 40 000 euros, pour développer un outil d’intelligence artificielle capable de détecter les menaces de cybersécurité et d’analyser les programmes informatiques malveillants.

Demander. Comment résumeriez-vous l’objectif du projet Gladiator ?

Répondre. La recherche souhaite appliquer ou utiliser un grand modèle de langage, tel que ChatGPT, Bard ou Llama, pour comprendre comment nous pouvons les utiliser pour résoudre les problèmes de cybersécurité. Lorsque nous souhaitons adapter l’un de ces modèles à un certain domaine tel que la cybersécurité, nous devons ajuster le modèle à la terminologie liée à cette discipline spécifique. Nous voulons comprendre comment adapter ces modèles pour détecter une attaque et, en même temps, les adapter aux informations de cybersécurité pour améliorer leurs performances et pouvoir résoudre des problèmes de ce type. Le projet durera jusqu’en mars 2025.

P. Comment les modèles de langage vont-ils s’adapter aux besoins du projet ?

Lire aussi  Voici ce que les joueurs de la Kings League sont payés

R. Les informations liées à la cybersécurité sont collectées, avec des bases de données contenant des informations sur les menaces, et le modèle est formé ou ajusté avec les informations. De cette façon, vous pourrez améliorer votre compréhension de ce qu’est une menace de cybersécurité.

P. Comment l’intelligence artificielle détecte-t-elle les menaces de cybersécurité et les combat-elle ?

R.. De nombreux systèmes basés sur l’IA s’appuient sur l’apprentissage de ce qui constitue ou non une attaque, par exemple en utilisant des ensembles de données liés aux connexions réseau d’un certain environnement. Ce que nous recherchons avec le projet, c’est être capable d’analyser les informations de cybersécurité qui se présentent sous forme de texte, qui peuvent être liées à des vulnérabilités ou qui peuvent être trouvées sur les réseaux sociaux et d’autres sources, et déterminer s’il s’agit d’une menace ou non.

P. Quelle est la différence entre les systèmes utilisés auparavant pour lutter contre la cybersécurité et ceux d’aujourd’hui ?

R. Les systèmes de sécurité doivent être de plus en plus intelligents pour détecter d’éventuelles menaces grâce aux techniques d’intelligence artificielle. Auparavant, ces systèmes détectaient les attaques en recherchant les menaces connues dans les bases de données. Les systèmes doivent évoluer pour pouvoir identifier les attaques dont ils n’ont pas conscience.

P. Et quels types d’attaques pourraient être évitées ou identifiées ?

R. L’application des techniques d’intelligence artificielle à la cybersécurité permettra d’améliorer l’identification et la détection d’une grande variété d’attaques. Une attaque de Hameçonnage, est un exemple clair de la façon dont l’utilisation de modèles linguistiques peut aider, en analysant le texte ou le contenu d’un e-mail. Nous pouvons identifier si plusieurs appareils s’entendent pour lancer une attaque, et également si celle-ci ne provient pas d’une seule source, mais de plusieurs.

José Luis Hernández Ramos à côté d’un groupe d’ordinateurs de l’Université de Murcie.Fondation BBVA

P. Et depuis chez nous, comment utiliser l’intelligence artificielle pour lutter contre les attaques ?

Lire aussi  La Bourse de Copenhague en flammes – « Encore Notre-Dame »

R. Nous avons désormais accès 24 heures sur 24 à l’intelligence artificielle grâce à des outils comme ChatGPT, ce qui nous donne la possibilité de promouvoir l’éducation et la sensibilisation à la cybersécurité. N’importe qui peut demander à l’outil comment se protéger ou comment configurer un appareil pour le rendre moins vulnérable. Il faut savoir que les modèles ne sont pas parfaits, les résultats et les réponses qu’ils proposent restent à comparer.

P. L’intelligence artificielle permettrait-elle de détecter si une application a été modifiée ?

R. Absolument. Cela permettrait de détecter, par exemple, si une application est faux ou malveillant. En fait, l’une des choses que l’on constate également avec ce type d’analyse des applications, du code et des logiciels en général, ce sont les initiatives de modèles de langage pour analyser le code logiciel.

P. L’intelligence artificielle est-elle capable de détecter le vol de données ou la désinformation ?

R.. Oui, même si les attaquants ont tendance à être de plus en plus créatifs et à mieux utiliser logiquement les outils.

P. L’intelligence artificielle aide-t-elle à la fois ceux qui veulent créer de la désinformation et ceux qui veulent la combattre ?

R. Oui, c’est une arme à double tranchant. S’il se trouve entre de mauvaises mains, il peut être utilisé pour lancer des attaques de plus en plus sophistiquées. Il y a aussi le danger de l’accès que nous avons désormais, en général, aux systèmes d’intelligence artificielle, comme ChatGPT ou autres.

P. Comment utiliser un outil comme ChatGPT pour définir ou générer une attaque ?

R. Lorsque vous demandez à un système comme ChatGPT de générer une attaque, la première chose qu’il vous dit est qu’il n’en génère pas car cela peut entraîner un problème de cybersécurité. Au lieu de cela, il est très facile de tromper l’outil et de lui dire que vous devez connaître l’attaque parce que vous souhaitez rendre votre système plus robuste ou que vous souhaitez enseigner l’attaque dans un cours. Dans ces cas-là, le système vous donne la réponse.

Lire aussi  La boîte noire d'iCloud

P. Le système de projet permettra-t-il de concevoir un outil dans lequel les données sensibles ne devront pas être partagées ?

R. La recherche veut essayer de comprendre quels sont les problèmes et les limites afin que l’ajustement du modèle linguistique se fasse de manière décentralisée. À l’heure actuelle, un modèle est entraîné et réglé avec diverses sources d’informations, comme ce que je lui donne moi-même lorsque j’interagis avec le système. L’idée est que ce processus est décentralisé et qu’au lieu de devoir partager des informations sensibles, les informations associées peuvent être partagées, mais sans avoir à envoyer d’informations sur la vulnérabilité spécifique afin que le système puisse identifier une attaque.

P. Quel est l’objectif que vous aimeriez atteindre avec votre projet une fois qu’il se terminera, en 2025 ?

R. Améliorer notre capacité à comprendre les modèles de langage pour résoudre les problèmes de cybersécurité, créer un système qui nous aide à identifier une attaque, à comprendre comment et pourquoi elle s’est produite et à rechercher des relations entre différentes attaques qui aident à prédire si mon système va être attaqué. Nous voulons également savoir comment l’intelligence artificielle est capable de générer une mesure qui répond et résout cette attaque de cybersécurité, par exemple en implémentant automatiquement un correctif de sécurité.

Vous pouvez suivre Technologie EL PAÍS dans Facebook oui X ou inscrivez-vous ici pour recevoir notre bulletin d’information semanal.

Abonnez-vous pour continuer la lecture

Lire sans limites

_




#José #Luis #Hernández #informaticien #est #très #facile #tromper #lintelligence #artificielle #pour #quelle #génère #une #attaque #Technologie
1699417935

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT