Nouvelles Du Monde

Israël s’appuie sur l’IA pour l’identification des cibles

Israël s’appuie sur l’IA pour l’identification des cibles

2024-04-09 17:45:00

Les soldats décident toujours qui est défini comme cible et ce qui est considéré comme proportionné. Mais l’IA devient de plus en plus importante.

Une IA aide l’armée israélienne à identifier des cibles dans la bande de Gaza.

Mohammed Sabre / EPA

L’intelligence artificielle révolutionne la guerre. Les forces armées espèrent utiliser les données et les algorithmes pour être plus précises et efficaces. Dans le même temps, on craint de plus en plus les machines à tuer autonomes qui décident indépendamment de la vie ou de la mort.

La guerre de Gaza montre à quoi peut ressembler l’utilisation de l’intelligence artificielle (IA) en temps de guerre. Une recherche du magazine israélien de gauche « +972 » a maintenant déclenché une discussion. Selon le magazine, l’armée israélienne n’a pas examiné de manière approfondie les suggestions de bombardements de l’IA et a accepté de nombreuses victimes civiles.

« +972 » dresse le portrait d’une machine à tuer automatisée pilotée par un logiciel d’IA défectueux. Mais cette image est-elle correcte ?

Il est incontestable que l’armée israélienne utilise des systèmes basés sur l’IA, par exemple pour identifier les cibles d’attaque. Dès mai 2021, les forces armées de la bande de Gaza ont utilisé un programme intitulé « L’Évangile »qui fait des recommandations d’objectifs.

Lors de la guerre de 2021 contre le Hamas, des programmes d’IA ont également été utilisés pour identifier et localiser les commandants de cellules terroristes, comme un officier israélien. l’année dernière lors d’une conférence signalé. Déjà à l’époque d’une « guerre de l’IA » la raison.

Juste vingt secondes pour vérifier une cible ?

La question cruciale est toutefois de savoir quelles sont les conditions-cadres pour l’utilisation des systèmes d’IA. Le rapport du « +972 » formule de graves allégations contre l’armée israélienne. Le magazine est connu pour ses critiques de la politique d’occupation israélienne et adopte également une ligne dure. dans votre propre pays. Le rapport s’appuie sur les déclarations de six membres anonymes des forces armées.

Selon « +972 », Israël a développé un programme appelé « Lavender », qui utilise des informations sur les habitants de la bande de Gaza pour calculer la probabilité qu’une personne appartienne à la branche militaire du Hamas ou du Jihad islamique palestinien. Pour ce faire, il compare les données avec les modèles caractéristiques des terroristes connus.

Si le logiciel d’IA évalue une personne comme terroriste, elle devient une cible possible pour un attentat à la bombe. Selon « +972 », la vérification de l’exactitude de l’évaluation de l’IA n’est que très superficielle. Le taux d’erreur de « Lavender » est estimé à dix pour cent : dans dix pour cent des cas, le système suggère comme cibles des personnes qui n’ont rien à voir avec le Hamas.

Lire aussi  Tarif 20 Go à 9,99 euros : bonne affaire sur le mobile sur Freenet ?

Une source anonyme a déclaré à « +972 » que la vérification d’une cible ne prenait généralement que vingt secondes. Il est douteux que ces informations s’appliquent réellement à toutes les unités et pendant toute la durée de la guerre à Gaza. Il est concevable qu’il y ait eu des phases d’activité militaire particulièrement intense au cours desquelles l’examen a été effectué de manière plutôt superficielle.

Une autre accusation du magazine est que l’armée israélienne a accepté un nombre très élevé de victimes civiles au cours des premières semaines de la guerre. Même lors d’attaques ciblant des combattants ordinaires du Hamas, l’armée considérait comme acceptable la mort de 15 à 20 civils. Lors des guerres précédentes, un nombre aussi élevé de victimes civiles n’était approuvé que par d’importants dirigeants du Hamas.

« On considère souvent que la machine joue un rôle trop important »

Dans le système d’IA décrit par « +972 », il existe de nombreuses possibilités d’intervention humaine. C’est ce que souligne Heiko Borchert, codirecteur de l’Observatoire de l’IA de défense à l’Université de la Bundeswehr à Hambourg. « La façon dont je définis un membre du Hamas, la clarté de son identification ou le nombre de victimes civiles que j’accepte – ce sont toutes des décisions humaines », explique Borchert. De telles décisions détermineraient de manière significative les performances d’un système technique.

Heiko Borchert.

En Israël, au moins jusqu’à l’attaque terroriste du Hamas du 7 octobre, la règle était que c’était à une personne de prendre la décision finale d’attaquer, explique Borchert. C’est exactement ce qui déclenche la polémique. « En temps de guerre, les priorités peuvent changer », explique Borchert. Les opérateurs de logiciels pourraient, par exemple, définir davantage de cibles – ou ordonner une attaque, même si le système ne revendique qu’une sécurité de 80 pour cent.

On ne sait pas exactement à quoi ressemble le processus d’identification des cibles et d’approbation de l’attaque en Israël. De manière générale, Borchert déclare : « Le public considère souvent que les machines jouent un rôle trop important. » Une question importante est de savoir quel rôle jouent les avocats militaires dans leur évaluation de la proportionnalité d’une attaque.

L’armée israélienne souligne que les systèmes informatiques ne sont que des outils permettant aux analystes d’identifier des cibles. « Conformément à la politique de l’armée israélienne, les analystes doivent mener des examens indépendants pour garantir que les cibles identifiées répondent aux définitions applicables. [. . .] sont équivalents à”, dit-il dans un communiqué. Pour chaque cible, une évaluation individuelle de l’avantage militaire et des pertes civiles attendues est réalisée.

Lire aussi  C'est ainsi qu'ils se préparent pour l'éclipse d'aujourd'hui

Les systèmes d’IA peuvent également être meilleurs pour les civils

Idéalement, le soutien de l’IA peut garantir que les opérations militaires soient plus précises et coûtent moins de vies civiles. Selon le chercheur israélien Liran Antebi, lorsque Israël a utilisé pour la première fois plusieurs systèmes d’IA dans la guerre contre le Hamas en mai 2021, c’était le cas. Elle donne l’exemple une frappe aérienne contre le Hamas, au cours de laquelle 170 bombes ont été larguées en 18 minutes sans faire de victimes civiles.

Le conflit de 2021 montre également à quel point l’IA accélère la guerre. Jusque-là, selon Antebi, le traitement des grandes quantités de données collectées par l’armée à partir de différentes sources constituait un goulot d’étranglement. Cela a ralenti le déploiement. Cela a changé avec le programme d’IA « The Gospel » pour l’identification des cibles.

Au cours des douze jours qu’a duré l’opération dans la bande de Gaza en mai 2021, l’armée israélienne a déclaré avoir réussi à localiser 200 cibles de grande valeur. Auparavant, cela lui aurait pris une année entière.

Après l’attaque contre Israël le 7 octobre, une forte pression politique s’est exercée pour éliminer complètement le Hamas. Il semble plausible que dans cette situation, l’armée ait été sous pression pour étendre ses attaques – et qu’elle soit donc prête à accepter davantage de pertes civiles.

Des opérations militaires auraient eu lieu même sans les systèmes d’IA. La sélection des cibles aurait pu être encore moins précise sans la nouvelle technologie. Le nombre de victimes civiles aurait certainement été encore plus élevé s’il y avait eu des bombardements à grande échelle.

Les gens suivent souvent les machines contre leur meilleur jugement

D’un point de vue éthique, le système d’IA soulève encore des questions. Atay Kozlovski est philosophe à l’Université de Zurich et travaille sur l’éthique de l’IA. Il vient d’Israël, où il a servi dans l’armée pendant plusieurs années. Selon lui, le système décrit par « +972 » est éthiquement similaire à une arme autonome. En fait, c’est la machine qui décide, pas l’humain.

Ataï Kozlovsky.

« D’un point de vue éthique, la norme devrait être un contrôle humain significatif. Mais cela n’est pas possible si le système est si complexe que l’utilisateur ne sait pas d’où vient la décision.»

Lire aussi  Sans fanfare, Apple déploie une fonctionnalité iPhone impressionnante comme si de rien n'était

Pour le moment, on ne sait pas exactement à quel point les systèmes d’IA israéliens sont complexes ni combien de types de données différents ils traitent. Plus les données affluent, plus elles deviennent une boîte noire. Il est alors difficile pour un humain de vérifier si la machine a pris une décision raisonnable ou non.

Les erreurs commises par les systèmes d’IA ne seront alors plus perceptibles. Le système « Lavender » compare si les données d’une personne sont similaires à celles d’un terroriste. De tels systèmes apprennent souvent des connexions incorrectes. Quiconque l’utilise accepte que des innocents soient désignés comme cibles.

Et les gens ont souvent tendance à accepter les décisions des machines même s’ils en savent mieux eux-mêmes. Ce soi-disant « biais d’automatisation » a été documenté à de nombreuses reprises et rend encore plus difficile un contrôle humain significatif.

Les individus se sentent moins responsables

Lorsqu’un humain répond aux recommandations d’une machine, la responsabilité devient également floue. En éthique, on parle du « problème de plusieurs mains » : la décision ne dépend plus d’une seule personne, mais est le résultat de toute une chaîne de petites décisions. Personne dans la chaîne ne se sent entièrement responsable.

Plus précisément, les décisions sont prises non seulement par chaque soldat ou commandant, mais également par le concepteur du système d’IA, le fabricant et bien d’autres. « L’individu suit un système et ne pense plus à ce qu’il fait », explique Kozlovski.

La technologie n’est pas neutre, mais développe sa propre dynamique. Un exemple est le goulot d’étranglement de la sélection des cibles humaines décrit ci-dessus. Résoudre ce problème avec l’aide de l’IA donne lieu à toute une liste de cibles possibles, explique Kozlovski. « Cela peut créer une pression pour bombarder ces cibles. Parce qu’ils sont déjà là.

Il critique également le fait qu’un tel système déshumanise l’adversaire et le réduit à l’état de numéro. « Bien sûr, on peut penser qu’un terroriste du Hamas n’a pas le droit d’être traité comme un individu bénéficiant des droits de l’homme. Mais les lois de la guerre l’exigent », dit-il.

Alors que les éthiciens commencent seulement à s’attaquer aux questions complexes de la culpabilité et de la responsabilité à l’ère de l’IA, les armées du monde entier s’équipent de tels systèmes. C’est aussi une course aux armements : si votre adversaire le fait, vous voulez suivre.



#Israël #sappuie #sur #lIA #pour #lidentification #des #cibles
1713036157

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT