À Gaza, les cibles de l'armée israélienne sont désignées par l'intelligence artificielle

Pour identifier ses cibles dans l'enclave palestinienne, l'armée israélienne a recours à de puissants algorithmes chargés d'identifier de potentiels membres du Hamas.
Article rédigé par franceinfo
Radio France
Publié
Temps de lecture : 4min
Les frappes israéliennes s'intensifient sur Rafah, au sud de la bande de Gaza où des milliers de Palestiniens ont trouvé refuge. (EYAD BABA / AFP)

C’est l'un des plus grands rendez-vous de l’armement en France et dans le monde : le salon Eurosatory 2024 ouvre ses portes près de Paris, lundi 17 juin. Mais en raison de l’offensive en cours à Gaza, la France n’a autorisé aucune entreprise israélienne à tenir des stands. La star de ce salon, c’est l’intelligence artificielle et ses applications militaires. En avril dernier, sur la base du témoignage d’officiers de l’armée israélienne, le média d’investigation israélien +972 a révélé l’ampleur de l’IA dans l’offensive à Gaza.

Ces militaires leur ont décrit de l’intérieur comment, lors de la riposte à l’attaque terroriste du Hamas, Israël a eu recours à de puissants algorithmes dont "Lavender" - Lavande, en français - chargée d’identifier et de localiser de manière "industrielle" des cibles militaires pour ses pilotes mais aussi ses troupes au sol.

"Ce n'est pas l'IA qui a tué ces cibles"

Meron Rapoport est rédacteur en chef de +972 : "La grande innovation, c’est que l’intelligence artificielle a choisi les cibles à neutraliser. Ce n’est pas l’IA qui a tué ces cibles. Ce sont les agents qui ont validé les choix de la machine derrière un écran. En temps normal, une cible doit être contre-validée par beaucoup de renseignements humains. Là, les cibles désignées par l’IA ont été approuvées très, très rapidement."

En France, les révélations de ces journalistes n’ont pas surpris Amélie Férey. Chercheuse à l’Institut français des relations internationales, elle scrute depuis plusieurs années l’utilisation militaire croissante de l’IA par Israël. "Lavender", comme d’autres algorithmes intégrant des données de surveillance de masse, est intégré pour désigner les cibles d’Israël : "Le système 'Lavender' utilise les systèmes de communication. Si vous changez de numéro de téléphone, si vous changez de lieu d'habitation, si vous faites partie d'un groupe WhatsApp où il y a une autre personne du Hamas, 'Lavender' agrège toutes ces données et sort une note sur la probabilité que cette personne fasse partie du Hamas."

"Un temps très court pour réagir"

"Une usine à cibles qui fonctionne 24h sur 24", comme l’a décrit l'armée israélienne durant le premier mois du conflit ? "Non, répond aujourd'hui l’armée israélienne sollicitée par franceinfo. Tsahal n’utilise pas de système qui identifie ou tente de prédire si une personne est terroriste. Ces systèmes d'information ne sont que des outils destinés aux analystes dans le processus d'identification des cibles."

Ce n’est pas l’avis de Laure de Roucy-Rochegonde, autre spécialiste de l’intelligence artificielle dans le domaine militaire : "Plus on génère de cibles, plus on fait de frappes. Mais l'opérateur, au moment où il doit prendre cette décision, il a un temps très court pour réagir. Une vingtaine de secondes pour soit apporter un véto, soit enclencher une frappe. Ce n’est pas parce qu'on laisse l'humain dire oui ou non sur une frappe que véritablement la décision reste aux mains de l'humain." L’enquête des journalistes de +972 n’a pas été censurée par le ministère de la Défense israélienne. Le recours à l’intelligence artificielle fait partie de la communication de l’État hébreu et c’est aussi une forme utile de dissuasion militaire.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.