Guerre entre Israël et le Hamas : "Evangile", l'intelligence artificielle de l'armée israélienne utilisée comme "usine" à cibles dans la bande de Gaza

Article rédigé par franceinfo
France Télévisions
Publié
Temps de lecture : 7min
Une frappe israélienne à Rafah, dans la bande de Gaza, le 3 décembre 2023. (SAID KHATIB / AFP)
Un programme nommé "Habsora", développé par le renseignement, émet des recommandations à un rythme rapide. Il explique, en partie, le nombre record de frappes menées par l'armée israélienne depuis le début de son offensive dans l'enclave palestinienne.

La bande de Gaza fait l'objet d'un pilonnage constant depuis le début de l'opération militaire israélienne. Afin de maintenir un rythme soutenu de frappes, et de guider son artillerie et son aviation, l'armée israélienne dispose d'une botte secrète : l'intelligence artificielle. Un outil nommé "Habsora" ("évangile" en hébreu) lui permet de "produire des cibles à un rythme rapide" et de démultiplier ainsi le nombre d'objectifs, résumait début novembre un porte-parole militaire.

Deux médias israéliens indépendants, le magazine +972 et Local Call, ont consacré une longue enquête conjointe à la manière dont Israël déterminait ses cibles. Un ancien officier de l'armée, interrogé sous couvert d'anonymat, y décrit une "usine d'assassinats de masse", qui privilégie la "quantité à la qualité". Le Guardian a également consacré un article à cet outil de ciblage assisté par IA, qui explique en grande partie le nombre élevé de frappes dans l'enclave palestinienne. Cet Evangile, pour autant, ne date pas d'hier. 

Tout débute en 2019, sur la base militaire de Glilot, près de Tel-Aviv. C'est ici que la "direction des cibles" travaille dans le secret, sous l'autorité de la direction du renseignement militaire israélien (Aman). Divisée en trois branches (technologique, recherche et opérationnelle), elle rassemble plusieurs centaines de personnes issues de toute l'armée, expliquait à YNet Aviv Kochavi, ancien chef d'état-major de Tsahal. Parmi les outils dont elle dispose, figure Habsora, développé par l'unité 8200, spécialisée dans la guerre électronique.

"Un des défis principaux aujourd'hui pour les armées les plus avancées dans le monde est de traiter le vaste volume de données provenant de sources multiples", écrivait en 2022 la chercheuse israélienne Liran Antebi dans la revue militaire Vortex, éditée par le Centre d'études stratégiques aérospatiales français (Cesa). Les équipes cyber, ici, semblent être parvenues à fusionner plusieurs "capteurs" (imagerie satellite, écoutes, renseignement humain et électronique, etc) dans un même algorithme.

"Produire des cibles à un rythme rapide"

Leur outil est capable d'analyser les bases de données du renseignement et plus largement de l'armée, puis d'en croiser les informations. Apparaissent alors des objectifs potentiels, qui sont versés dans une banque de cibles. Celles-ci sont ensuite soumises au commandement militaire, pour examen et validation.

L'armée israélienne utilise d'autres outils d'intelligence artificielle, comme "Alchimiste", qui détecte en temps réel des cibles potentielles et facilite les ripostes en cas d'attaque du territoire, ainsi que "Profondeur de la sagesse", dont l'objet est de cartographier les sols et les sous-sols de la bande de Gaza, pour rechercher des tunnels et des infrastructures cachées du Hamas.

Selon l'armée israélienne, un premier test d'Habsora a été couronné de succès en 2019 lors de l'opération "Ceinture noire". Deux ans plus tard, lors de l'opération "Gardien des murailles", Tsahal s'est félicitée d'avoir conduit la première guerre menée par IA. Durant les hostilités, le programme a permis de générer une centaine de cibles tous les jours, expliquait fin juin l'ancien chef d'état-major Aviv Kochavi, contre "50 cibles par an à Gaza" précédemment.

"Lors des 12 jours de l'opération, les forces de défense israéliennes ont dévoilé 200 objectifs de haute valeur (...). Il y a quelques années, un tel effort aurait nécessité une année entière."

Liran Antebi, professeure à l'Israeli Air Force Academica

dans la revue "Vortex", en juin 2022


Un officier a déclaré en octobre au Jerusalem Post que l'armée était désormais capable de produire davantage de cibles qu'elle ne pouvait en frapper. Un porte-parole a publiquement confirmé que l'intelligence artificielle était sollicitée à grande échelle dans le conflit en cours, pour "produire des cibles à un rythme rapide". Plus de 15 000 objectifs avaient été frappés au 10 novembre, selon l'armée, et 400 dans les 24 heures qui ont suivi la fin de la trêve, le 1er décembre. Un autre outil d'intelligence artificielle, Fire Factory, offre une aide à la décision sur le type de missiles ou de munitions nécessaires à la mission.

Des milliers de morts dans les frappes

Comment ces recommandations sont-elles examinées par le commandement ? Et parmi elles, quelle part donne lieu à des frappes ? "Nous ne faisons aucun compromis sur la qualité du résultat et du renseignement, assurait Tsahal dans un communiqué, début décembre, évoquant alors des "attaques ciblées" sur les infrastructures liées au Hamas et un "préjudice minime pour les personnes non impliquées". Mais en réalité, il est impossible de connaître le détail du processus de décision, et d'en livrer une évaluation indépendante.

Des responsables de sécurité ont affirmé au Washington Post que 5 000 membres de l'organisation avaient été neutralisés. Pour autant, près de 16 000 personnes ont été tuées depuis le début de l'offensive, selon les autorités du territoire palestinien, qui recensent également 42 000 blessés. Et la grande majorité des victimes sont des femmes et des enfants. Le chercheur Richard Moyes, de l'ONG britannique Article 36, n'est donc pas convaincu par l'argument de la précision. "Nous assistons à la destruction massive d'une zone urbaine à l'aide d'armes explosives lourdes", commente-t-il auprès du Guardian.

Toujours dans le quotidien britannique, un ancien membre du département des cibles assure que certains officiers "ont davantage la gâchette facile que d'autres". Un autre, interrogé par +972, déclare que les équipes n'ont "pas le temps d'approfondir l'objectif", en raison du rythme imposé : "Nous préparons les cibles automatiquement, avec une liste de contrôle. C'est vraiment comme une usine."

Un outil à la disposition du politique

L'intelligence artificielle est-elle responsable des milliers de morts ? Si certains observateurs soulignent la multiplication des cibles, et donc des frappes, d'autres rappellent que la doctrine d'emploi et les décisions relèvent toujours de l'humain. L'IA a d'ailleurs "amélioré et accéléré l'étendue, la capacité et la létalité des processus en temps réel de ciblage, relevait Liran Antebi dans son analyse de l'opération de 2021. Cette méthode a assuré une meilleure efficacité".

L'armée israélienne évalue aujourd'hui les effectifs du Hamas autour de 30 000 membres, qui sont autant de cibles dans cette opération, quel que soit leur rang, même quand ils vivent en surface, au milieu des habitants. "Auparavant, nous ne marquions pas systématiquement les maisons des membres subalternes du Hamas pour les bombarder", commente un responsable interrogé par +972.

La volonté de générer un nombre très élevé de cibles, confirme un autre interlocuteur du site, est au service d'une volonté politique inspirée par la doctrine Dahiya. Celle-ci, en résumé, prône la disproportion dans les représailles contre des zones civiles servant de bases au Hamas. Avec pour objectif de dissuader l'organisation terroriste de lancer de futures attaques contre Israël.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.