Home ActualitéSécurité et défenseIsraël utilise l’IA pour cibler Gaza : enquête sur les systèmes Lavander et Azure

Israël utilise l’IA pour cibler Gaza : enquête sur les systèmes Lavander et Azure

by Sara
Israël, Palestine, États-Unis

À l’aube d’un nouveau tournant historique, la découverte de l’arme atomique en 1945 a fait naître une double promesse : énergie abondante d’un côté et menace d’anéantissement de l’autre. Aujourd’hui, le terrain de cette double contradiction n’est plus une plaine désertique mais l’espace numérique. Le développement de l’intelligence artificielle militaire pose des enjeux comparables : progrès spectaculaire et risques d’usage destructeur.

Les systèmes d’IA peuvent accélérer la médecine, l’innovation et la planification, tout en offrant des capacités de surveillance, d’automatisation des frappes et de manipulation de l’information. Cette dualité met en péril non seulement des vies, mais aussi la vérité, la confiance et la liberté d’action.

Depuis les événements du 7 octobre et l’intensification des frappes sur la bande de Gaza, des éléments laissent penser que l’intelligence artificielle a été intégrée aux opérations militaires, changeant la nature de la prise de décision et des responsabilités humaines.

Les données mortelles

Le 6 août 2025, le Guardian a publié un article faisant état d’une implication d’Azure, le service cloud de Microsoft, avec l’unité 8200 de l’armée israélienne, dans le stockage de millions d’enregistrements d’appels des 2,3 millions d’habitants de la bande de Gaza (voir https://www.aljazeera.net/encyclopedia/2010/12/15/%D8%A5%D8%B3%D8%B1%D8%A7%D8%A6%D9%8A%D9%84 pour l’unité 8200).

Selon le reportage, ces enregistrements font partie d’un vaste dispositif de surveillance informatisée qui considère la population de Gaza comme une source potentielle de menaces. Les données massives servent d’« essence » aux systèmes d’IA utilisés pour la classification, le pistage et la décision opérationnelle.

Des éléments indiquent que l’armée israélienne a développé une « trilogie mortelle » composée de trois systèmes d’IA :

  • Lavender : un système de recommandation et de classement des individus.
  • Where’s Dady : un système de suivi et de classification des signaux.
  • The Gospel : un système similaire à Lavender mais appliqué aux infrastructures.

Ces systèmes automatisent l’analyse et, selon les rapports, influencent le choix des cibles pour des frappes aériennes, avec un minimum de supervision humaine.

Le recours au cloud pour stocker et traiter ces volumes de données expliquerait l’implication de Microsoft et le recours à des spécialistes externes pour développer certains composants logiciels (référence : https://www.aljazeera.net/encyclopedia/2016/1/13/%D9%85%D8%A7%D9%8A%D9%83%D8%B1%D9%88%D8%B3%D9%88%D9%81%D8%AA-%D8%B9%D9%85%D9%84%D8%A7%D9%82-%D8%A8%D8%B1%D9%85%D8%AC%D9%8A%D8%A7%D8%AA-%D8%A7%D9%84%D8%AD%D8%A7%D8%B3%D9%88%D8%A8).

Image

Manifestation en soutien aux Palestiniens près de la conférence Microsoft Build à Seattle, lors du conflit en cours entre Israël et le groupe islamiste palestinien Hamas. Image Reuters (mai 2024).

Manifestation appelant à la fin des contrats Azure entre Microsoft et Israël, Seattle, mai 2024

Comment Lavender a-t‑il surpassé la bombe nucléaire ?

La question centrale est glaçante : combien de morts civils ces systèmes ont-ils « proposé » lors du déclenchement des opérations ? Pour répondre, il faut comprendre la logique de Lavender.

Lavender est conçu pour identifier et évaluer les personnes susceptibles de collaborer avec le Hamas en se basant sur des modèles extraits de données. Le système apprend des comportements connus de membres arrêtés ou identifiés, puis recherche des schémas similaires parmi la population générale.

Chaque personne reçoit une note sur 100. Même une note faible entraîne, selon la logique rapportée, la qualification d’« objectif vérifié ». Les rapports initiaux affirment que le système pouvait atteindre une précision annoncée de 90 %.

Les démons des chiffres et des modèles

Cette précision revendiquée soulève plusieurs contradictions techniques et éthiques. En apprentissage automatique, un modèle entraîné sur un échantillon limité tend à mal généraliser lorsque l’échelle s’élargit.

Les données nécessaires pour reproduire un système comme Lavender seraient énormes : profils de communication, fréquences d’appels, contacts, présences géographiques, changements d’identifiants, listes de contacts, activité sur les réseaux sociaux, etc.

Trois questions cruciales émergent :

  • Que signifie réellement une « précision » de 90 % dans ce contexte ?
  • Cette précision reflète‑t‑elle un apprentissage sur un jeu de données clos ou la réalité sur le terrain ?
  • Le système a‑t‑il été testé sur des jeux de données « filtrés » pour produire des résultats favorables ?

Des précédents montrent que des modèles peuvent « mémoriser » des jeux de test s’ils ont été inclus dans les données d’entraînement, faussant ainsi les résultats affichés lors des évaluations (un cas évoqué concerne le modèle Phi‑3 de Microsoft).

Calcul macabre des « dommages collatéraux »

Selon les premières indications, après le 7 octobre, Lavender aurait été ajusté pour identifier environ 37 000 personnes considérées comme suspectes dans la bande de Gaza.

Si l’on applique les hypothèses rapportées :

  • Pour des suspects classés à faible risque, chaque élimination pourrait entraîner en moyenne 15 victimes civiles « accompagnantes ».
  • Pour des suspects classés à risque élevé, ce nombre pourrait atteindre 100 victimes civiles en même temps, en raison de l’usage de bombes non guidées.

Dans un scénario théorique où tous les 37 000 suspects sont traités et que le ratio bas s’applique, le bilan potentiel des victimes civiles atteindrait des centaines de milliers — un chiffre qui dépasserait même le total combiné des victimes des bombes d’Hiroshima et de Nagasaki.

Ces calculs illustrent comment une erreur systématique relative de 10 % peut se traduire par des pertes humaines catastrophiques : un faux positif sur dix signifierait qu’un nombre substantiel de personnes innocentes pourrait être pris pour cible.

Les « cadavres » de l’automatisation

Un autre problème majeur est l’automatisation poussée qui réduit la supervision humaine. Des rapports évoquent une revue humaine des décisions de frappe limitée à seulement 20 secondes.

Dans ces conditions, les erreurs de généralisation, les biais d’échantillonnage, les défauts de formation et les erreurs d’automatisation peuvent persister sans correction adéquate.

Deux questions éthiques s’imposent :

  • Qui assume la responsabilité lorsque l’IA se trompe et tue des civils ?
  • La technologie a‑t‑elle été conçue pour exterminer, en faisant fi des précautions élémentaires, ou ces erreurs sont‑elles « non intentionnelles » mais prévisibles ?

Certains experts craignent que Gaza serve de terrain d’entraînement réel pour perfectionner des systèmes d’IA militaires, avant leur commercialisation ou leur déploiement plus large.

Questions ouvertes et enjeux internationaux

Les allégations d’utilisation d’Azure pour stocker des données massives et l’existence de systèmes comme Lavender mettent en lumière des responsabilités partagées entre acteurs militaires et fournisseurs technologiques.

Plusieurs interrogations persistent :

  • Les fournisseurs de services cloud et de solutions d’IA acceptent‑ils la portée réelle de leur technologie lorsqu’elle est intégrée à des opérations létales ?
  • Les cadres juridiques et éthiques internationaux sont‑ils adaptés pour encadrer l’usage d’intelligence artificielle militaire dans des conflits asymétriques ?
  • Comment garantir transparence, auditabilité et responsabilité lorsque des décisions de vie ou de mort sont influencées par des algorithmes ?

La question dépasse les frontières : il s’agit de définir des normes globales pour empêcher que la « promesse » de l’IA ne se transforme en mécanisme d’extermination automatisée.

Dernières réflexions

L’intégration d’intelligences artificielles dans des cadres militaires soulève un dilemme moral et stratégique majeur. Les avantages potentiels en matière de sécurité et d’efficacité peuvent rapidement se muer en risques inacceptables lorsque la précision annoncée n’est pas garantie et que la surveillance humaine est minimale.

La tragédie en cours à Gaza illustre les conséquences humaines de choix technologiques et politiques. Au‑delà des débats techniques, le défi reste de préserver la vie humaine et le respect du droit international face aux promesses et aux périls de l’intelligence artificielle militaire.

source:https://www.aljazeera.net/politics/2025/9/4/%d9%85%d8%a7%d8%b0%d8%a7-%d8%aa%d8%b9%d8%b1%d9%81-%d8%b9%d9%86-%d8%a7%d9%84%d9%82%d8%a7%d8%aa%d9%84-%d8%a7%d9%84%d8%a3%d8%b9%d9%85%d9%89-%d8%a7%d9%84%d8%a5%d8%b3%d8%b1%d8%a7%d8%a6%d9%8a%d9%84%d9%8a

You may also like

Leave a Comment