More

    Israël utilise l’IA pour cibler Gaza : enquête sur les systèmes Lavander et Azure

    Israël, Palestine, États-Unis

    À l’aube d’un nouveau tournant historique, la découverte de l’arme atomique en 1945 a fait naître une double promesse : énergie abondante d’un côté et menace d’anéantissement de l’autre. Aujourd’hui, le terrain de cette double contradiction n’est plus une plaine désertique mais l’espace numérique. Le développement de l’intelligence artificielle militaire pose des enjeux comparables : progrès spectaculaire et risques d’usage destructeur.

    Les systèmes d’IA peuvent accélérer la médecine, l’innovation et la planification, tout en offrant des capacités de surveillance, d’automatisation des frappes et de manipulation de l’information. Cette dualité met en péril non seulement des vies, mais aussi la vérité, la confiance et la liberté d’action.

    Depuis les événements du 7 octobre et l’intensification des frappes sur la bande de Gaza, des éléments laissent penser que l’intelligence artificielle a été intégrée aux opérations militaires, changeant la nature de la prise de décision et des responsabilités humaines.

    Les données mortelles

    Le 6 août 2025, le Guardian a publié un article faisant état d’une implication d’Azure, le service cloud de Microsoft, avec l’unité 8200 de l’armée israélienne, dans le stockage de millions d’enregistrements d’appels des 2,3 millions d’habitants de la bande de Gaza (voir https://www.aljazeera.net/encyclopedia/2010/12/15/%D8%A5%D8%B3%D8%B1%D8%A7%D8%A6%D9%8A%D9%84 pour l’unité 8200).

    Selon le reportage, ces enregistrements font partie d’un vaste dispositif de surveillance informatisée qui considère la population de Gaza comme une source potentielle de menaces. Les données massives servent d’« essence » aux systèmes d’IA utilisés pour la classification, le pistage et la décision opérationnelle.

    Des éléments indiquent que l’armée israélienne a développé une « trilogie mortelle » composée de trois systèmes d’IA :

    • Lavender : un système de recommandation et de classement des individus.
    • Where’s Dady : un système de suivi et de classification des signaux.
    • The Gospel : un système similaire à Lavender mais appliqué aux infrastructures.

    Ces systèmes automatisent l’analyse et, selon les rapports, influencent le choix des cibles pour des frappes aériennes, avec un minimum de supervision humaine.

    Le recours au cloud pour stocker et traiter ces volumes de données expliquerait l’implication de Microsoft et le recours à des spécialistes externes pour développer certains composants logiciels (référence : https://www.aljazeera.net/encyclopedia/2016/1/13/%D9%85%D8%A7%D9%8A%D9%83%D8%B1%D9%88%D8%B3%D9%88%D9%81%D8%AA-%D8%B9%D9%85%D9%84%D8%A7%D9%82-%D8%A8%D8%B1%D9%85%D8%AC%D9%8A%D8%A7%D8%AA-%D8%A7%D9%84%D8%AD%D8%A7%D8%B3%D9%88%D8%A8).

    Image

    Manifestation en soutien aux Palestiniens près de la conférence Microsoft Build à Seattle, lors du conflit en cours entre Israël et le groupe islamiste palestinien Hamas. Image Reuters (mai 2024).

    Manifestation appelant à la fin des contrats Azure entre Microsoft et Israël, Seattle, mai 2024

    Comment Lavender a-t‑il surpassé la bombe nucléaire ?

    La question centrale est glaçante : combien de morts civils ces systèmes ont-ils « proposé » lors du déclenchement des opérations ? Pour répondre, il faut comprendre la logique de Lavender.

    Lavender est conçu pour identifier et évaluer les personnes susceptibles de collaborer avec le Hamas en se basant sur des modèles extraits de données. Le système apprend des comportements connus de membres arrêtés ou identifiés, puis recherche des schémas similaires parmi la population générale.

    Chaque personne reçoit une note sur 100. Même une note faible entraîne, selon la logique rapportée, la qualification d’« objectif vérifié ». Les rapports initiaux affirment que le système pouvait atteindre une précision annoncée de 90 %.

    Les démons des chiffres et des modèles

    Cette précision revendiquée soulève plusieurs contradictions techniques et éthiques. En apprentissage automatique, un modèle entraîné sur un échantillon limité tend à mal généraliser lorsque l’échelle s’élargit.

    Les données nécessaires pour reproduire un système comme Lavender seraient énormes : profils de communication, fréquences d’appels, contacts, présences géographiques, changements d’identifiants, listes de contacts, activité sur les réseaux sociaux, etc.

    Trois questions cruciales émergent :

    • Que signifie réellement une « précision » de 90 % dans ce contexte ?
    • Cette précision reflète‑t‑elle un apprentissage sur un jeu de données clos ou la réalité sur le terrain ?
    • Le système a‑t‑il été testé sur des jeux de données « filtrés » pour produire des résultats favorables ?

    Des précédents montrent que des modèles peuvent « mémoriser » des jeux de test s’ils ont été inclus dans les données d’entraînement, faussant ainsi les résultats affichés lors des évaluations (un cas évoqué concerne le modèle Phi‑3 de Microsoft).

    Calcul macabre des « dommages collatéraux »

    Selon les premières indications, après le 7 octobre, Lavender aurait été ajusté pour identifier environ 37 000 personnes considérées comme suspectes dans la bande de Gaza.

    Si l’on applique les hypothèses rapportées :

    • Pour des suspects classés à faible risque, chaque élimination pourrait entraîner en moyenne 15 victimes civiles « accompagnantes ».
    • Pour des suspects classés à risque élevé, ce nombre pourrait atteindre 100 victimes civiles en même temps, en raison de l’usage de bombes non guidées.

    Dans un scénario théorique où tous les 37 000 suspects sont traités et que le ratio bas s’applique, le bilan potentiel des victimes civiles atteindrait des centaines de milliers — un chiffre qui dépasserait même le total combiné des victimes des bombes d’Hiroshima et de Nagasaki.

    Ces calculs illustrent comment une erreur systématique relative de 10 % peut se traduire par des pertes humaines catastrophiques : un faux positif sur dix signifierait qu’un nombre substantiel de personnes innocentes pourrait être pris pour cible.

    Les « cadavres » de l’automatisation

    Un autre problème majeur est l’automatisation poussée qui réduit la supervision humaine. Des rapports évoquent une revue humaine des décisions de frappe limitée à seulement 20 secondes.

    Dans ces conditions, les erreurs de généralisation, les biais d’échantillonnage, les défauts de formation et les erreurs d’automatisation peuvent persister sans correction adéquate.

    Deux questions éthiques s’imposent :

    • Qui assume la responsabilité lorsque l’IA se trompe et tue des civils ?
    • La technologie a‑t‑elle été conçue pour exterminer, en faisant fi des précautions élémentaires, ou ces erreurs sont‑elles « non intentionnelles » mais prévisibles ?

    Certains experts craignent que Gaza serve de terrain d’entraînement réel pour perfectionner des systèmes d’IA militaires, avant leur commercialisation ou leur déploiement plus large.

    Questions ouvertes et enjeux internationaux

    Les allégations d’utilisation d’Azure pour stocker des données massives et l’existence de systèmes comme Lavender mettent en lumière des responsabilités partagées entre acteurs militaires et fournisseurs technologiques.

    Plusieurs interrogations persistent :

    • Les fournisseurs de services cloud et de solutions d’IA acceptent‑ils la portée réelle de leur technologie lorsqu’elle est intégrée à des opérations létales ?
    • Les cadres juridiques et éthiques internationaux sont‑ils adaptés pour encadrer l’usage d’intelligence artificielle militaire dans des conflits asymétriques ?
    • Comment garantir transparence, auditabilité et responsabilité lorsque des décisions de vie ou de mort sont influencées par des algorithmes ?

    La question dépasse les frontières : il s’agit de définir des normes globales pour empêcher que la « promesse » de l’IA ne se transforme en mécanisme d’extermination automatisée.

    Dernières réflexions

    L’intégration d’intelligences artificielles dans des cadres militaires soulève un dilemme moral et stratégique majeur. Les avantages potentiels en matière de sécurité et d’efficacité peuvent rapidement se muer en risques inacceptables lorsque la précision annoncée n’est pas garantie et que la surveillance humaine est minimale.

    La tragédie en cours à Gaza illustre les conséquences humaines de choix technologiques et politiques. Au‑delà des débats techniques, le défi reste de préserver la vie humaine et le respect du droit international face aux promesses et aux périls de l’intelligence artificielle militaire.

    source:https://www.aljazeera.net/politics/2025/9/4/%d9%85%d8%a7%d8%b0%d8%a7-%d8%aa%d8%b9%d8%b1%d9%81-%d8%b9%d9%86-%d8%a7%d9%84%d9%82%d8%a7%d8%aa%d9%84-%d8%a7%d9%84%d8%a3%d8%b9%d9%85%d9%89-%d8%a7%d9%84%d8%a5%d8%b3%d8%b1%d8%a7%d8%a6%d9%8a%d9%84%d9%8a

    LAISSER UN COMMENTAIRE

    S'il vous plaît entrez votre commentaire!
    S'il vous plaît entrez votre nom ici


    Actualités

    L’acteur de Friends, Matthew Perry, décède à 54 ans

    "Matthew Perry, célèbre pour son rôle de Chandler Bing dans Friends, décède à 54 ans. Acteur très apprécié, sa mort suscite l'émotion mondiale."

    Entité sioniste déploie des navires de guerre en Mer Rouge selon un expert militaire

    Entité sioniste déploie des navires de guerre en Mer Rouge pour contrer les Houthis au Yémen, une manœuvre vue comme une démonstration de force envers l'Iran.

    L’affaire des SMS entre Pfizer et la Commission européenne : ce qu’il faut savoir

    En avril 2021, le New York Times a révélé...

    Banque suisse : Credit Suisse en chute libre après la faillite de la SVB

    L'action de Credit Suisse a dévissé de plus de...

    Le Retour de Microsoft avec Bing et Edge : Une Menace pour Google ?

    Depuis moins de trois mois, ChatGPT a déjà créé...

    États-Unis : trois morts dans une nouvelle attaque navale dans le Pacifique

    Les États-Unis ont mené une nouvelle frappe dans le Pacifique Est, tuant trois personnes accusées de narcotrafic. Les ONG dénoncent des exécutions.

    Trump annonce un échange entre les dirigeants d’Israël et du Liban

    Trump annonce un échange historique entre les dirigeants d’Israël et du Liban, alors que les frappes et tensions se poursuivent au Liban.

    Conflit Iran-États-Unis : le Pakistan relance les négociations

    Le Pakistan intensifie sa médiation pour relancer les négociations Iran-États-Unis, sur fond de tensions au détroit d’Ormuz.

    Haïti : deux responsables limogés après la bousculade de la Citadelle

    En Haïti, deux responsables ont été limogés après la bousculade à la Citadelle de la Laferrière qui a fait 25 morts.

    Pétroliers sanctionnés traversent le détroit d’Ormuz malgré le blocus américain

    Des pétroliers sanctionnés franchissent le détroit d'Ormuz malgré le blocus américain, ravivant les tensions entre l'Iran, les États-Unis et la Chine.

    L’armée américaine menace de bloquer les ports iraniens lundi

    Les États-Unis annoncent un blocage des ports iraniens dès lundi, ravivant les tensions avec l’Iran et faisant bondir les prix du pétrole.

    Élections en Hongrie : Orban face à son plus grand défi

    En Hongrie, Viktor Orban affronte Peter Magyar dans un scrutin décisif, marqué par une participation record et des enjeux pour l’UE et l’Ukraine.

    Nigéria : des dizaines de morts dans une frappe aérienne

    Au Nigeria, une frappe de l'armée sur un marché du village de Jilli aurait fait plus de 100 morts, selon Amnesty International.

    à Lire

    Categories