Table of Contents
À Doha, en marge d’un colloque sur l’éthique de l’intelligence artificielle organisé par l’université Hamad Bin Khalifa, Al Jazeera a rencontré l’ingénieure marocaine Ibthihal Abu Al-Saad. Elle s’est fait remarquer internationalement après avoir interrompu la prise de parole du directeur de l’IA chez Microsoft lors du 50e anniversaire de l’entreprise, dénonçant selon elle « la mise au service de la technologie pour alimenter la machine de guerre israélienne ».
Sa prise de position relance le débat sur la place de l’éthique dans le développement technologique et sur le rôle des ingénieurs et chercheurs pour empêcher que l’intelligence artificielle ne devienne un levier de destruction.
Comment l’intelligence artificielle est utilisée dans les conflits
Ibthihal Abu Al-Saad distingue deux volets qui rendent l’intelligence artificielle particulièrement dangereuse sur les champs de bataille.
-
Surveillance et analyse : Les technologies collectent d’énormes volumes de données — appels, messages, images — que les systèmes d’IA fusionnent, trient et résument automatiquement.
Ces traitements produisent des briques d’intelligence prêtes à l’emploi : résumés, listes de cibles et indicateurs opérationnels destinés aux décideurs. -
Prise de décision et frappes ciblées : L’IA n’est pas seulement un outil d’aide : elle peut être intégrée aux chaînes de décision pour établir des « listes d’objectifs » et guider des munitions.
Dans certains cas, ces systèmes peuvent opérer avec peu ou pas d’intervention humaine, accélérant et rendant plus létale la mécanique du meurtre.
Les entreprises technologiques : fournisseurs neutres ou partenaires des conflits ?
Abu Al-Saad s’appuie sur des témoignages internes pour affirmer que certains fournisseurs d’outils d’IA signent des contrats dédiés avec des armées, y compris avec des acteurs impliqués dans des crimes de guerre.
Pour elle, ces entreprises ne sont pas neutres : elles deviennent partenaires en fournissant des outils spécifiquement conçus pour augmenter la capacité de destruction. Le moteur principal est économique : tant que la demande existe et que les contrats sont lucratifs, le gain financier peut primer sur les questions éthiques.
(Voir une référence liée à Microsoft mentionnée lors de la discussion : https://www.aljazeera.net/encyclopedia/2016/1/13/%D9%85%D8%A7%D9%8A%D9%83%D8%B1%D9%88%D8%B3%D9%88%D9%81%D8%AA-%D8%B9%D9%85%D9%84%D8%A7%D9%82-%D8%A8%D8%B1%D9%85%D8%AC%D9%8A%D8%A7%D8%AA-%D8%A7%D9%84%D8%AD%D8%A7%D8%B3%D9%88%D8%A8).
Biais perçus et pistes de réponses proposées
Interrogée sur un possible biais des développeurs occidentaux envers les musulmans ou autres groupes, Abu Al-Saad propose plusieurs voies d’action parallèles et concrètes.
- Restriction et contrôle d’accès : Traiter certaines capacités d’IA comme des risques similaires à ceux des plateformes sociales, en envisageant des limitations d’accès ou des interdictions pour des usages dangereux.
- Développement d’alternatives locales : Investir dans des solutions arabes et islamiques afin de réduire la dépendance aux géants technologiques et limiter l’utilisation militaire criminelle des technologies.
- Conjuguer innovation et éthique : Intégrer l’éthique, la recherche et la régulation au même rythme que le développement technologique, plutôt que d’ajouter des garde-fous après coup.
Quel avenir pour les projets d’IA dans le monde arabe ?
Selon Abu Al-Saad, la région dispose des compétences humaines nécessaires, mais souffre d’un manque de capital et d’incitations économiques. Le défi principal reste d’aligner les ressources financières sur des ambitions de long terme.
Elle prône un équilibre entre trois axes :
- Investissement dans la recherche pour asseoir des bases scientifiques solides.
- Développement industriel pour produire des solutions compétitives sur le marché.
- Intégration systématique de cadres éthiques et législatifs à chaque étape du développement.
Abu Al-Saad appelle les fonds d’investissement et les capital-risqueurs à soutenir des projets alternatifs afin de stimuler un marché local capable de surmonter les craintes liées au faible rendement initial.
Alerte éthique et politique
Le message d’Ibthihal Abu Al-Saad dépasse la simple alerte technique : il s’agit d’un appel politique et moral. Elle pose un choix clair pour les sociétés et les décideurs.
Soit l’on construit des alternatives responsables où l’éthique et les droits humains sont au cœur du design, soit l’on reste consommateurs d’une technologie qui rend la guerre plus « intelligente » et plus brutale.