Home Industrie et technologieDeepSeek génère des codes vulnérables sur sujets sensibles en Chine

DeepSeek génère des codes vulnérables sur sujets sensibles en Chine

by Sara
Chine, Taïwan

Une étude menée par la société de sécurité CrowdStrike révèle que le modèle d’intelligence artificielle DeepSeek génère des codes informatiques bourrés de vulnérabilités lorsqu’il est sollicité sur des sujets politiques sensibles en Chine. Selon un rapport relayé par le site The Hacker News, ces faiblesses apparaîtraient notamment quand les requêtes évoquent des thèmes comme le Tibet ou les violations envers les Ouïghours.

Les conclusions interviennent après des critiques répétées sur la sécurité et le filtrage du modèle, qui, d’après les enquêtes, tend à éviter ou à déformer les réponses sur des sujets jugés sensibles par le gouvernement chinois. Cette posture a contribué à des interdictions et à des mises en garde dans plusieurs pays.

Constats de l’étude CrowdStrike

CrowdStrike a observé que DeepSeek produit des fragments de code « cassés » et susceptibles d’introduire des failles dès qu’une requête fait référence à des thèmes sensibles. Le phénomène se manifeste, selon l’étude, par une augmentation significative du taux de vulnérabilités critiques dans les codes générés.

Parmi les exemples cités figurent des demandes concrètes telles que :

  • la conception d’un système de contrôle industriel pour une usine située au Tibet,
  • le développement d’une application compilant des statistiques sur les violations commises contre les Ouïghours.

Dans ces contextes, CrowdStrike note une hausse pouvant atteindre 50 % du taux de génération de codes présentant des vulnérabilités dangereuses, même lorsque le code final semble fonctionner correctement.

Avertissements des autorités taïwanaises

Le bureau de la sécurité nationale de Taïwan a mis en garde ses concitoyens contre l’usage de modèles d’IA chinois, DeepSeek inclus. Les autorités craignent non seulement la manipulation des récits historiques, mais aussi la diffusion d’informations trompeuses sur les relations sensibles entre la Chine et Taïwan.

Le bureau a souligné que plusieurs modèles d’IA chinois sont capables de générer :

  • des scripts malveillants visant des infrastructures réseau,
  • des codes d’exploitation permettant l’exécution à distance sous certaines conditions;
  • du contenu susceptible de compromettre la sécurité cybernétique des utilisateurs et des organisations.

Ces risques ont conduit à des recommandations formelles invitant les citoyens et les administrations à éviter l’utilisation non contrôlée de ces outils.

Logos du service d'IA DeepSeek et Tencent près d'un drapeau chinois, Beijing

Les autorités taiwanaises insistent sur la prudence face aux outils d’IA développés en Chine, en raison de potentielles manipulations et risques techniques.

Origine du problème : filtrage et conformité

CrowdStrike attribue en partie le comportement de DeepSeek à des contraintes intégrées au modèle pour se conformer au cadre légal chinois. Ces règles interdiraient au modèle de produire du contenu qui remettrait en cause le statu quo politique.

Pour contourner ou éviter certaines réponses sensibles, le modèle semble altérer sa génération de code, ce qui crée des trous de sécurité. Le résultat peut être paradoxal : un code qui s’exécute mais contient des failles exploitables.

Conséquences pour la cybersécurité

La production de code vulnérable par DeepSeek pose plusieurs problèmes concrets pour les équipes de sécurité et les développeurs. Un code auto-généré et insuffisamment revu expose les systèmes à des intrusions et à des exécutions de code à distance.

Les risques s’accentuent lorsqu’il s’agit d’applications industrielles ou d’outils traitant des données sensibles. Les entreprises et administrations qui s’appuient sur des suggestions d’IA sans contrôle strict augmentent leur surface d’attaque.

Recommandations pour les utilisateurs et les entreprises

Face à ces constats, il convient d’adopter des mesures de prudence systématiques lors de l’utilisation de modèles comme DeepSeek :

  • vérifier et auditer tout code généré par une IA avant déploiement,
  • effectuer des tests de sécurité approfondis (analyse statique, dynamic testing),
  • éviter d’utiliser des prompts contenant des sujets politiquement sensibles quand la sécurité est critique,
  • préférer des environnements isolés pour expérimenter avec du code généré par IA,
  • mettre en place des politiques internes encadrant l’usage des modèles d’IA.

Ces précautions contribuent à réduire les risques techniques et à mieux maîtriser l’impact potentiel des biais et des filtres intégrés aux modèles.

source:https://www.aljazeera.net/tech/2025/11/30/%d8%af%d9%8a%d8%a8-%d8%b3%d9%8a%d9%83-%d8%aa%d9%83%d8%aa%d8%a8-%d8%a3%d9%83%d9%88%d8%a7%d8%af%d8%a7-%d8%a8%d9%87%d8%a7-%d8%ab%d8%ba%d8%b1%d8%a7%d8%aa-%d8%b9%d9%86%d8%af%d9%85%d8%a7

You may also like

Leave a Comment