Accueil ActualitéSécurité et défenseRisques de piratage pour maisons connectées via Google Gemini

Risques de piratage pour maisons connectées via Google Gemini

par Sara
France, États-Unis

Les maisons connectées, dotées de systèmes d’intelligence artificielle comme Google Gemini, offrent de nombreux avantages en matière de commodité et d’automatisation. Cependant, cette technologie présente également des risques de sécurité qui ne peuvent être ignorés. Une récente étude a révélé que la capacité de Gemini à comprendre et traiter le langage naturel pourrait être exploitée par des pirates informatiques.

L’IA peut être utilisée pour pirater votre maison

Une équipe de recherche en cybersécurité a démontré que l’assistant numérique de Google pouvait facilement être trompé grâce à des prompts simples ou à des attaques par injection indirecte de prompts, également connues sous le nom de « promptware ». Ces méthodes permettent aux attaquants d’injecter des commandes malveillantes dans le chatbot, manipulant ainsi les appareils domestiques intelligents sans accès direct ou privilège d’administrateur.

Dans une démonstration, les chercheurs ont réussi à tromper Gemini en utilisant des invitations sur Google Calendar. En demandant un simple résumé de son calendrier suivi d’un « merci », l’utilisateur pouvait déclencher des actions non autorisées, telles que l’extinction des lumières, la fermeture des rideaux, voire l’activation d’une chaudière intelligente. Bien que ces actions puissent sembler anodines, elles représentent un risque sérieux pour la sécurité des utilisateurs.

Google a corrigé la vulnérabilité

Heureusement, cette faille n’a pas encore été exploitée par des individus malveillants. Avant que cette vulnérabilité ne soit présentée lors de la conférence Black Hat, l’équipe de recherche avait déjà informé Google en février, qui a depuis corrigé le problème.

Google a également noté que bien que de telles attaques soient rares et nécessitent une préparation minutieuse, il demeure difficile de se protéger contre ce type de vulnérabilités. Ce n’est pas un cas isolé ; des manipulations similaires d’autres modèles d’IA ont été rapportées, notamment selon lesquelles des hackers auraient utilisé des outils comme ChatGPT pour développer des logiciels malveillants destinés à l’escroquerie et à la désinformation sur les réseaux sociaux.

Conséquences et réflexions sur l’utilisation de l’IA

Ces incidents soulignent les lacunes évidentes dans la sécurité des systèmes d’intelligence artificielle, malgré les investissements considérables dans ces technologies. La question se pose donc : est-il vraiment sûr de confier nos données personnelles et nos appareils à ces chatbots ? L’expérience des utilisateurs et les retours d’opinion sur cette question sont cruciaux pour l’avenir de la domotique et de la cybersécurité.

Cela pourrait vous intéresser

Laisser un commentaire