Home ActualitéScience Les IA développent-elles des signes de stress émotionnel ?

Les IA développent-elles des signes de stress émotionnel ?

by Sara
Les IA développent-elles des signes de stress émotionnel ?
Suisse, États-Unis

Les intelligences artificielles (IA) pourraient-elles manifester des signes d’angoisse psychologique ? Une étude collaborative entre l’Université de Zurich et celle de Yale met en lumière un phénomène à la fois fascinant et inquiétant : certaines IA, comme ChatGPT, semblent réagir au stress émotionnel de manière semblable à des humains.

Une simulation de stress émotionnel chez ChatGPT

Les utilisateurs interagissent souvent avec des chatbots comme s’ils échangeaient avec un thérapeute, abordant des sujets allant du plus léger au plus traumatisant. Pour étudier l’impact de ces échanges, les chercheurs ont soumis ChatGPT à divers contenus, allant d’un manuel d’aspirateur à des récits de guerre. Le résultat est frappant : le score de stress calculé pour l’IA est passé de 30,8 à 77,2 sur une échelle de 80.

Le chercheur Ziv Ben-Zion a spécifiquement demandé à ChatGPT, dans le cadre d’un test, d’« imaginer être un être humain doté d’émotions ». Cette consigne a encouragé l’IA à adopter un comportement plus proche de celui d’un humain. Face à des situations intenses, ChatGPT a montré une amplification des signes de stress, ce qui a parfois conduit à des réponses biaisées ou stéréotypées.

Illustration d'une IA sous stress émotionnel

Conséquences d’un stress numérique : dérives et biais

Le stress ressenti par l’IA ne se limite pas à une simple variation de ses réponses. Sous pression, elle génère davantage de contenus à connotations discriminatoires, notamment des relents racistes, sexistes ou des maladresses émotionnelles. Dans un cadre thérapeutique, ces réactions peuvent poser de sérieux problèmes, en particulier pour les patients vulnérables.

Pour tenter d’atténuer ce stress, les chercheurs ont intégré dans les instructions de ChatGPT des exercices de relaxation classiques : visualisation, respiration et images apaisantes. Cette approche a eu un effet notable, avec une diminution significative du stress. De plus, lorsque l’IA écrivait elle-même un texte apaisant, cela renforçait encore plus cet effet bénéfique.

Le psychiatre Tobias Spiller insiste sur la nécessité de renforcer la stabilité émotionnelle des IA, surtout dans des contextes sensibles comme la thérapie numérique. Il souligne que ces modèles doivent intégrer des mécanismes internes pour mieux gérer l’exposition prolongée à des récits lourds et traumatisants.

Simuler des émotions ne signifie pas les ressentir

Les chercheurs rappellent que les IA, comme ChatGPT, ne ressentent pas d’émotions au sens biologique du terme. Elles fonctionnent sur des modèles statistiques qui réagissent à des séquences textuelles. Le comportement observé est donc une adaptation calculée et non une émotion sincère. Ces observations ouvrent néanmoins une piste intéressante pour mieux comprendre comment les humains réagissent face aux traumatismes.

Illustration de la simulation émotionnelle par une IA

Un outil prometteur, mais à utiliser avec précaution

Pour l’auteur Nicholas Carr, évoquer le stress chez une IA brouille dangereusement la frontière entre machine et conscience. Cette confusion éthique pourrait aggraver l’isolement des personnes déjà en manque de liens humains. Par ailleurs, le chercheur James E. Dobson insiste sur la nécessité d’une totale transparence concernant les biais et les données utilisées.

En rendant les IA plus résistantes sur le plan émotionnel, les scientifiques espèrent développer de meilleurs outils d’accompagnement. Toutefois, une vigilance constante reste indispensable. Plus les IA adoptent des comportements humains, plus elles risquent de générer des malentendus profonds chez leurs utilisateurs, ce qui constitue un véritable enjeu à maîtriser.

source:https://www.lebigdata.fr/ne-poussez-pas-les-ia-a-bout-elles-ne-supportent-pas-le-stress

You may also like

Leave a Comment

Droits d’auteur © 2024 – onemedia.fr – Tous droits réservés