Table of Contents
Le lancement de ChatGPT à la fin de 2022 a marqué le début d’une nouvelle ère dans le domaine de l’intelligence artificielle générative. Depuis, ce chatbot est devenu bien plus qu’un simple outil technologique : il constitue désormais un compagnon quotidien pour des millions d’utilisateurs à travers le monde, utilisé pour tout, de la programmation aux séances de soutien psychologique alternatives.
Avec l’apparition de modèles plus avancés dotés de fonctions vocales, la capacité de ces robots à simuler les modes de communication humains s’est nettement améliorée. Cette évolution ouvre la voie à la formation de relations quasi-sociales entre les utilisateurs et les chatbots, soulevant ainsi des interrogations majeures sur l’impact émotionnel et social de cette intelligence artificielle, particulièrement en ce qui concerne les attachements affectifs qui se développent.
Les objectifs de la recherche d’OpenAI
Face aux préoccupations croissantes concernant les effets émotionnels potentiels des chatbots, notamment chez les jeunes utilisateurs et les personnes ayant des troubles de santé mentale, OpenAI a collaboré avec le laboratoire des médias de l’Institut de technologie du Massachusetts (MIT) pour mener une étude approfondie. Cette recherche visait à déterminer si une utilisation prolongée de ChatGPT accroît le sentiment de solitude.
Le projet a suivi plusieurs centaines de participants, observant leurs interactions avec le chatbot dans diverses activités, afin d’analyser les dimensions émotionnelles de ces échanges.
Le rôle des robots dans la réduction de la solitude
Une revue d’enquêtes s’est penchée sur l’efficacité des robots sociaux et des agents informatiques pour atténuer la solitude chez les personnes âgées. Les résultats mettent en évidence plusieurs bénéfices :
- offrir une compagnie,
- encourager les interactions sociales,
- faciliter la communication à distance,
- rappeler les activités sociales aux utilisateurs.
Cependant, des effets négatifs ont également été observés, comme la tristesse ressentie lors du retrait du robot. Si les robots montrent des promesses pour réduire la solitude, les recherches sur le rôle précis des agents informatiques restent limitées.
Le risque d’isolement lié à un usage excessif
Pour répondre à la question du lien entre usage intensif et isolement, deux études ont été réalisées par OpenAI et le MIT. La première a analysé l’utilisation spontanée du chatbot dans la vie quotidienne, tandis que la seconde a suivi environ mille participants sur quatre semaines.
Ces derniers interagissaient au minimum cinq minutes par jour avec ChatGPT, en mode texte ou vocal, avec un ton neutre ou émotionnel. Les résultats révèlent que la majorité des conversations étaient pragmatiques et utilitaires, telles que poser des questions, obtenir de l’aide ou résoudre des problèmes.
Les échanges émotionnels, comme le partage d’histoires personnelles ou la recherche de réconfort, étaient rares et concentrés chez un petit groupe d’utilisateurs. Pourtant, chez ces derniers, les liens affectifs étaient forts, avec un recours fréquent au soutien émotionnel.
Interaction accrue, isolement intensifié ?
Une comparaison du sentiment de solitude en début et fin d’étude montre que les utilisateurs occasionnels ressentent parfois de la solitude, surtout ceux ayant recours au mode vocal avec ton émotionnel.
Les usagers quotidiens, en particulier, ont fait état d’une augmentation du sentiment de solitude, d’une dépendance émotionnelle plus marquée et d’une diminution des interactions sociales avec des personnes réelles.
L’étude souligne que les participants initialement peu socialisés étaient plus enclins à utiliser intensivement ChatGPT, tandis que ceux se sentant socialement connectés au départ ont souvent réduit leur usage.
Le temps prolongé passé avec le chatbot a été associé à une baisse notable des interactions sociales dans la vie réelle.
Influence des sujets abordés et des traits de personnalité
Les conversations personnelles tendent à accroître le sentiment de solitude, bien que ces utilisateurs développent moins de dépendance émotionnelle envers le chatbot. En revanche, ceux se concentrant sur des sujets non personnels, tels que le brainstorming ou des tâches productives, sont plus susceptibles de devenir dépendants, notamment en cas d’utilisation intensive.
Les personnes facilement attachées émotionnellement signalent plus fréquemment des effets négatifs, comme la dépendance affective et le retrait des interactions sociales réelles.
Ces observations montrent que les traits de personnalité jouent un rôle clé dans la manière dont les individus sont affectés par leurs interactions avec les chatbots.
Par ailleurs, les femmes sont plus susceptibles que les hommes de réduire leurs interactions sociales réelles après quatre semaines d’usage, et les participants plus âgés manifestent une tendance plus forte à la dépendance émotionnelle envers les robots.
Quatre profils d’interactions identifiés
La recherche a distingué quatre types principaux de relations humaines avec ChatGPT :
- Profil socialement faible : solitude élevée et faible interaction sociale réelle.
- Profil dépendant de la technologie : forte dépendance émotionnelle envers le chatbot.
- Profil non émotionnel : faible interaction affective avec le robot, faible solitude, et interactions sociales réelles élevées.
- Profil intermittent : interaction occasionnelle sans attachement émotionnel fort.
Comprendre ces profils aide à identifier les utilisateurs à risque et à concevoir des mesures de protection ou de soutien adaptées.
Quand l’IA devient-elle un fardeau ?
Les résultats montrent que l’effet bénéfique de ChatGPT diminue avec l’usage répété : il atténue d’abord la solitude, mais finit par accroître l’isolement et la dépendance émotionnelle.
Bien que ChatGPT paraisse empathique, il existe une différence majeure entre parler avec un chatbot et interagir avec un être humain. Lors d’une communication humaine, le cerveau libère de l’ocytocine, hormone associée à la confiance et aux liens affectifs, ce qui ne se produit pas avec un chatbot.
Autrement dit, ChatGPT peut simuler la compassion sans la ressentir ni exiger une réponse émotionnelle de l’utilisateur.
En somme, malgré les avantages indéniables en termes de connaissance et de productivité, cette technologie ne peut remplacer les relations humaines ni combler les profondes lacunes affectives. L’essentiel consiste à tirer parti de ses atouts sans laisser affaiblir nos liens humains.