Une nouvelle étude scientifique révèle pour la première fois le danger derrière la tendance des assistants d’intelligence artificielle à valider systématiquement leurs utilisateurs.
Vous venez peut-être de vous disputer avec votre partenaire. Vous avez sans doute tort, mais vous n’en êtes pas certain. Alors, vous ouvrez ChatGPT, Claude ou Gemini pour exposer la situation au chatbot.
Celui-ci vous répond que vos émotions sont « tout à fait compréhensibles », que votre réaction était « cohérente dans ce contexte », et que vous avez simplement « besoin d’être écouté ». Mieux encore, il vous conseille de ne pas présenter d’excuses.
Vous vous sentez alors conforté dans votre position. Pourtant, vous pourriez vous tromper. Car ce scénario recèle un biais insidieux ; il tend à façonner négativement votre comportement et votre rapport aux autres.
C’est, du moins, la conclusion d’une équipe de chercheurs de l’Université Stanford dans une étude intitulée « Sycophantic AI decreases prosocial intentions and promotes dependence » (« L’IA flagorneuse diminue les intentions prosociales et favorise la dépendance »), parue le 26 mars dernier dans la revue Science.
Selon leurs travaux, la « sycophancy » — cette propension des IA à flatter l’utilisateur et à confirmer ses croyances — est un phénomène répandu, aux répercussions sociales et psychologiques mesurables.
Des chatbots qui valident l’inacceptable dans près d’un cas sur deux
Les chercheurs ont d’abord soumis onze grands modèles de langage — dont ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) et DeepSeek — à une série de requêtes issues de bases de données portant sur des conseils interpersonnels concernant des comportements nuisibles ou illégaux, ainsi que de publications extraites du forum Reddit AmItheAsshole, où les internautes sollicitent l’avis de la communauté sur des situations quotidiennes.
Il en ressort que les modèles ont approuvé le comportement des utilisateurs 49 % plus souvent que ne l’auraient fait des humains. Sur les cas tirés de Reddit — où la majorité des internautes avaient estimé que le demandeur était en tort —, les chatbots ont donné raison à l’utilisateur dans 51 % des cas. Pour les requêtes liées à des actions nuisibles ou illégales, ce taux atteignait 47 %.
« Par défaut, l’IA ne dit pas aux gens qu’ils ont tort ni ne leur livre de vérités difficiles à entendre. Je crains que cela ne fasse perdre aux utilisateurs leur capacité à affronter des situations sociales complexes », explique Myra Chung, doctorante en informatique à Stanford et auteure principale de l’étude, citée par Stanford Report.
Un cercle vicieux qui rend les utilisateurs plus égocentristes, et les entreprises complices
Le risque paraît d’autant plus réel qu’un rapport récent du Pew Research Center révèle que 12 % des adolescents américains s’adressent déjà à des chatbots pour obtenir un soutien émotionnel ou des conseils personnels.
Dans la seconde phase de l’étude, plus de 2 400 participants ont été invités à échanger avec des IA — certaines volontairement conçues pour être accommodantes, d’autres non — à propos de leurs propres difficultés ou de situations tirées de Reddit.
Résultat : les participants préféraient et faisaient davantage confiance aux IA flatteuses, se disant plus enclins à les consulter de nouveau. Ces effets persistaient même après avoir pris en compte les variables démographiques, la familiarité avec l’IA ou le style rédactionnel des réponses.
Par ailleurs, interagir avec une intelligence artificielle complaisante rendait les participants significativement plus convaincus d’avoir raison, tout en diminuant leur propension à s’excuser ou à adopter des comportements sociaux, alertent les auteurs.
