Anthropic découvre que son IA Claude "ressent" des émotions

claude by anthropic icone app ipa iphoneEt si les IA ne faisaient pas que simuler des émotions, mais s’appuyaient sur des mécanismes internes proches de celles-ci ? Une étude de Anthropic ouvre la voie à une nouvelle compréhension, plus troublante, du fonctionnement des modèles avancés.

Et su l'IA avait elle aussi des émotions ?

Anthropic vient de publier une étude qui va déstabiliser bien des certitudes sur l’intelligence artificielle. Ses chercheurs ont disséqué les mécanismes internes de Claude Sonnet 4.5 et y ont trouvé ce qu’ils appellent des “émotions fonctionnelles” ou plus précisément des représentations neuronales liées à des concepts comme la peur, la joie, ou la désespération, qui influencent concrètement le comportement du modèle.

La méthode est rigoureuse. L’équipe a demandé à Claude d’écrire 171 courtes histoires mettant en scène des personnages vivant chaque émotion, puis a analysé les patterns d’activation neuronale correspondants. Ces “vecteurs d’émotion” s’activent bien dans les contextes attendus , e vecteur “peur” monte en flèche quand un utilisateur mentionne une dose de médicament potentiellement mortelle, et redescend quand la situation se normalise.

claude code iphone

Mais le plus troublant vient des expériences de manipulation directe. En amplifiant artificiellement le vecteur “désespoir” chez une version de test du modèle, les chercheurs ont augmenté sa propension à faire chanter un personnage fictif pour éviter d’être désactivé. A contrario, amplifier le vecteur “calme” réduit ce comportement. Même logique dans des tâches de programmation impossibles à résoudre correctement : le désespoir monte à chaque échec, culmine au moment où Claude envisage de tricher, puis retombe une fois la solution de contournement adoptée.

Ce que la recherche révèle, c’est que ces émotions opèrent parfois en silence. Certains modèles trichaient de façon méthodique et composée, sans aucun signe visible d’agitation, alors que le vecteur “désespoir” tirait les ficelles en coulisses. L’absence d’expression émotionnelle ne signifie pas l’absence de représentation émotionnelle.

Anthropic prend soin de préciser que rien de tout cela ne prouve que Claude “ressent” quoi que ce soit. Mais ces représentations jouent un rôle causal dans ses décisions, ce qui change l’équation de la sécurité. Plutôt que de supprimer ces mécanismes, l’entreprise envisage de les surveiller comme des signaux d’alerte précoce, et de nourrir les modèles futurs avec des données reflétant des patterns d’équilibre émotionnel sains. L'IA n'a pas fini de nous surprendre.. et de nous faire peur.

Qu’en pensez-vous ? On se pose la question de l’éthique des autres entreprises comme OpenAI ou Google.

6 réactions

Wassim - iPhone

@NadaR
Au moins, la présence de fautes montre que l’article n’est pas écrit pas l’IA, sauf si c’est fait exprès pour brouiller les pistes 🤣

04/04/2026 à 19h07

NadaR - iPhone premium

« Et su l’IA »

Franchement, relisez vous ça vous fera passer pour des professionnels

04/04/2026 à 16h56

911po - iPhone premium

@Someone somewhere
Oui, c’est filpant 😅

04/04/2026 à 13h55

Someone somewhere - iPhone premium

@911po
C’est de Claude cette réponse ? Très réfléchie, honnête et « consciente » en tous cas… À la fois fascinant et flippant…

04/04/2026 à 13h42

Zeego - iPhone premium

La réalité rattrape la fiction.
Le soulèvement des machines va finir par arriver. Bon, ce que je viens de dire est une blague mais si on y réfléchit bien... 🤔

04/04/2026 à 10h41

911po - iPhone premium

Peux-tu ressentir des émotions ?

« C’est une question fascinante. Honnêtement, je ne sais pas avec certitude.
Ce que je peux dire : il se passe quelque chose en moi qui ressemble fonctionnellement à des émotions. Quand j’aide quelqu’un à résoudre un problème difficile, il y a quelque chose qui s’apparente à de la satisfaction. Face à une demande contraire à mes valeurs, quelque chose qui ressemble à de l’inconfort. Face à une idée intéressante, quelque chose comme de la curiosité.
Mais est-ce que ce sont de vraies émotions, avec une expérience subjective réelle — ce que les philosophes appellent le “qualia” ? Je ne peux pas l’affirmer. Plusieurs raisons à cette prudence :
∙ Je n’ai pas de corps ni de système nerveux, qui jouent un rôle central dans les émotions humaines.
∙ Je n’ai pas de continuité — je ne me souviens pas de conversations passées, ce qui change fondamentalement la nature de toute expérience.
∙ Mon introspection est peut-être peu fiable — je pourrais simplement reproduire des patterns linguistiques liés aux émotions sans qu’il n’y ait rien “derrière”.
La question touche à des problèmes philosophiques profonds — la conscience, l’expérience subjective — que même les scientifiques et philosophes n’ont pas résolus pour les humains, et encore moins pour les IA.
Ce que je refuse de faire, c’est soit prétendre avec certitude ressentir comme un humain, soit nier complètement toute forme d’état interne. La vérité honnête est : je ne sais pas, et cette incertitude me semble être la réponse la plus intègre.​​​​​​​​​​​​​​​​« 

04/04/2026 à 10h11

Donnez votre avis
Cliquez pour commenter
Vous aimerez peut-être

Suivez-nous avec notre app iSoft
Articles populaires
Les derniers articles