Anthropic refuse l’usage militaire de Claude par le Pentagone
Alexandre Godard- Il y a 1 heure (Màj il y a 1 heure)
- 💬 1 com
- 🔈 Écouter
Dans la course mondiale à l’intelligence artificielle militaire, Anthropic fait entendre une voix dissonante. L’entreprise américaine refuse que son assistant Claude soit utilisé à des fins offensives par le Pentagone, affirmant que la puissance technologique ne doit pas primer sur les principes éthiques.
Claude refuse de s’ouvrir au Pentagone
Dans un contexte de course effrénée à l’intelligence artificielle militaire, l’entreprise californienne Anthropic confirme sa position : Claude, son assistant IA phare, ne sera pas déployé pour des applications offensives au sein du Pentagone. Une décision qui tranche avec les ambitions de certains de ses concurrents et qui relance le débat sur l’éthique de l’IA dans la défense nationale.
Depuis sa création, Anthropic a inscrit au cœur de sa mission le développement d’une intelligence artificielle sûre et bénéfique pour l’humanité. Cette philosophie se traduit concrètement dans les politiques d’utilisation de Claude. L’entreprise refuse catégoriquement que son modèle soit utilisé à des fins de cyberattaques, de surveillance de masse, ou d’aide à la conception d’armes autonomes létales.
Face aux sollicitations répétées du Département de la Défense américain, Anthropic a répondu par une fin de non-recevoir partielle. Si des collaborations limitées dans des domaines non offensifs (logistique, analyse de données non classifiées, aide à la formation) restent envisageables, Claude ne sera pas intégré dans des systèmes de ciblage, de renseignement militaire sensible ou de planification d’opérations armées.
Cette posture distingue clairement Anthropic d’autres acteurs du secteur. OpenAI a assoupli ses règles sur l’usage militaire en 2024, et Google entretient depuis longtemps des contrats avec des agences gouvernementales américaines. Anthropic, elle, maintient le cap. Pour Dario Amodei, PDG de l’entreprise, le risque n’est pas commercial mais existentiel, construire des outils puissants sans garde-fous clairs, c’est jouer avec le feu à une échelle civilisationnelle.
Cette décision envoie un message fort à toute l’industrie : la rentabilité ne peut pas être le seul critère. Alors que les gouvernements du monde entier cherchent à intégrer l’IA dans leurs arsenaux, la résistance d’Anthropic constitue un précédent rare et, pour beaucoup d’observateurs, nécessaire. La question finale : combien de temps cette ligne tiendra-t-elle sous la pression des marchés et des États ?
Télécharger l'app gratuite Claude by Anthropic



















