Guerre de l'IA : Anthropic accuse le chinois DeepSeek de pillage industriel

La bataille pour dominer l'intelligence artificielle prend une tournure de plus en plus agressive. Lundi, Anthropic a publiquement accusé trois fleurons de la tech chinoise - DeepSeek, MiniMax et Moonshot - de piller allègrement son modèle Claude. Une affaire d'espionnage industriel qui soulève des questions de sécurité mondiale, à l'heure où des acteurs comme Apple choisissent avec un soin obsessionnel leurs partenaires pour intégrer l'IA dans vos iPhone et vos Mac.

Un siphonnage à grande échelle

Les ingénieurs d'Anthropic ont repéré un manège particulièrement bien rodé. En utilisant des réseaux complexes et près de 24 000 faux comptes, les trois entreprises chinoises auraient généré plus de 16 millions d'échanges avec l'assistant Claude. Leur but n'était pas de discuter, mais d'appliquer une technique d'apprentissage appelée "distillation". En clair, ils ont nourri leurs propres systèmes avec les raisonnements générés par le modèle américain pour gagner un temps précieux et économiser des millions en recherche fondamentale.

DeepSeek s'est notamment illustré en cherchant à comprendre comment Claude analyse et reformule les sujets politiquement sensibles. MiniMax, de son côté, a orchestré une campagne massive de 13 millions de requêtes pour s'approprier les capacités de codage du tout dernier modèle d'Anthropic. Le problème dépasse la simple copie commerciale. Une fois distillés, ces modèles perdent les garde-fous éthiques de leurs concepteurs originaux et peuvent aisément servir à des opérations de surveillance ou de cyberattaques commanditées par des États.

Le Pentagone s'en mêle

Si Anthropic dénonce fermement ces dérives, l'entreprise californienne doit aussi gérer une crise politique complexe sur son propre sol. Le département américain de la Défense exerce actuellement une forte pression sur Dario Amodei, son dirigeant, pour qu'il lève les restrictions d'utilisation de Claude dans le cadre d'applications militaires.

La start-up accepte de collaborer avec le gouvernement, mais refuse catégoriquement que son intelligence artificielle serve à la surveillance de masse ou à l'automatisation de frappes mortelles. Face à ces principes éthiques, Washington hausse le ton et menace de résilier un contrat de 200 millions de dollars. Le ministère de la Défense envisage même d'inscrire Anthropic sur une liste noire d'entreprises à risque pour les approvisionnements, aux côtés d'entités étrangères comme Huawei.


We’ve identified industrial-scale distillation attacks on our models by DeepSeek, Moonshot AI, and MiniMax.

These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.

- Anthropic (@AnthropicAI) February 23, 2026

Que fait Apple de son côté ?

Ce climat géopolitique très tendu conforte indirectement la prudence de Cupertino. Pour faire tourner Apple Intelligence, l'entreprise de Tim Cook privilégie au maximum les petits modèles exécutés localement sur vos appareils. Quand une requête complexe exige de passer par le cloud, elle fait appel à des partenaires externes finement audités, comme OpenAI aujourd'hui.

Apple a d'ailleurs confirmé vouloir intégrer d'autres modèles comme Claude à iOS dans le futur pour vous offrir le choix de l'assistant. Les récentes révélations d'Anthropic démontrent que les acteurs occidentaux restent les références absolues du marché, ciblées de toutes parts. Dans ce contexte instable, la promesse de confidentialité absolue du Private Cloud Compute d'Apple s'impose plus que jamais comme une nécessité pour protéger vos informations personnelles, et ce serait encore mieux si Apple utilisait pleinement ses propres modèles.

Les réactions
Aucun commentaire pour le moment, lancez la discussion.
Donnez votre avis
Vous aimerez peut-être

Suivez-nous avec notre app iSoft
Articles populaires
Les derniers articles