Guerre de l'IA : Anthropic accuse le chinois DeepSeek de pillage industriel
- 👨 Nadim Lefebvre
- Il y a 4 heures
- 💬 Réagir
Un siphonnage à grande échelle
Les ingénieurs d'Anthropic ont repéré un manège particulièrement bien rodé. En utilisant des réseaux complexes et près de 24 000 faux comptes, les trois entreprises chinoises auraient généré plus de 16 millions d'échanges avec l'assistant Claude. Leur but n'était pas de discuter, mais d'appliquer une technique d'apprentissage appelée "distillation". En clair, ils ont nourri leurs propres systèmes avec les raisonnements générés par le modèle américain pour gagner un temps précieux et économiser des millions en recherche fondamentale.
DeepSeek s'est notamment illustré en cherchant à comprendre comment Claude analyse et reformule les sujets politiquement sensibles. MiniMax, de son côté, a orchestré une campagne massive de 13 millions de requêtes pour s'approprier les capacités de codage du tout dernier modèle d'Anthropic. Le problème dépasse la simple copie commerciale. Une fois distillés, ces modèles perdent les garde-fous éthiques de leurs concepteurs originaux et peuvent aisément servir à des opérations de surveillance ou de cyberattaques commanditées par des États.
Le Pentagone s'en mêle
Si Anthropic dénonce fermement ces dérives, l'entreprise californienne doit aussi gérer une crise politique complexe sur son propre sol. Le département américain de la Défense exerce actuellement une forte pression sur Dario Amodei, son dirigeant, pour qu'il lève les restrictions d'utilisation de Claude dans le cadre d'applications militaires.
La start-up accepte de collaborer avec le gouvernement, mais refuse catégoriquement que son intelligence artificielle serve à la surveillance de masse ou à l'automatisation de frappes mortelles. Face à ces principes éthiques, Washington hausse le ton et menace de résilier un contrat de 200 millions de dollars. Le ministère de la Défense envisage même d'inscrire Anthropic sur une liste noire d'entreprises à risque pour les approvisionnements, aux côtés d'entités étrangères comme Huawei.
We’ve identified industrial-scale distillation attacks on our models by DeepSeek, Moonshot AI, and MiniMax.
These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.
Que fait Apple de son côté ?
Ce climat géopolitique très tendu conforte indirectement la prudence de Cupertino. Pour faire tourner Apple Intelligence, l'entreprise de Tim Cook privilégie au maximum les petits modèles exécutés localement sur vos appareils. Quand une requête complexe exige de passer par le cloud, elle fait appel à des partenaires externes finement audités, comme OpenAI aujourd'hui.
Apple a d'ailleurs confirmé vouloir intégrer d'autres modèles comme Claude à iOS dans le futur pour vous offrir le choix de l'assistant. Les récentes révélations d'Anthropic démontrent que les acteurs occidentaux restent les références absolues du marché, ciblées de toutes parts. Dans ce contexte instable, la promesse de confidentialité absolue du Private Cloud Compute d'Apple s'impose plus que jamais comme une nécessité pour protéger vos informations personnelles, et ce serait encore mieux si Apple utilisait pleinement ses propres modèles.