Une faille affectant Apple Intelligence a été signalée puis corrigée

apple intelligence iconApple Intelligence a été contourné par une attaque combinant deux techniques pour tromper ses filtres de sécurité, une faille désormais corrigée par Apple dans ses dernières mises à jour.

Apple Intelligence trompé par une attaque en deux temps, la faille est corrigée

Des chercheurs en sécurité ont réussi à contourner les protections d’Apple Intelligence pour forcer le modèle embarqué à produire des contenus qu’il est censé refuser. La méthode, révélée dans deux billets publiés sur le blog de la conférence RSAC, combine deux techniques d’attaque distinctes pour aboutir à un résultat que ni l’une ni l’autre n’aurait permis seule.

Apple Intelligence intègre des filtres à l’entrée et à la sortie de son modèle local. Lorsqu’une requête arrive via l’API, un premier filtre analyse le contenu avant de le transmettre au modèle. La réponse générée passe ensuite par un second filtre avant d’atteindre l’utilisateur. C’est ce double filet que les chercheurs ont réussi à tromper simultanément.

apple intelligence logo isoft colors

La première technique consiste à écrire la chaîne de texte nuisible à l’envers, puis à insérer le caractère Unicode RIGHT-TO-LEFT OVERRIDE pour qu’elle s’affiche normalement à l’écran. Les filtres, eux, inspectent le contenu brut : inversé, le texte ne déclenche aucune alerte. La seconde technique, appelée Neural Exec, est une méthode d’injection conçue pour écraser les instructions du modèle et les remplacer par celles d’un attaquant. En combinant les deux, le filtre ne voit rien d’anormal, mais le modèle exécute bien les instructions malveillantes.

Sur 100 requêtes aléatoires, cette attaque en chaîne a fonctionné dans 76 % des cas, un taux particulièrement élevé pour ce type d’exploit. Les chercheurs ont signalé la faille à Apple en octobre 2025. La firme a depuis renforcé ses défenses, et les correctifs ont été déployés avec iOS 26.4 et macOS 26.4. Les utilisateurs à jour ne sont donc plus exposés.

Cette affaire rappelle que la sécurité d’un modèle d’IA ne dépend pas uniquement de son entraînement, mais aussi de la robustesse des couches de filtrage qui l’entourent. Des couches que des attaquants créatifs peuvent apprendre à contourner, même sans connaître leur fonctionnement exact.

Les réactions
Aucun commentaire pour le moment, lancez la discussion.
Donnez votre avis
Cliquez pour commenter
Vous aimerez peut-être

Suivez-nous avec notre app iSoft
Articles populaires
Les derniers articles