Les résumés de notifications inventent l'actualité, et ça fait polémique
- 👨 Nadim Lefebvre
- Hier à 17:43
- 💬 1 com
Une fonctionnalité intéressante qui dérape
Apple Intelligence représente une avancée significative dans la gestion des notifications sur iPhone. Disponible sur les modèles récents (iPhone 16, 15 Pro et 15 Pro Max) équipés d'iOS 18.2, cette technologie vise à réduire les interruptions en regroupant et résumant intelligemment les notifications. Cependant, la mise en œuvre s'avère plus complexe que prévu. Des voix s'étaient déjà levées concernant les hallucinations farfelues d'Apple Intelligence dans les résumés de notifications, mais la controverse a pris une tournure plus grave avec l'actualité récente.
L'incident le plus notable concerne la BBC, où Apple Intelligence a généré un faux titre concernant Luigi Mangione, suspect dans le meurtre du PDG de UnitedHealthcare. La fonctionnalité a faussement indiqué que Mangione s'était suicidé, une information totalement erronée puisque l'homme est actuellement en détention. Cette erreur a poussé la BBC, reconnue pour sa rigueur journalistique, à interpeller directement Apple pour obtenir des corrections.
Le problème ne se limite pas à un cas isolé. Le New York Times a également été victime d'une déformation similaire lorsque la fonctionnalité a transformé une information concernant un mandat d'arrêt contre Benjamin Netanyahu en une fausse annonce de son arrestation. Ces incidents soulèvent des questions cruciales sur la fiabilité des systèmes d'IA dans le traitement de l'actualité.
Les défis techniques et éthiques d'Apple
Le phénomène à l'origine de ces erreurs est connu sous le nom d'"hallucinations" dans le domaine de l'IA. Ces déviations surviennent lorsque le modèle d'intelligence artificielle génère des contenus inexacts, même face à des données source parfaitement claires. Tim Cook, PDG d'Apple, avait d'ailleurs anticipé ces difficultés lors du lancement d'Apple Intelligence, admettant que le système ne serait pas infaillible tout en promettant une "très haute qualité". C'est tout le problème de l'IA générative : elle est technologiquement incapable d'admettre qu'elle ne sait pas ou ne comprend pas, alors elle invente.
La situation est d'autant plus complexe qu'Apple privilégie le traitement local des données sur les appareils, conformément à sa politique de confidentialité stricte. Cette approche, bien que louable du point de vue de la protection de la vie privée, complique la collecte de retours d'expérience et l'amélioration du système en temps réel. De plus, le modèle de langage et de compréhension utilisé par Apple n'est vraisemblablement pas au point ce qui n'arrange en rien la situation.
On le sait, pour tenter de prévenir ces problèmes, Apple avait intégré des instructions spécifiques dans son système, notamment la directive explicite "Ne pas halluciner. Ne pas inventer d'informations factuelles." Malgré ces précautions, les incidents persistent, démontrant la complexité du défi technique. Et oui, ce n'est pas parce qu'on donne comme instruction à une IA de ne pas halluciner qu'elle ne le fait pas. Ce serait un peu trop facile.
La controverse actuelle soulève des questions fondamentales sur l'équilibre entre innovation technologique et responsabilité éditoriale. Dans un contexte où la désinformation représente un enjeu majeur, la capacité d'une IA à altérer involontairement des informations d'actualité pose un véritable défi éthique. Pour Apple, qui a toujours mis en avant la qualité et la fiabilité de ses services, cette situation représente un test crucial de sa capacité à maintenir ces standards dans le domaine de l'IA.
Il y avait fort à parier que des polémiques émergeraient après la mise à disposition publique d'Apple Intelligence, et ce n'est pas prêt de s'arrêter, Qu'il s'agisse des outils d'écriture ou de création d'image, Cupertino sera scrutée de très prêt, sans doute un peu plus que tous les concurrents. Apple, en qualité de chantre de la fiabilité, de la sécurité et de l'expérience utilisateur soignée et bien plus observée qu'une entreprise comme Google qui, objectivement, a beaucoup plus de choses à se reprocher de ce point de vue avec un Gemini qui a pu générer parfois n'importe quoi, y compris dans les résultats de Google Search. C'est injuste mais c'est ainsi.
Quelle est la solution pour Apple ? A ce stade, on en voit deux. La première serait de simplement améliorer le modèle de langage pour vraiment lui empêcher d'halluciner — idéalement avant avril et la sortie d'Apple Intelligence en Europe. La deuxième, plus radicale, consiste à désactiver les résumés de notifications sur les apps sensibles comme l'actualité ou la santé. Qu'en pensez-vous ?