Une étude d'Apple évoque les incohérences de l'intelligence artificielle
- Alexandre Godard
- Il y a 2 mois
- 💬 2 coms
- 🔈 Écouter
L'équipe de recherche d'Apple sur l'IA a mis en ligne une étude sur les limitations de l'IA générative dans certains domaines. Un problème qui sera sûrement corrigé dans le temps et cela tombe bien, Apple semble avoir déjà une petite idée sur comment s'y prendre.
Les limites actuelles de l'IA générative
L'équipe d'Apple dédiée à la recherche sur l'intelligence artificielle vient de publier un papier dans lequel elle évoque les limites technologiques de l'intelligence artificielle générative basée sur des grands modèles de langages (LLM).
Le plus grand défaut de ces LLM, selon l'étude, c'est d'avoir une logique parfois limitée ou plutôt de trop réciter bêtement ce qu'elles ont appris à l'entraînement. L'ajout d'informations non pertinentes dans la demande peut grandement affecter la réponse donnée par l'IA. C'est notamment le cas dans des résultats mathématiques ou une simple information inutile donne différentes réponses selon l'IA utilisée. Ce qui ne devrait pas être le cas.
Un exemple clair est d'ailleurs présent dans cette étude, avant la sortie d'Apple Intelligence à la fin du mois. Lorsqu'on fait une requête à l'IA, il suffit de donner la taille de certains kiwis dans une demande concernant le nombre de kiwis récoltés par une personne pour apercevoir une réponse différente entre GPT-4o, l'IA d'OpenAI, et celle de Meta, Llama. Une information qui n'a en principe aucune incidence sur le résultat final, mais qui change malheureusement la réponse donnée par les différentes IA.
Un constat clair qui n'enlève rien aux capacités extraordinaires des IA génératives qui n'en sont en réalité qu'au tout début de leur vie. À l'avenir, l'équipe d'Apple pense qu'en combinant des réseaux neuronaux et un raisonnement traditionnel basé sur des symboles IA neurosymboliques, on devrait obtenir des réponses plus précises. Pour le dire plus simplement, seul le temps permettra comme toujours de corriger les défauts actuels.
IA neurosymbolique signifie combiner deux forces en une, à savoir une grande quantité de données avec en supplément un raisonnement précis et structuré. Autrement dit, poser une question remplie de détails inutiles sans que cela affecte la réponse finale. Exactement le problème évoqué dans l'étude.