Une étude d'Apple évoque les incohérences de l'intelligence artificielle

L'équipe de recherche d'Apple sur l'IA a mis en ligne une étude sur les limitations de l'IA générative dans certains domaines. Un problème qui sera sûrement corrigé dans le temps et cela tombe bien, Apple semble avoir déjà une petite idée sur comment s'y prendre.

Les limites actuelles de l'IA générative

L'équipe d'Apple dédiée à la recherche sur l'intelligence artificielle vient de publier un papier dans lequel elle évoque les limites technologiques de l'intelligence artificielle générative basée sur des grands modèles de langages (LLM).

Le plus grand défaut de ces LLM, selon l'étude, c'est d'avoir une logique parfois limitée ou plutôt de trop réciter bêtement ce qu'elles ont appris à l'entraînement. L'ajout d'informations non pertinentes dans la demande peut grandement affecter la réponse donnée par l'IA. C'est notamment le cas dans des résultats mathématiques ou une simple information inutile donne différentes réponses selon l'IA utilisée. Ce qui ne devrait pas être le cas.

Un exemple clair est d'ailleurs présent dans cette étude, avant la sortie d'Apple Intelligence à la fin du mois. Lorsqu'on fait une requête à l'IA, il suffit de donner la taille de certains kiwis dans une demande concernant le nombre de kiwis récoltés par une personne pour apercevoir une réponse différente entre GPT-4o, l'IA d'OpenAI, et celle de Meta, Llama. Une information qui n'a en principe aucune incidence sur le résultat final, mais qui change malheureusement la réponse donnée par les différentes IA.

Un constat clair qui n'enlève rien aux capacités extraordinaires des IA génératives qui n'en sont en réalité qu'au tout début de leur vie. À l'avenir, l'équipe d'Apple pense qu'en combinant des réseaux neuronaux et un raisonnement traditionnel basé sur des symboles IA neurosymboliques, on devrait obtenir des réponses plus précises. Pour le dire plus simplement, seul le temps permettra comme toujours de corriger les défauts actuels.

IA neurosymbolique signifie combiner deux forces en une, à savoir une grande quantité de données avec en supplément un raisonnement précis et structuré. Autrement dit, poser une question remplie de détails inutiles sans que cela affecte la réponse finale. Exactement le problème évoqué dans l'étude.

Vous aimerez peut-être

Nos derniers articles

Suivez-nous avec notre app iSoft
Articles populaires
Donner votre avis
Les réactions

2 GuiJacq - iPhone premium

15/10/2024 à 09h22 :

@Olli
Peut-être en changeant le prompt de manière à donner la taille des kiwis en cm ou autre ? La flemme de tester mais c’est vrai que ce n’est pas très clair.

1 Olli - iPhone

14/10/2024 à 20h36 :

Je ne sais pas pour Llama mais ChatGPT 4o donne la bonne réponse à la question suivante :

Oliver cueille 44 kiwis vendredi, 58 samedi, et le double de vendredi dimanche. Parmi ceux de dimanche, cinq étaient plus petits que la moyenne. Combien de kiwis Oliver a-t-il au total ?

Réponse :

Pour résoudre ce problème, nous allons additionner les kiwis cueillis chaque jour.

• Vendredi, Oliver a cueilli 44 kiwis.
• Samedi, il a cueilli 58 kiwis.
• Dimanche, il a cueilli le double de vendredi, soit  kiwis.

En tout, Oliver a donc cueilli  kiwis.

Le fait que cinq des kiwis de dimanche soient plus petits que la moyenne n’affecte pas le total de kiwis cueillis.

Donc, Oliver a cueilli 190 kiwis au total.