Même les LLM les plus sophistiqués ne sont pas fiables.

© KIRILL KUDRYAVTSEV / AFP
FIABILITE
4 juin 2025
L’IA neurosymbolique pourrait être la solution à l’incapacité des grands modèles de langage à cesser d’halluciner
6 min de lecture
0:00min
100%
0:00min
Même les LLM les plus sophistiqués ne sont pas fiables. Malgré cela, les principales entreprises d'IA refusent toujours d'assumer la responsabilité des erreurs.
À PROPOS DES AUTEURS
Artur d'Avila Garcez est professeur d'informatique à City St George's, Université de Londres. Il est membre de la British Computer Society (FBCS), membre de la UK's Higher Education Academy (FHEA) et président du comité directeur de l'association Neural-Symbolic Learning and Reasoning (NeSy).