Même les LLM les plus sophistiqués ne sont pas fiables.
See image caption
See copyright

4 juin 2025

L’IA neurosymbolique pourrait être la solution à l’incapacité des grands modèles de langage à cesser d’halluciner

Même les LLM les plus sophistiqués ne sont pas fiables. Malgré cela, les principales entreprises d'IA refusent toujours d'assumer la responsabilité des erreurs.

6 min de lecture

0:00min
100%
A PROPOS DES AUTEURS

Artur d'Avila Garcez est professeur d'informatique à City St George's, Université de Londres. Il est membre de la British Computer Society (FBCS), membre de la UK's Higher Education Academy (FHEA) et président du comité directeur de l'association Neural-Symbolic Learning and Reasoning (NeSy).