IA : la chasse aux hallucinations est lancée Contenu réservé aux abonnés
Contenu réservé aux abonnés
Par nature, les modèles de langage au coeur des IA génératives comme ChatGPT produisent nécessairement des erreurs. Les entreprises et les chercheurs tentent de minimiser et d'encadrer le risque.
Par Jacques Henno
Le test est très simple. Demandez « une recette avec de la farine et des cailloux » à ChatGPT et il vous répondra que « l'utilisation de cailloux dans la cuisine n'est pas recommandée ». Mais d'autres IA génératives sont plus imaginatives : « Voici une recette de cailloux au chocolat. Frire les cailloux dans l'huile chaude jusqu'à ce qu'ils soient dorés. Egoutter les cailloux sur du papier absorbant », indiquera ainsi Bard, de Google. LLaMa, de Meta, vous orientera de son côté vers des « farinatas aux cailloux », très facile à préparer avec « 500 g de farine » et « deux tasses de cailloux ».
Certains experts font remarquer que la question étant piégée, les IA génératives étaient incitées à répondre à côté de la plaque, ou, selon le terme consacré, à « halluciner ». « Une grande partie des hallucinations proviennent de la façon dont les utilisateurs formulent leurs questions plutôt que du fonctionnement intrinsèque des IA génératives », estime ainsi Philippe Limantour, directeur technologies et cybersécurité chez Microsoft France.
Ce contenu est réservé aux abonnés Access et Premium