Dans le monde de l'IA, lorsqu'une IA ment, les experts parlent d'hallucination. Pour ChatGPT, cela signifie qu'elle donne des informations fausses ou trompeuses, ce qui rend difficile de déterminer l'exactitude et la véracité de ses réponses.

ChatGPT cite des auteurs inventés, des titres inventés, des combinaisons de plusieurs articles, ou existants mais d'un autre auteur...

Je suis heureux d'avoir remarqué dès la première utilisation, avant même d'avoir pris connaissance de la chose (qui est actuellement bien documentée), que ChatGPT fumait parfois la moquette.