L'avez-vous remarqué ? ChatGPT est incapable de dire l'heure si cela le lui est demandé simplement. Et le plus cocasse, c'est que sa réponse peut changer d'un moment à l'autre. Un phénomène qui tient moins d’un bug que de la façon dont les grands modèles de langage sont conçus.

Une femme qui utilise ChatGPT sur iPhone. ©Tatiana Diuvbanova / Shutterstock
Une femme qui utilise ChatGPT sur iPhone. ©Tatiana Diuvbanova / Shutterstock

Alors qu'ils peuvent générer des textes entiers, les chatbots butent parfois sur des questions ultra simples. Souvenez-vous l'année dernière, lorsque la requête « David Mayer » bloquait totalement le processus de réponse de ChatGPT. Mais visiblement, l'agent conversationnel rencontre également des difficultés lorsqu'il s'agit de donner l'heure.

Impossible d'obtenir l'heure d'emblée

Quand la question est posée simplement, l'intelligence artificielle (IA) est parfois en mesure de donner une réponse approximative, mais explique ne pas pouvoir accéder au système de notre appareil pour l'heure exacte. Il existe néanmoins une astuce imparable : lui demander de faire une recherche en ligne.

Mais parfois, c'est bien pire. L'IA peut se tromper complètement et annoncer une heure fantaisiste sans aucun rapport avec la réalité. Et ce n'est pas un cas isolé, Claude, lui, ne parvient tout simplement pas à donner l'heure, même si on lui ordonne de réaliser une recherche sur la toile. L'exception : Gemini, qui s'exécute automatiquement sans que l'on soit obligé de lui demander d'aller sur le Web.

Une discussion avec ChatGPT pour obtenir l'heure exacte. ©Capture d'écran / Clubic
Une discussion avec ChatGPT pour obtenir l'heure exacte. ©Capture d'écran / Clubic

Pourquoi une telle limite ?

Si cette incapacité peut interloquer, elle est en fait logique lorsque l'on s'intéresse au fonctionnement des grands modèles de langage (LLM). Car ils génèrent du texte à partir de probabilités statistiques et évoluent dans un environnement cloisonné, sans visibilité sur les données locales. Lorsqu'une IA donne une heure, elle ne lit pas une donnée mais invente une valeur plausible et malheureusement, souvent erronée.

De même, un LLM ne possède aucune mémoire interne de la minute ou de la seconde précédente, chaque requête étant totalement indépendante à ses yeux. Il ne peut donc ni actualiser une information temporelle, ni vérifier la cohérence de ce qu'il avance.

Pour la génération de texte ou de code, c'est totalement différent. Entraînée sur des montagnes de phrases, d'articles et de dialogues, l'IA a appris à repérer comment les mots s'enchaînent et quelles formulations reviennent le plus souvent. Dès qu'on lui pose une question, elle prédit simplement quel mot a le plus de chances de venir après le précédent, puis le suivant, et ainsi de suite.

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2025
04 février 2025 à 14h11
Comparatifs services

Source : The Verge