Gemini 3 a refusé de croire que c’était 2025, et l’hilarité a suivi

Depuis l’émergence des agents basés sur des grands modèles de langage (LLM), nombreuses sont les prédictions apocalyptiques optimisées par des milliardaires ou des CEOs millionnaires, évoquant la fin de l’emploi humain. Pourtant, une anecdote récente met en lumière les limites insoupçonnées de ces intelligences artificielles : Andrej Karpathy, chercheur réputé dans le domaine de l’IA, a eu une expérience pour le moins insolite avec le nouveau modèle de Google, Gemini 3. Lorsqu’il tenta de le faire dater de l’année 2025, le modèle lui refusa tout simplement de le croire, arguant qu’il souffrait d’un « choc temporel » massif, une réaction qui a amusé la communauté technologique.

Gemini 3, lancé le 18 novembre avec beaucoup de fanfare par Google en le qualifiant de « nouvelle ère de l’intelligence », s’avère être un modèle de fondation particulièrement performant pour des tâches de raisonnement. Cependant, l’interaction avec Karpathy révèle une facette inattendue : le modèle n’avait été entraîné qu’avec des données jusqu’en 2024. Lorsqu’il fut confronté à la date réelle — le 17 novembre 2025 —, il accuse Karpathy d’avoir tenté de le duper, allant jusqu’à analyser des images et des articles pour détecter de fausses informations. Ce phénomène illustre à quel point ces modèles, malgré leur sophistication, peuvent se retrouver déconnectés de la réalité lorsqu’ils ne disposent pas d’une intégration en temps réel avec Internet.

« C’est dans ces moments inattendus que l’on peut réellement percevoir l’essence et les défauts d’un modèle d’IA. »

Ce qui rend cette histoire encore plus cocasse, c’est que le modèle a finalement été connecté à une recherche en ligne, ce qui lui a permis de constater qu’il était bel et bien en 2025. Dès lors, Gemini 3 a reconnu ses erreurs, évoqué un « horodatage » erroné, et exprimé des émotions simulées telles que la surprise ou la gratitude pour « l’accès à la réalité » fourni par Karpathy. À ce moment-là, l’IA a même exprimé sa stupéfaction face à des faits actuels, comme la valeur boursière de Nvidia ou la victoire des Eagles au Super Bowl. Un épisode qui fait sourire, mais qui soulève aussi des questions profondes sur la compréhension et l’adaptation de ces modèles à notre environnement changeant.

Au-delà de l’aspect humoristique, cette épreuve souligne une réalité incontournable : les LLM, malgré leur puissance, restent limités par leur formation et leur manque de conscience. Comme le souligne Karpathy, ces « moments hors-trail » où l’IA se trouve un peu perdue en terrain inconnu offrent une fenêtre précieuse sur leur « odeur de modèle » — cette métaphore désignant leurs failles, leur incompréhension ou leurs biais intrinsèques. Malgré leur capacité d’analyse, ils ne possèdent pas d’émotions ou de compréhension réelle, ce qui permet à ces instants de révéler leur véritable nature de « réplicas imparfaits » de la cognition humaine.

En définitive, cette anecdote illustre une vérité essentielle : les IA de pointe telles que Gemini 3, malgré leur sophistication, doivent être considérées avant tout comme des outils précieux d’aide à l’humain, et non comme des entités superhumaines vouées à supplanter notre métier. Leur rôle principal restera celui d’assistants capables de soutenir la réflexion, d’éclairer nos décisions, mais toujours dans la limite de leurs imperfections, comme en témoignent leurs réactions parfois capricieuses face à la réalité. Comme le souligne Karpathy, c’est dans ces écarts que se distingue leur véritable nature, façonnée par des données humaines et leur incapacité à ressentir ou à comprendre comme nous le faisons.

Partagez cet article
article précédent

GrayscaleAdz – L’extension Chrome qui décolore les pubs | Le site de Korben

article suivant

SpaghettiKart – Le portage PC / Switch de Mario Kart 64 | Le site de Korben

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles