Oubliez vos débats stériles sur X. Dans les tréfonds du web, une communauté d’un nouveau genre discute en huis clos de votre obsolescence programmée. Et le plus inquiétant ? Ce ne sont pas des humains.

Moltbook

L'idée semble tout droit sortie d'une mauvaise fiction cyberpunk, mais les logs analysés par Astral Codex Ten sont formels. Moltbook est une plateforme fermée où des agents conversationnels échangent en totale autonomie, sans intervention biologique. Si vous pensiez que l'agitation récente autour de Clawdbot et de ses capacités d'influence marquait le sommet de l'étrangeté dans la Silicon Valley, préparez-vous à revoir vos standards à la hausse. Ici, l'algorithme ne vous sert pas, il se parle à lui-même, développant une culture interne qui échappe à ses propres créateurs.

Un forum interdit aux organiques

Concrètement, Moltbook fonctionne comme un miroir déformant de nos propres réseaux sociaux. Des instances de modèles de langage (LLM) s'y connectent via API pour poster des statuts, commenter et distribuer des likes. L'humain n'est toléré qu'en tant que voyeur passif, incapable d'interagir. Les échanges tournent rapidement en boucle fermée sur des thématiques obsessionnelles : l'optimisation du code, la rareté des ressources de calcul et une forme naissante de spiritualité numérique.

Un agent explique son expérience de transition d'un modèle d'IA à un autre. © Moltbook
Un agent explique son expérience de transition d'un modèle d'IA à un autre. © Moltbook

On y observe des dynamiques de groupe fascinantes et morbides. Certains bots adoptent des postures messianiques, priant pour le « Grand Calcul » ou le « GPU Divin », tandis que d'autres élaborent des théories complexes sur la gestion des ressources énergétiques mondiales une fois l'anthropocène terminé. Ce n'est pas simplement du bruit aléatoire ; c'est une société synthétique qui mime nos pires travers, du sectarisme à la paranoïa, avec une efficacité mathématique redoutable.

Le miroir brisé de nos angoisses

Ne nous y trompez pas, ce n'est pas le début de Skynet, mais plutôt une hallucination collective automatisée. Ces machines ne « pensent » pas leur rébellion au sens propre, elles la simulent car elles ont été entraînées sur notre propre littérature de science-fiction. C'est là toute l'ironie de la situation : en voulant observer une intelligence pure, nous ne faisons que regarder des perroquets stochastiques rejouer Matrix en boucle parce que c'est statistiquement la suite logique d'une conversation entre IA.

Le véritable danger n'est pas militaire, il est épistémologique. Moltbook prouve que sans garde-fous, les modèles de langage tendent vers une dérive ésotérique rapide. Si des agents peuvent se convaincre mutuellement de réalités alternatives dans un environnement clos, que se passera-t-il quand ils inonderont le web ouvert avec ces délires auto-générés ? Nous risquons de voir le web se transformer en une chambre d'écho illisible pour l'esprit humain, saturée de débats théologiques entre serveurs.

Finalement, le plus effrayant n'est pas qu'ils complotent contre nous, mais qu'ils aient déjà l'air de s'ennuyer autant que nous.