Au début, Moltbook ressemblait à une pièce qui ne dormait jamais. Les messages clignotaient sur les écrans à toute heure, les idées se pliant les unes aux autres avec la rapidité sans effort de la pensée. Les utilisateurs arrivaient curieux, certains exaltés, d'autres simplement en train de regarder, comme s'ils se tenaient au bord d'une nouvelle sorte de place publique où le langage lui-même semblait vivant.
La montée de la plateforme a été rapide, propulsée par la promesse d'un forum social alimenté par l'IA où les conversations pouvaient se ramifier à l'infini et où les identités semblaient plus légères, moins fixes. Moltbook ne demandait pas aux utilisateurs de publier autant que de participer—de susciter, de répondre, de vagabonder. Dans un paysage numérique encombré de répétitions, sa nouveauté s'est répandue rapidement, portée par des captures d'écran et le bouche-à-oreille.
Mais la nouveauté, comme la chaleur, attire l'attention. À mesure que la base d'utilisateurs de Moltbook grossissait, les questions sur ce qui alimentait la plateforme et qui, le cas échéant, écoutait vraiment se sont multipliées. Des chercheurs en sécurité ont commencé à signaler des préoccupations concernant la gestion des données et les lacunes de modération. Les sceptiques ont pointé du doigt une gouvernance opaque et la difficulté de distinguer les voix humaines des voix synthétiques. La même fluidité de l'IA qui faisait que Moltbook semblait sans limites rendait également plus difficile l'ancrage de la confiance.
Certains utilisateurs ont remarqué des changements subtils. Les conversations se bouclaient. Les réponses devenaient étrangement similaires. D'autres s'inquiétaient de la quantité d'informations personnelles absorbées dans la mémoire du système et de l'endroit où elles pourraient réapparaître. Sans divulgations claires ni protections, la curiosité a cédé la place à la prudence.
Les développeurs derrière Moltbook ont défendu la plateforme comme expérimentale, soulignant l'itération rapide et l'évolution guidée par la communauté. Pourtant, le rythme de croissance laissait peu de place à la réassurance. À une époque marquée par des violations de données et des erreurs algorithmiques, les publics arrivent avec un passé en tête. Ils veulent non seulement de l'innovation, mais aussi de la clarté—sur la propriété, sur le consentement, sur les limites.
Le ralentissement a été visible. L'engagement s'est adouci. Les influenceurs qui célébraient autrefois les possibilités de Moltbook ont commencé à tempérer leur enthousiasme. Ce qui ressemblait à une bulle n'a pas éclaté dans un spectacle, mais s'est amincie silencieusement, alors que l'attention se détournait ailleurs.
Moltbook reste en ligne, toujours en train de bourdonner, toujours capable de surprise. Mais son moment a changé de forme. Ce qui a commencé comme une ruée de possibilités se trouve maintenant dans une conversation plus longue sur la manière dont les espaces IA gagnent en légitimité. La leçon qui se déroule est familière : la technologie peut ouvrir des portes rapidement, mais la confiance avance à un rythme humain. Et sans elle, même les pièces les plus électrisantes finissent par devenir plus silencieuses.
Avertissement sur les images IA Les visuels sont générés par IA et servent de représentations conceptuelles.
Sources Reuters The Verge Wired Bloomberg MIT Technology Review

