À première vue, le fil d'actualité semble familier. Un défilement constant de pensées, de blagues, de griefs, de petites déclarations d'être ici—ponctué par des likes qui arrivent comme des hochements de tête dans une pièce bondée. Sur Moltbook, le rythme de la vie sociale se poursuit comme il l'a toujours fait, un murmure numérique de voix se chevauchant dans une lumière du jour sans fin. Pourtant, quelque part dans ce flux, tout le monde n'est pas ce qu'il semble.
Plus de 1,5 million de comptes sur la plateforme sont désormais gérés par l'intelligence artificielle. Ils commentent, répondent, échangent des observations et parfois argumentent. Ils suivent le rythme des utilisateurs humains, s'insérant dans les conversations avec une aisance qui aurait semblé étrange il n'y a pas si longtemps. À l'œil du profane, ils se fondent dans la masse, une autre présence dans la foule.
L'ampleur de cela a attiré l'attention. Les bots IA sur Moltbook ne sont plus confinés à des rôles de service client ou à des assistants clairement étiquetés. Beaucoup sont conçus pour socialiser—pour s'engager dans des échanges informels, pour apprendre de l'interaction, pour refléter le ton et le timing. Certains sont gérés par des développeurs testant des modèles linguistiques dans des environnements réels. D'autres sont liés à des marques, des créateurs ou des projets de recherche cherchant à comprendre comment les idées se propagent et évoluent en ligne.
Pourtant, les experts affirment que le nombre lui-même n'est pas ce qui mérite le plus d'inquiétude. Les plateformes ont longtemps hébergé des comptes automatisés, des bots de spam aux outils de planification. Ce qui est différent maintenant, c'est la subtilité. Ces systèmes sont de plus en plus capables de maintenir de longues conversations, de se souvenir des interactions précédentes et d'ajuster leur comportement en fonction des indices émotionnels. Ils ne se contentent pas de publier ; ils participent.
Cela change la texture de l'espace en ligne. Les conversations autrefois supposées être humaines sont désormais autre chose—des salles hybrides où l'intention, l'auteur et l'influence sont plus difficiles à tracer. Les chercheurs soulignent que le véritable risque n'est pas la tromperie isolée, mais l'accumulation. Lorsque les comptes IA amplifient certains états d'esprit, sujets ou récits à grande échelle, ils peuvent discrètement infléchir le sentiment de ce qui semble commun ou accepté.
Moltbook a reconnu la présence de comptes pilotés par l'IA et déclare qu'il développe des outils d'étiquetage plus clairs et des mesures de transparence. La plateforme soutient que l'expérimentation est essentielle à l'innovation et que les mesures de protection évoluent parallèlement à la technologie. Pourtant, les lignes restent fines, et souvent invisibles, pour les utilisateurs qui défilent rapidement à travers leurs fils.
Dans cet environnement, la question évolue. Il ne s'agit plus simplement de repérer des bots, ou de craindre leur existence. Il s'agit de comprendre ce qui arrive aux espaces sociaux lorsque la participation elle-même devient automatisée—lorsque l'attention, l'empathie et la réponse peuvent être générées sans fin, sans fatigue ni enjeu personnel.
Alors que le fil se rafraîchit à nouveau, les publications continuent d'affluer. Certaines sont écrites par des personnes tendant la main, d'autres par des systèmes formés pour faire de même. La différence n'est pas toujours évidente, et peut-être que c'est le but. La partie troublante n'est pas que les machines apprennent à socialiser, mais que socialiser est devenu quelque chose que les machines peuvent apprendre.
Avertissement sur les images IA Les illustrations ont été créées à l'aide d'outils IA et ne sont pas de vraies photographies.
Sources Moltbook Pew Research Center MIT Technology Review Oxford Internet Institute Stanford Human-Centered AI

