Réalités parallèles: quand chacun vit dans son propre monde
Il suffit d’ouvrir X (anciennement Twitter) quelques minutes pour en faire le constat: les gens ne vivent plus dans le même monde. Ce n’est pas une question d’opinion ou de perspective. C’est plus profond que ça. Nous sommes désormais des millions à naviguer dans des réalités parallèles, façonnées par des algorithmes, des biais, et des croyances devenues imperméables à toute contradiction.
Et ça, peu importe le sujet. Santé, climat, économie, géopolitique, identités… chaque enjeu devient un miroir déformant. L’effet est troublant, mais surtout dangereux.
Des bulles de plus en plus hermétiques
Dans les années 1990, on pouvait encore supposer qu’un citoyen lambda lisait les journaux, écoutait le même bulletin de nouvelles que son voisin, et partageait un certain nombre de faits communs. Aujourd’hui, ce socle informationnel s’est effondré.
Chaque utilisateur est enfermé dans une bulle algorithmique: les publications qui confirment ses croyances sont mises en avant, les autres sont invisibilisées. Selon une étude du Rensselaer Polytechnic Institute, les utilisateurs de réseaux sociaux tendent naturellement à se regrouper entre gens d’accord, et à se désabonner des opinions divergentes. C’est le confort intellectuel avant tout.
Et ce n’est pas un accident, c’est une stratégie commerciale. TikTok, YouTube, X, Instagram: tous optimisent l’engagement, et rien ne fait réagir plus que l’indignation.
La fin du socle commun
Le problème, c’est que si on ne partage plus les mêmes faits, il devient impossible de débattre. Un événement mondial peut avoir deux interprétations totalement incompatibles selon les sources qu’on consulte.
Prenons l’exemple de la COVID-19: un article paru dans le Journal of Medical Internet Research a révélé que les communautés en ligne avaient formé des chambres d’écho extrêmement denses, avec peu d’interactions entre les groupes favorables aux mesures sanitaires et les critiques. Le dialogue est rompu, et chacun croit que « l’autre » vit dans le déni.
Même chose pour la guerre en Ukraine, le climat, la transition énergétique ou les questions de genre : on ne discute plus, on s’annule.
Le poids des biais cognitifs
Il serait faux d’accuser uniquement les algorithmes. Les humains ont toujours eu tendance à filtrer la réalité. Ce qu’on voit, ce qu’on retient, ce qu’on croit, est profondément influencé par nos émotions et notre identité.
Le problème aujourd’hui, c’est qu’avec les réseaux sociaux, nos biais sont nourris, renforcés et jamais remis en question. L’effet est tel que certains experts parlent d’un nouveau stade de déréalisation sociale.
Selon une étude de l’Université du Michigan, même les modérateurs de contenus sur Reddit suppriment plus fréquemment les commentaires qui contredisent leurs opinions personnelles. Le contrôle de l’information n’est pas neutre, il est humain, subjectif et souvent partisan.
Une société éclatée, incapable de coopérer
Cette fragmentation de la perception a des conséquences sociales profondes. Comment organiser une société si nous n’avons plus de terrain d’entente? Comment décider ensemble si nous ne sommes même plus d’accord sur ce qui se passe, ni sur ce que signifient les mots qu’on utilise?
Le directeur général de la BBC, Tim Davie, a récemment averti que cette crise de confiance informationnelle mettait en péril la cohésion sociale elle-même au Royaume-Uni. Le Financial Times va plus loin : il ne s’agit plus de désinformation, mais d’un monde où chacun vit dans sa propre version de la réalité, avec ses propres règles.
Le dialogue devient alors impossible. Et avec lui, la cohabitation paisible.
Les arbitres de la vérité… ou de l’idéologie?
À première vue, les fact-checkers semblaient être une bonne idée: rétablir les faits, corriger les mensonges, apaiser le débat. Mais dans les faits, ils sont devenus des outils de contrôle narratif, alignés sur les gouvernements, les grandes plateformes ou les groupes d’intérêt. Ils ne vérifient pas tout, seulement ce qui dérange leur vision du monde.
Par exemple, NewsGuard, qui note la « fiabilité » des sites web, est financé en partie par le gouvernement américain et Microsoft. Peut-on sérieusement croire à sa neutralité?
Pire encore: de nombreux fact-checks ne réfutent même pas les faits, mais attaquent l’interprétation, la formulation, ou même le ton utilisé. Ils deviennent des éditorialistes masqués, imposant une vérité unique, officielle, incontestable.
Résultat: on étouffe les débats légitimes, on diabolise le doute, et on renforce le climat de peur. Qui osera encore poser des questions sans risquer l’étiquette infamante de « désinformateur »?
Une issue: revenir au réel, volontairement
La solution n’est pas technocratique. Ce n’est pas une réforme des algorithmes ou une nouvelle loi sur les fausses nouvelles. La vraie réponse est plus simple, plus radicale et plus humaine: un retour au réel par le volontarisme.
Cela commence par une remise en question personnelle :
- Est-ce que je cherche à comprendre ceux qui pensent différemment?
- Est-ce que je confronte mes idées aux faits, ou je cherche des faits pour protéger mes idées?
- Est-ce que je peux reconnaître mes erreurs?
Et collectivement, cela suppose de rebâtir une société fondée non pas sur l’uniformité, mais sur des principes clairs et partagés: honnêteté, responsabilité, consentement. Des principes que même un enfant peut comprendre.
Dans ce monde où les vérités s’entrechoquent et se nient, peut-être faut-il revenir à la seule réalité qui compte: la nôtre. Celle qu’on vit. Celle qu’on choisit.
✍️ Le Volontariste

Notes et sources :
Rensselaer Polytechnic Institute – Étude sur les bulles sociales
Journal of Medical Internet Research – Echo chambers during COVID-19
University of Michigan – Biais de modération sur Reddit
The Guardian – BBC : crise de confiance
Financial Times – La désinformation comme distraction
NewsGuard et son financement par des entités gouvernementales,diverses sources dont Grayzone, Columbia Journalism Review

No responses yet