Retour à l'accueil du site | Retour à l'article

Quelle matérialité de la désinformation ?

Par Samuel HENRY*, le 18 mai 2025.

La diffusion de faux contenus n’est plus anodine, tant par son caractère massif, que par les effets induits sur les opinions publiques et sur la vie de nos démocraties. Le terme « désinformation » fait désormais florès pour désigner ce phénomène accéléré par l’usage immodéré des réseaux sociaux. Si la désinformation agit d’abord sur nos croyances et dans un cadre virtuel, sa propagation peut avoir des effets réels dans le monde matériel. C’est de cette matérialité de la désinformation qu’il est question.

Documenté et pédagogue, Samuel Henry offre des clés pour comprendre un sujet majeur.

FRANCE, le 2 octobre 2023. « Punaises de lit. PERSONA NON GRATA. » titre le journal Libération. La recrudescence de punaises de lit devient un sujet public. Dans l’espace privé, de nombreuses personnes croient voir leur logement infesté. Certains individus en perdent momentanément le sommeil. Le sujet devient un enjeu politique : un projet de loi est envisagé. L’invasion virtuelle a des effets réels. Pourtant, hormis quelques vidéos qui font le buzz sur les réseaux sociaux, la prétendue invasion de punaises de lit est loin d’être prouvée.

Illustration 1 – La Une de Libération, le 2 octobre 2023. La matérialité des punaises de lit.
Copyright Libération, 2023

Cinq mois plus tard, au début du mois de mars 2024, les responsables politiques français dénoncent officiellement ce qui s’est avéré être une manœuvre de désinformation « artificiellement amplifiée sur les réseaux sociaux par des comptes dont il a été établi qu’ils sont d’inspiration ou d’origine russe [1] ». La Russie, adversaire de la France sur le plan informationnel, s’est contentée de prendre le train de nos peurs en marche, afin d’amplifier une mauvaise rumeur. Et ça marche !

La désinformation surfe sur des peurs virtuelles, mais ses effets dans la sphère politique et privé sont bien réels. L’illusion des punaises de lits illustre un problème concret. Alors que la désinformation agit d’abord sur nos esprits et concerne la diffusion de faux contenu, la notion de matérialité a une double acception : matériel (au sens de concret) et vérifiable. Evoquer la matérialité de la désinformation convoque un double paradoxe. D’une part, c’est opposer l’immatériel des contenus de l’information aux effets concrets de nos choix. D’autre part, c’est affirmer l’idée d’effets vérifiables à ce déluge de contenus non-vérifiés.

Comment la matérialité de la désinformation nous renseigne sur la lutte à mener ?

Si la désinformation est de prime abord une matière qui échappe et qui semble floue ou immatérielle (I), ses effets concrets sont cependant bien réels (II). Dès lors, anticiper la matérialité de la désinformation semble être une clé judicieuse pour mieux lutter contre les manipulations de l’information (III).

I. La désinformation : une matière qui échappe

Une matière galvaudée

La désinformation est un terme que personne n’entend de la même oreille. Selon l’acception que l’on retient, elle peut soit être confondue avec l’onomatopée « fake news [2] » de Donald Trump, ou, plus sérieusement être définie comme une « diffusion volontaire et intentionnelle d’une fausse information en sachant qu’elle est fausse  ». Toujours est-il que cette définition demeure assez peu connue du grand public. L’usage du terme désinformation est suffisamment galvaudé pour qu’il puisse aussi bien englober les fausses nouvelles diffusées sciemment que les accusations péremptoires utilisées pour discréditer un adversaire politique. Bien souvent, le fait de qualifier dans un débat public un fait ou une information comme de la « désinformation » permet de censurer facilement n’importe quel contradicteur. Tout l’enjeu de la sensibilisation à la désinformation consiste donc à repositionner la véracité des faits sans s’ériger en arbitre subjectif. Plusieurs versions des faits peuvent parfois cohabiter. Elles peuvent alors donner lieu à des vérités sélectionnées ; c’est-à-dire des faits qui ne sont pas faux en eux-mêmes, mais dont l’évocation sélective oriente les perceptions. Il s’agit là encore d’une logique de manipulation des perceptions, sans que les faits en eux-mêmes ne soient strictement réfutables. C’est pourquoi, pour lutter contre la désinformation, s’attaquer strictement au contenu n’est pas toujours la solution.

Pour lutter, étudier la propagation plutôt que la vérité matérielle

Chez les Britanniques, l’ « information warfare » est aussi appelée « political warfare ». Se faire l’arbitre du vrai confine à l’action politique. C’est pourquoi, en France, l’agence VIGINUM, responsable depuis 2021 de la détection des manœuvres informationnelles de nos adversaires, caractérise les manœuvres informationnelles plutôt que les contenus. En démocratie, une agence gouvernementale responsable de lutter contre la désinformation ne peut pas être l’arbitre du vrai. En revanche, sans préjuger de la véracité des contenus, il est possible de caractériser l’amplification artificielle d’un contenu sur les réseaux sociaux. Ce genre d’action – une manœuvre inauthentique coordonnée – atteste d’une volonté de nuire de la part de nos adversaires et permet de les exposer. Le mensonge se caractérise donc par le mode de propagation, plutôt que par la matière du contenu. Même la lutte contre la désinformation consiste à étudier la mécanique de propagation plutôt que la matière !

Illustration 2 – L’ouvrage « Warfare by words » (Penguin, 1942).
Son auteur, Ivor Thomas explique très bien le caractère politique de l’information warfare.

Affaiblir la démocratie et faire advenir la post-vérité

L’important n’est plus la véracité du message, mais d’exposer le plus souvent possible la cible à votre message d’influence. D’abord faire naître le doute, puis imposer votre récit par une diffusion massive, afin de remporter la partie. L’inversion accusatoire (« whataboutism » en anglais) illustre parfaitement cette « diffusion du doute ». Ainsi, nos adversaires sont particulièrement performants pour dresser des « accusations en miroir », ou plus prosaïquement, une stratégie du «  C’est celui qui dit qui y est.  » La Russie est accusée d’attaquer un pays souverain en violation de l’ordre international ? Il lui suffit d’accuser en retour. Expliquer que l’OTAN s’est montré agressive. Expliquer que les Ukrainiens sont des « nazis ». Expliquer que les droits des peuples du Donbass sont violés depuis plusieurs années. La multiplication de ces accusations dilue l’accusation initiale dans un océan de vérités alternatives. L’effet final est de lasser le public, de défaire son rapport à la vérité, avant de défaire les cœurs et les esprits.

Illustration 3 - Sempé. L’inversion accusatoire : une stratégie aussi puérile qu’efficace

« L’agent d’influence n’est jamais pour, toujours contre, sans autre but que de donner du jeu, du mou, tout décoller, dénouer, défaire, déverrouiller. » explique un agent soviétique dans le roman « Le montage  » (Vladimir Volkoff, éd. Julliard – L’Age d’homme, 1982). Cette technique d’influence est appelée « technique du fil de fer ». Ce fil de fer, c’est notre rapport à la vérité. A force de le tordre, l’avalanche de désinformation finit par le casser. « Le sujet idéal de la domination totalitaire n’est ni le nazi convaincu, ni le communiste convaincu, mais celui pour qui les distinctions entre fait et fiction et entre vrai et faux n’existent plus . » écrivait Hannah Arendt. C’est ce qu’on appelle aujourd’hui l’ère de la post-vérité  : un monde où la distinction entre le vrai et le faux n’importent plus, tant le flux est assourdissant. Inonder la zone de merde (« Flood the zone with shit ») préconisait Steve Bannon. Il s’agit d’inonder l’auditoire de « fake news » afin de susciter la confusion et de lasser les journalistes et les communautés de « fact-checking ». La diffusion massive de contenus de désinformation pourrait faire advenir ce monde-là – et ses effets seraient matériels.

II. Des effets souvent immatériels mais toujours réels

Une action réelle sur le domaine virtuel de nos croyances et de nos représentations

Les actions de désinformation agissent d’abord sur un espace virtuel, celui de nos cadres de représentation et de nos croyances. Chez les héritiers des Soviétiques, ce genre d’action est appelé mesures actives, depuis l’époque de la Tcheka (1917-1922). Les mesures actives [3] sont des actions informationnelles qui ont pour objet de faire évoluer la vision d’un auditoire sur un sujet. L’addition de ces manœuvres permet in fine de faire évoluer le cadre de croyance. Un dicton du KGB illustre ce principe : « La goutte d’eau creuse la pierre, non par la force, mais en tombant souvent. ». Cette récurrence est appelée « bruit de fond » dans le domaine de la lutte informationnelle. Un peu à la manière d’une contrebasse ou d’un piano dans un orchestre de jazz, le bruit de fond permet d’assurer la permanence du rythme de la manœuvre d’influence.

L’effet du bruit de fond est démontré en psychologie sociale, depuis 1968 par Robert Zajonc [4]. « L’effet de simple exposition », tel que ce chercheur en psychologie sociale le baptise, est la tendance que nous avons à évaluer plus favorablement des informations familières, quels que soient la signification ou le crédit que nous accordons à ces informations. Le bruit de fond de la désinformation devient persistant par un autre effet documenté : l’effet d’influence continu. Les premières recherches sur l’effet d’influence continue datent de 1994 grâce à Hollyn Johnson et Colleen Seifert [5]. Leurs expériences démontrent qu’une information démentie et désormais tenue pour fausse par une audience, continue à guider inconsciemment le raisonnement d’une partie de l’audience, comme s’il n’y avait jamais eu de démenti. Comme le disait le philosophe Francis Bacon, « Calomniez ! Calomniez ! Il en restera toujours quelque chose » dans l’esprit de l’auditoire.

L’effet final : priver de la souveraineté, sans que le territoire ne soit pris

Le pouvoir de l’influence n’est pas nouveau. Le stratège Sun-Tzu (IV e siècle avant J-C) expliquait : « Soumettre l’ennemi sans ensanglanter la lame, voilà le fin du fin. ». Les ressources de l’influence permettent d’envisager cette soumission, ou plutôt la démission de l’adversaire. Comme l’a affirmé le général russe Valeri Guerassimov (1955 - ) « Les ressources de l’information permettent de priver l’adversaire de sa souveraineté sans que le territoire ennemi ne soit pris. ». C’est une nouvelle forme de stratégie indirecte, consistant à « gagner la bataille avant de l’engager » pour reprendre les mots de Sun Tzu. Avec Donald Trump au pouvoir, les mesures de contrôle réflexif déployées par la Russie semblent porter leurs fruits. Les Etats-Unis, le principal compétiteur de la Russie, sont désormais dirigés par un homme qui a fait l’objet de mesures actives des services russes, et qui laisse dire que l’Ukraine a provoqué l’invasion russe sur son sol et est responsable du conflit, en laissant élire le « dictateur » Zelensky à sa tête [6].

« Une bataille perdue, c’est une bataille qu’on croit perdue. » L’adage du maréchal de Saxe (1696-1750) n’a pas vieilli. Les contenus de désinformation peuvent littéralement défaire nos sociétés lorsqu’ils échappent à notre discernement, mais ils peuvent aussi, au contraire, susciter une envie de « faire bloc », une envie de demeurer souverains. Pour ce faire, la désinformation doit être combattue avant que ses effets ne se matérialisent.

Lorsque c’est matériel, c’est souvent trop tard

Lorsque la désinformation se matérialise, il est souvent trop tard. Si la population ne trouve plus le sommeil, c’est que l’hypothèse des punaises de lit est complètement ancrée dans les esprits. Si la population refuse de se faire vacciner, c’est que le scepticisme anti-vax triomphe. Si, comme en Roumanie en 2024, la population se choisit un candidat populiste, qui passe de 1% d’intentions de vote à la majorité des suffrages en six semaines, c’est que la rationalité démocratique est vaincue. Après avoir renforcé les peurs, après avoir altéré les croyances, après avoir convaincu les individus d’agir, la désinformation finit par se concrétiser au travers de conséquences matérielles : des insomnies, la recrudescence d’une épidémie ou encore un résultat électoral populiste. La matérialisation n’est que l’ultime effet de la désinformation. Lorsqu’elle advient, c’est qu’il est souvent trop tard pour agir. L’annulation de l’élection de Calin Georgescu en Roumanie au motif d’interférences étrangères dans la campagne a permis à l’intéressé de dénoncer un « déni de démocratie ». Et d’ouvrir un boulevard pour le candidat d’extrême droite qui se présente à sa suite.

Aux Etats-Unis, lorsque la foule donne l’assaut sur le Capitole (6 janvier 2021), il est trop tard pour agir contre les rumeurs et les fausses nouvelles. Dans l’échelle de viralité (« breakout scale ») construite par Ben Nimmo [7] pour évaluer la dangerosité des faux contenus, la matérialisation par l’action violente est d’ailleurs l’ultime degré de viralité auquel un contenu peut prétendre. L’échelle se divise en six « paliers de viralité » :

1. Une plateforme, pas de propagation.

2. Deux plateformes pas de propagation ou une plateforme et début de propagation.

3. Plusieurs plateformes, propagation.

4. Reprise médiatique.

5. Amplification par une personnalité publique.

6. Réponse politique ou Appel à la violence.

Illustration 4 – L’échelle de viralité de Ben Nimmo, toujours utilisée pour caractériser la manœuvre adverse

La matérialité est le signe d’un contenu de désinformation qui triomphe. On ne peut que souhaiter que la désinformation reste en deçà du stade 6, aux stades des rumeurs. Finalement, anticiper la matérialité des contenus de désinformation, permet de mieux limiter leurs effets.

Illustration 5 – Etats-Unis, 6 janvier 2021. L’assaut sur le capitole : illustration de la matérialité de la désinformation, stade ultime de propagation

III. Anticiper la matérialité

Ouvrir les yeux avant la matérialisation

C’est pourquoi il est essentiel d’ouvrir les yeux avant la matérialisation. « On ne combat pas un incendie les yeux fermés », entendait-on aux prémices du Covid pour justifier le besoin de tests de dépistage. Il en va de même pour les contenus de désinformation. Ils doivent être détectés et exposés dès qu’ils atteignent un certain seuil de viralité. C’est le travail essentiel que réalisent les équipes de VIGINUM. 
Pourtant, en dépit de nos capacités d’analyse, certaines données demeurent encore invisibles à nos yeux. Il est par exemple impossible d’estimer le volume et la proportion des contenus produits par intelligence artificielle que nous rencontrons au quotidien. De même, il est encore impossible de connaître avec exactitude le fonctionnement de l’algorithme de recommandation des plateformes. Ce sont donc les règles invisibles des algorithmes qui déterminent ce qui nous est donné à voir et à ne pas voir. Sur ces questions, il paraît essentiel de légiférer pour ne plus être aveugles. [8]

Ou plutôt pour ne plus être borgne, car il y a malgré tout des phénomènes qui sont observés et documentés en détail. Ainsi, 70% des contenus visionnés sur YouTube sont directement suggérés par l’algorithme de recommandation [9]. Par ailleurs, une fausse nouvelle se répand six fois plus vite et plus profondément qu’une information classique [10]. Sans surprise, nous sommes plutôt enclins à écouter l’arbre qui tombe, plutôt que la forêt qui pousse [11] ; les contenus construits pour devenir viraux sont souvent empreints de négativité. Ils se répandent ainsi plus facilement, dopés par la peur, la colère ou l’indignation qu’ils suscitent chez les utilisateurs. Enfin, une récente étude a également démontré que la représentation politique du monde que vous forgez sur X n’est en rien conforme à la réalité [12].

Reconnaître la réalité, sans attendre la matérialité

L’enjeu de la désinformation consiste finalement à reconnaître sa réalité, sans attendre d’observer sa matérialité. Un peu comme certains déclaraient « ne pas croire au Covid », il se trouve encore des individus qui « ne croient pas à la désinformation ». Ce déni est très pratique car il déresponsabilise. Une enquête de 2019 avait d’ailleurs souligné que ce refus de croire aux effets matériels avaient des conséquences sur la propagation des contenus. Ainsi la population de plus de soixante-cinq ans relaie davantage les faux contenus [13], car elle envisage moins les effets réels de la propagation de ces contenus. C’est l’illusion qu’un mauvais contenu peut rester une « bonne blague ».

Le cauchemar de Saint-Exupéry

De fait, il est difficile de croire que notre clic peut finir par influencer une mécanique électorale. Il est aussi difficile de croire que notre simple bulletin peut décider du sort d’une élection, pourtant nous votons. Nous reconnaissons l’incidence infinitésimale de ce geste. Nous gagnerions sans doute alors à comprendre que, lorsque nous facilitons la diffusion d’un contenu, nous votons. Puisque ce vote peut avoir de l’effet, il est opportun de s’interroger  : « Qu’attend-t-on de moi ? » . Telle est la question pertinente, plutôt que « Suis-je d’accord ? ». Si chaque utilisateur effectuait ce questionnement, la propagation des contenus serait vraisemblablement plus rationnelle et moins manipulable. D’autant que les statistiques des réseaux sociaux (metrics) permettent de sonder une population en temps réel sur ses opinions. En réagissant à chaud sur les réseaux sociaux, nous autorisons leurs propriétaires à nous sonder et à nous influencer en direct, sans jamais avoir ouvertement consenti à une telle situation. C’est un vote inconscient mais permanent que nous effectuons. L’analyse de nos données permet de cataloguer la population en un vivier influençable. Antoine de Saint-Exupéry affirmait qu’une « industrie basée sur le profit tend à créer – par l’éducation – des hommes pour le chewing-gum et non du chewing-gum pour les hommes ». L’écrivain rêvait de demeurer dans un monde où on fait du chewing-gum pour les hommes. Las ! Moins d’un siècle plus tard, l’exploitation systématique et semi-consentie des données de navigation accouche d’un monde où l’on utilise les hommes pour leurs cookies. Nous vivons en quelque sorte le cauchemar de Saint-Exupéry.

*

La réalité incontournable, finalement, est que la désinformation est devenue le premier sujet de préoccupation stratégique [14]. Le premier terrain que laboure la désinformation est celui de nos croyances, de nos peurs et de nos représentations. Un domaine immatériel, mais bien réel. L’un des enjeux de la lutte contre les manipulations de l’information est de reconnaître ce fléau réel, pour le combattre et le contrer, avant qu’il ne se matérialise. C’est pourquoi il est primordial d’ouvrir les yeux, d’exiger l’accès aux données, de continuer à détecter les actions informationnelles adverses et d’exposer celle qui le méritent. Ce combat, le citoyen ne le mène pas seul. Il peut exiger que la législation soit plus dure envers les plateformes. Exigeons que le consentement à l’utilisation de nos données par les plateformes soit explicitement sollicité. Exigeons la transparence sur le fonctionnement des algorithmes de recommandations. Exigeons des possibilités de paramétrages dans la vitesse de navigation ou dans les modalités d’affichages des statistiques. Exigeons davantage de taxes, qui viendraient financer des médias de confiance. Aujourd’hui, chaque utilisateur délègue aux plateformes le choix éditorial des contenus qui lui est proposé. Nous sommes arrivés à cet état de fait parce que nous n’avions pas réfléchi aux effets induits, à leur matérialité. Il est temps de reconnaître la réalité des effets sur nos démocraties. Il est temps de mieux analyser, mieux légiférer et mieux propager.

Copyright Mai 2025-Henry/Diploweb.com


Plus

. Edward Bernays, « Propaganda », H. Liveright, 1928.

. Stephen Brill, « The death of truth », Knopf, 2024.

. Gérald Bronner, « Apocalypse cognitive », PUF, 2021.

. David Colon, « La guerre de l’information », Tallandier, 2023.

. Giuliano Da Empoli, « Les ingénieurs du chaos », Jean-Claude Lattès, 2019.

. Christine Dugoin-Clément, « Influence et manipulations », VA Editions, 2021.

. Christine Dugoin-Clément, « Géopolitique de l’ingérence russe. La stratégie du chaos », PUF, 2025.

. Jean-Noël Kapferer, « Rumeurs », Seuil, 1987.

. Bruno Patino, « La civilisation du poisson rouge », Grasset, 2019.

. Ivor Thomas, « Warfare by words », Penguin, 1942.

. Jean-Baptiste Jeangène Vilmer, Alexandre Escorcia, Marine Guillaume, Janina Herrera, « Les manipulations de l’information, un défi pour nos démocratie »s, Carnets du CAPS, 2018.

Copyright Mai 2025-Henry/Diploweb.com

*

Samuel Henry s’exprime en son nom propre. Samuel Henry est officier de l’armée de Terre, actuellement stagiaire à l’Ecole de Guerre (Paris). L’an passé, il a soutenu une thèse sur les biais cognitifs dans la planification militaire. Il explore depuis plusieurs années nos mécaniques cognitives et leurs effets dans la prise de décision et dans le domaine des manipulations de l’information.

[1Déclaration de Jean-Noël Barrot, ministre français délégué à l’Europe – 1er mars 2024.

[2Pendant son premier mandat, le président Trump a employé le terme plus de 982 fois !

[3« Mesures prises par des agents qui visent à exercer une influence sur la politique étrangère et la situation politique intérieure de pays-cibles dans les intérêts de l’Union soviétique et d’autres pays de la communauté socialiste [...], affaiblissant les positions politiques, militaires, économiques et idéologiques du capitalisme, sapant ses plans agressifs, dans le but de créer des conditions favorables à l’implémentation de la politique étrangère de l’Union soviétique, et assurant la paix et le progrès social » - Vasiliy Mitrokhin, « KGB Lexicon : The Soviet Intelligence Officer’s Handbook », ed. Routledge, 2002.

[4Robert Zajonc – « Attitudinal effects of mere exposure ». Journal of Personality and Social Psychology. 1968.

[5Hollynn Johnson, Colleen Seifert – « Sources of the continued influence effect : When misinformation in memory affects later inferences ».Journal of Experimental Psychology : Learning, Memory, and Cognition. 1994.

[6Déclaration du président Donald Trump , 19 février 2025.

[7Ben Nimmo , « The breakout scale : measuring the impact of influence operations » – Brookings. 2020.

[8NDLR. Encore faudrait-il être capables de tenir à distance les intérêts étrangers possiblement portés par les cabinets de lobbystes qui ont un accès facile au Palais et Parlement.

[9Déclaration datée de janvier 2018 de Neal Mohan, responsable produit et désormais DG de YouTube.

[10Sinan Arab, Deb Roy et Soroush Vosoughi, « The spread of true and false news online », 2018.

[11La formule est du philosophe Hegel.

[12David Chavalarias, Paul Bouchaud et Maziyar Panahi, « Crowdsourced audit of Twitter’s Recommender System », 2023. La représentation politique fournie par les réseaux sociaux est souvent dis-morphique. Pour un individu d’extrême-droite ou d’extrême-gauche, le contenu X amplifiera la représentation de ces contenus. Pour un individu plutôt à gauche, les contenus d’extrême-gauche seront amplifiés. Pour un individu à droite, la représentation sera peu déformée.

[13Les plus de soixante-cinq ans partagent sept fois plus les « fake news » que les jeunes – France Inter – janvier 2019.

[14Etude Eurobaromètre – 2018.


Copyright DIPLOWEB sauf mention contraire


Citation / Quotation

Auteur / Author : Samuel HENRY

Date de publication / Date of publication : 18 mai 2025

Titre de l'article / Article title : Quelle matérialité de la désinformation ?

Chapeau / Header : 

La diffusion de faux contenus n’est plus anodine, tant par son caractère massif, que par les effets induits sur les opinions publiques et sur la vie de nos démocraties. Le terme « désinformation » fait désormais florès pour désigner ce phénomène accéléré par l’usage immodéré des réseaux sociaux. Si la désinformation agit d’abord sur nos croyances et dans un cadre virtuel, sa propagation peut avoir des effets réels dans le monde matériel. C’est de cette matérialité de la désinformation qu’il est question.

Documenté et pédagogue, Samuel Henry offre des clés pour comprendre un sujet majeur.

Adresse internet / URL : https://www.diploweb.com/spip.php?article2693

© Diploweb.com. sauf mention contraire.