Cette recension a été publiée dans le numéro d’hiver 2020-2021 de Politique étrangère (n° 4/2020). Julien Nocetti propose une analyse de l’ouvrage de Samuel Woolley, The Reality Game: How the Next Wave of Technology Will Break the Truth (PublicAffairs, 2020, 272 pages).

Les études sur la propagande et la désinformation sont traversées de nombreux chausse-trappes et néologismes. Dans The Reality Game, il n’est pas question de fake news ; pour l’auteur, l’expression, ultra-malléable, serait devenue un outil de diffusion massive des fausses informations elles-mêmes. Dans la foulée de travaux récents, Samuel Woolley, à la fois universitaire et think tanker, privilégie le terme de computational propaganda, qu’il estime refléter plus fidèlement les mutations technologiques en cours. Celle-ci consiste en la combinaison des usages des réseaux sociaux, des métadonnées (big data) et d’algorithmes d’Intelligence artificielle (IA) dans l’objectif de manipuler l’opinion publique.

Les illustrations abondent : recourir aux réseaux sociaux (Facebook, Twitter, etc.) pour attaquer anonymement des journalistes et les dissuader dans leurs enquêtes ; utiliser des serveurs vocaux interactifs imitant la voix humaine pour appeler simultanément des milliers d’électeurs et les désinformer ; utiliser l’IA et les bots pour fausser la communication humaine dans le but de piéger les algorithmes qui gèrent les nouvelles sur les moteurs de recherche et les réseaux sociaux en priorisant certaines par rapport à d’autres. L’idée derrière la computational propaganda est bien de permettre une propagande et une désinformation très personnalisées, tous azimuts, et difficilement maîtrisables pour la victime.

La propagande computationnelle a de nombreux effets bien réels, parfois physiques. Si Samuel Woolley livre des exemples concrets – l’affaire Jamal Khashoggi, les attentats du marathon de Boston en 2013 –, il souligne surtout la dérive technologique de la propagande et de la désinformation à l’ère du tout-numérique. Les vidéos deepfake, qui manipulent la réalité, deviennent de plus en plus crédibles grâce aux outils d’IA, créant un espace d’expression pour de nouveaux types de désinformation – peu coûteux – et présentant un risque élevé d’escalade, notamment dans des contextes électoraux.

Ces outils contribuent à élargir le cercle des acteurs pouvant influencer directement les opinions publiques, voire la prise de décision politique. La désinformation et la subversion « augmentées » à l’IA, moins statiques car diluant plus habilement qu’auparavant l’authentique dans la confusion, renouvelleront, selon l’auteur, les pratiques de guerre informationnelle.

Une autre difficulté majeure tient à l’alignement de facto des intérêts des principaux acteurs de l’« économie de l’attention » (les GAFAM), et de ceux produisant de la désinformation politique. Pour les États, l’un des défis consiste à agir sur le terrain politique en ne laissant pas aux grandes plates-formes le monopole de l’initiative technologique. Woolley n’élude pas la responsabilité des acteurs privés – dont YouTube, souvent « oublié » dans les débats –, qui préfèrent souvent se défausser derrière les promesses de l’IA pour éradiquer désinformation et propagande, au détriment de la prise en compte d’autres facteurs (conditions de travail et formation des modérateurs de ces plates-formes, interrogation sur le profil des consommateurs de la propagande computationnelle, etc.).

Enfin, un des messages de l’ouvrage – nous vivons à une époque où la quête pour contrôler la réalité devient ludique – aurait mérité d’être davantage approfondi, ce que l’auteur fera certainement dans de prochains travaux.

Julien Nocetti

>> S’abonner à Politique étrangère <<