TheGabonTime

[Tribune] La fabrique émotionnelle de l’opinion : Comment l’algorithme est devenu le premier éditeur politique d’Afrique

2026-03-25 - 16:02

Ils ne militent pas, ne tiennent pas de meeting, ne signent aucun éditorial. Pourtant, ils façonnent, continent après continent, les croyances, les colères et les certitudes de centaines de millions d’utilisateurs. Les algorithmes des grandes plateformes numériques sont devenus, en quelques années, les premiers éditeurs politiques d’Afrique, et les plus influents. Derrière leur neutralité apparente se cache une mécanique précise : émotions amplifiées, répétition érigée en stratégie de conviction, personnalisation radicale du flux comme vecteur de fragmentation sociale. Ike Ngouoni Aila Oyouomi* décortique ici les ressorts de cette emprise et interroge pourquoi l’Afrique s’y trouve particulièrement exposée. En Afrique, ce que vous croyez voir est souvent ce que l’algorithme a décidé de vous montrer. © GabonReview/Dall-E (IA) Fondateur cabinet de conseil stratégique AÏLA, Ike Ngouoni Aïla Oyouomi* est un ancien haut responsable gabonais. Il a servi comme porte-parole adjoint de la présidence de la République du Gabon entre 2017 et 2019. © D.R. Il existe désormais en Afrique un éditeur politique plus puissant que n’importe quel journal, n’importe quelle radio, n’importe quel parti. Il ne publie pas de ligne éditoriale. Il n’assume aucune responsabilité. Il n’a pas de rédacteur en chef. Il s’appelle algorithme — et il décide, pour chaque utilisateur, de ce qu’il voit, de ce qu’il ressent, et de ce en quoi il finit par croire. Le premier volet de cette série a décrit l’émergence des dispositifs d’influence algorithmique en Afrique centrale et sur le continent. Celui-ci entre dans la mécanique. Comment se fabrique concrètement une opinion politique à l’ère de TikTok et de l’automatisation ? Quels sont les ressorts cognitifs et techniques de cette influence ? Et pourquoi le continent africain est-il particulièrement exposé ? L’algorithme ne cherche pas la vérité. Il cherche l’attention. Comprendre ce qui se passe sur TikTok suppose d’accepter une réalité dérangeante : la plateforme n’a pas été conçue pour informer. Elle a été conçue pour retenir. Son algorithme — l’un des plus sophistiqués jamais déployés à cette échelle — analyse en temps réel des centaines de signaux comportementaux : le temps passé sur une vidéo, le moment précis où l’utilisateur fait défiler l’écran, ses réactions, ses recherches, ses habitudes d’écoute. L’objectif est unique : maximiser le temps passé sur la plateforme. Dans cette logique, l’émotion n’est pas un effet collatéral. C’est le carburant. La colère, l’indignation, la peur, le rire aux dépens de quelqu’un — ces états émotionnels génèrent les temps d’attention les plus longs et les taux d’engagement les plus élevés. L’algorithme les identifie, les récompense, les amplifie. Un contenu nuancé, contextualisé, qui invite à la réflexion, sera mécaniquement moins visible qu’un contenu qui provoque une réaction immédiate et forte. Le résultat est documenté. Une enquête menée par NewsGuard en 2022 sur 540 vidéos TikTok portant sur des sujets d’actualité a établi que près de 20 % d’entre elles contenaient des informations fausses ou trompeuses. Ce chiffre n’a pas fondamentalement évolué depuis — et une étude de l’Integrity Institute a confirmé que TikTok amplifie davantage la désinformation que ses principaux concurrents. Quant à ByteDance, la maison mère de la plateforme, elle a annoncé en 2024 la suppression de plusieurs centaines de postes de modérateurs humains pour les remplacer par de l’IA — avec un taux de réussite annoncé de 80 %, ce qui signifie concrètement que 20 % des contenus problématiques continuent de circuler librement. La répétition comme stratégie de conviction Le second mécanisme est moins spectaculaire que la désinformation directe — mais il est peut-être plus efficace sur le long terme. C’est la répétition. L’intelligence artificielle permet de produire industriellement des variations d’un même narratif — reformulé, réillustré, repositionné — et de les diffuser en continu jusqu’à ce que leur présence répétée crée un sentiment de familiarité. Or la familiarité, en psychologie cognitive, est l’un des principaux biais qui influencent les jugements de véracité : ce qu’on entend souvent finit par sembler vrai, indépendamment de son fondement factuel. Ce phénomène, connu sous le nom d’effet de vérité illusoire, est devenu une infrastructure de la persuasion politique numérique. Au Cameroun, des chercheurs de l’IFRI ont documenté comment cette logique de répétition est délibérément exploitée par les mercenaires numériques : un même récit défavorable à un adversaire politique est décliné sur des dizaines de comptes, avec des angles légèrement différents, jusqu’à s’imposer dans l’espace public non par la force de son argumentation, mais par la saturation cognitive qu’il produit. L’IA ne convainc pas — elle épuise la résistance critique. La chambre d’écho industrialisée Le troisième mécanisme est la personnalisation radicale du flux informationnel. Sur TikTok, la page « For You » — le flux principal — est entièrement calibrée sur les interactions passées de chaque utilisateur. Deux personnes du même quartier, du même âge, avec des profils socio-économiques proches, peuvent recevoir des représentations radicalement différentes d’un même événement politique, sans jamais le savoir. Cette fragmentation n’est pas neutre. Elle prive le débat public de son fondement le plus élémentaire : un espace commun dans lequel les citoyens sont exposés aux mêmes faits de base, même s’ils en tirent des conclusions différentes. Quand cet espace commun disparaît, le désaccord politique cesse d’être une confrontation d’arguments — il devient une confrontation de réalités incompatibles. Dans des contextes africains marqués par des fractures ethniques, régionales ou générationnelles préexistantes, cette fragmentation algorithmique peut agir comme un accélérateur de tensions. Elle ne crée pas les divisions — elle leur donne une infrastructure. Le harcèlement comme format politique Le quatrième mécanisme est peut-être le plus destructeur pour la qualité du débat public : la normalisation du harcèlement politique comme format éditorial à part entière. Dans l’écosystème des plateformes à logique algorithmique, l’attaque personnelle génère davantage d’engagement que la critique argumentée. Elle est plus courte, plus émotionnellement chargée, plus facilement partageable. L’IA permet sa production en série — reformuler les mêmes accusations sous des dizaines d’angles, maintenir une pression constante sur une cible, créer un sentiment d’unanimité hostile qui n’existe pas dans la réalité. Le résultat est une arène politique où prendre la parole devient risqué non pas à cause de la contradiction, mais à cause de l’exposition à une violence symbolique répétée et amplifiée mécaniquement. Cette dynamique décourage les voix modérées, appauvrit le débat public et favorise les positionnements les plus radicaux — qui, eux, sont algorithmiquement récompensés. Ce que cela change pour les décideurs africains Ces mécanismes ne sont pas des abstractions technologiques. Ils ont des conséquences directes sur les conditions dans lesquelles les institutions, les entreprises et les acteurs politiques africains opèrent aujourd’hui. Une campagne de désinformation bien construite peut désormais être lancée en quelques heures, diffusée à grande échelle en quelques jours, et produire des effets durables sur la réputation d’une personne ou d’une institution avant même qu’une réponse organisée soit possible. La vitesse de l’algorithme excède structurellement la vitesse de la vérification. Comprendre ces mécanismes n’est pas une option réservée aux spécialistes du numérique. C’est une compétence stratégique fondamentale pour quiconque agit dans l’espace public africain aujourd’hui. Le troisième et dernier volet de cette série proposera les fondements d’un pacte démocratique africain face à ces défis — entre régulation, responsabilité des plateformes et souveraineté informationnelle. Par Ike NGOUONI AILA OYOUOMI — AILA, Conseil Stratégique

Share this post: