L’intelligence artificielle bouleverse profondément l’écosystème de l’information sur les réseaux sociaux. Dans des contextes de tension, ces technologies deviennent parfois des instruments de manipulation massive, ouvrant la voie à une nouvelle forme de désinformation capable d’alimenter la haine, de diviser l’opinion publique et, dans certains contextes sensibles comme les périodes électorales, d’attiser des violences collectives.
Sur les réseaux sociaux, la frontière entre réalité et manipulation devient de plus en plus floue. Grâce aux outils d’intelligence artificielle, il est désormais possible de créer, en quelques minutes, des images d’un réalisme saisissant.
Ces dernières années, plusieurs contenus viraux ont profondément choqué l’opinion publique dans la région. Parmi eux, des images montrant des hommes vêtus de l’uniforme militaire burundais, accusés d’avoir commis des massacres dans la province de Karusi. D’autres montages présentent des scènes de guerre particulièrement violentes : maisons incendiées, corps ensanglantés et destructions massives supposées provenir de l’est de la République démocratique du Congo.
Dans un autre cas très commenté, une image manipulée montrait une haute autorité politique transformée en enfant gravement malnutri, une représentation qui a suscité une vague d’indignation et de commentaires virulents. Le point commun de ces contenus réside dans leur capacité à provoquer des réactions émotionnelles immédiates : colère, indignation ou peur avant même toute vérification de leur authenticité.
Observatrice active des dynamiques numériques, Dacia Munezero estime que l’intelligence artificielle introduit une nouvelle forme de manipulation de l’information. Selon elle, la viralité de ces images repose sur un mécanisme simple : provoquer une réaction émotionnelle forte.
Pour elle, la sophistication croissante des outils d’IA rend la manipulation encore plus dangereuse :« Aujourd’hui, une image générée par intelligence artificielle peut sembler totalement authentique. Pour un internaute qui ne connaît pas ces technologies, il devient très difficile de distinguer le vrai du faux. »
Pour Claude Nkurunziza, journaliste suivant de près l’évolution des réseaux sociaux, l’intelligence artificielle transforme profondément la nature de la désinformation :« Autrefois, les montages étaient souvent grossiers et faciles à repérer. Aujourd’hui, certains contenus générés par IA sont tellement réalistes qu’ils trompent même des internautes expérimentés. »
Il cite notamment le cas d’images prétendument prises dans des zones de conflit : « On voit des villages en flammes, des scènes de massacre ou des paysages dévastés par la guerre. Ces images sont extrêmement choquantes et provoquent une réaction émotionnelle très forte. Mais lorsque des journalistes ou des chercheurs tentent de vérifier ces contenus, ils découvrent parfois qu’aucun événement de ce type ne s’est produit à cet endroit. »
Des conséquences potentiellement dévastatrices
Expert en leadership et influenceur suivi sur les réseaux sociaux, Acher Niyonizigiye voit dans ces technologies un risque réel pour la stabilité sociale. Selon lui, les images manipulées peuvent rapidement alimenter des dynamiques de haine collective : « Une seule image peut suffire à déclencher une vague d’indignation ou de colère. Si quelqu’un diffuse une image montrant une autorité humiliée ou accusée de crimes graves, les réactions peuvent devenir extrêmement violentes dans les commentaires. »
Ces réactions, poursuit-il, ne restent pas toujours confinées à l’espace numérique :« Lorsque les gens se sentent offensés ou attaqués, la colère peut se transformer en hostilité réelle. Les réseaux sociaux deviennent alors un amplificateur des tensions déjà présentes dans la société. »
Abondant dans le même sens, Dacia Munezero met particulièrement en garde contre les périodes électorales : « Dans un contexte politique tendu, la diffusion d’images manipulées montrant, par exemple, des urnes volées ou des fraudes imaginaires pourrait suffire à déclencher des affrontements entre militants. »
Pour Claude Nkurunziza, ces manipulations peuvent avoir des conséquences profondes sur la société : « Lorsqu’une fausse information accuse une institution ou une communauté de crimes graves, elle peut créer un climat de suspicion et de méfiance. Même si la vérité finit par être rétablie, les dégâts psychologiques et sociaux peuvent persister. »
Face à ce phénomène, il appelle à développer une véritable culture de vérification de l’information : « Les internautes doivent apprendre à vérifier les sources, comparer les informations avec des médias crédibles et utiliser des outils de vérification d’images. Sans cet esprit critique, nous devenons tous vulnérables à la manipulation. »
Derrière ces montages, précise-t-il, les motivations sont rarement innocentes : « Certains cherchent délibérément à manipuler l’opinion publique. Il peut s’agir de discréditer une personnalité publique, d’alimenter la colère contre un groupe ou de créer un climat de méfiance, voire de chaos dans la société. »
Appel à la vigilance
La sensibilisation du public apparaît comme une priorité pour expliquer le fonctionnement des technologies d’intelligence artificielle et apprendre à repérer les contenus manipulés, souligne Acher Niyonizigiye.
Selon lui, il est également essentiel de rappeler que ces pratiques peuvent avoir des conséquences juridiques : « Les personnes qui fabriquent des images destinées à salir quelqu’un ou à provoquer la haine doivent savoir qu’elles peuvent être poursuivies par la loi, notamment dans le cadre de la législation sur la cybercriminalité. »
Pour Claude Nkurunziza, la lutte contre la désinformation doit impliquer l’ensemble de l’écosystème numérique : « Les médias, les plateformes et les internautes ont chacun une responsabilité. Sans une culture collective de vérification de l’information, la désinformation continuera de prospérer. »
Quant à Dacia Munezero, les internautes doivent apprendre à analyser les images, à écouter attentivement les voix dans les vidéos et à prendre le temps de vérifier les informations avant de les partager.




