
Chaque jour, nous «scrollons», «likons», commentons… mais qui protège vraiment nos réseaux sociaux ? Les IA sont promises comme des gardiens invisibles, mais peuvent-elles éteindre le feu… ou l’alimenter ? *
A travers ces automatismes, le flot de messages haineux, de fake news et de polémiques nous étourdit. Et si l’intelligence artificielle pouvait nous protéger de ces dérives ? Peut-elle vraiment nettoyer les réseaux sociaux, ou risque-t-elle de créer de nouveaux problèmes ?
Un message haineux apparaît. Quelques secondes plus tard, il disparaît. Ce n’est pas un modérateur humain qui est intervenu, mais une intelligence artificielle. Invisible, rapide, infatigable.
Depuis quelques années, les géants du numérique nous promettent des algorithmes capables de nettoyer les réseaux sociaux, de traquer la désinformation et de protéger le débat démocratique. L’IA serait devenue le nouveau gardien de nos espaces numériques.
Mais une question dérange, peut-on réellement confier l’extincteur à celui qui prospère lorsque l’incendie attire la foule ?
La concentration du pouvoir
L’IA n’est pas une entité autonome, c’est une propriété. Si celui qui possède l’outil de modération est le même que celui qui gagne de l’argent quand le débat s’envenime, peut-on vraiment lui faire confiance ? C’est comme demander à un marchand d’armes de rédiger un traité de paix.
Le paradoxe est frappant, d’un côté, les grandes plateformes financent des comités d’éthique et alertent sur les dangers de l’intelligence artificielle ; de l’autre, leurs modèles économiques reposent encore largement sur une ressource simple, notre attention.
Le paradoxe du « Pompier-Pyromane »
Il y a quelque chose de fascinant, pour ne pas dire de cynique, à voir les titans de la Silicon Valley monter sur scène pour nous alerter sur les dangers de l’IA. On nous promet des algorithmes ‘éthiques’, capables de traquer la haine et de protéger la démocratie. Mais cela occulte un point fondamental : ces mêmes dirigeants sont les propriétaires des plus vastes terrains d’observation sociale jamais créés.
D’un côté, ils financent des comités d’éthique en grande pompe, de l’autre, leurs ingénieurs règlent l’IA pour qu’elle nous serve, jusqu’à l’indigestion, les contenus les plus clivants. Pourquoi ? Parce que la paix sociale ne génère pas de clics. La nuance est un poison pour leur chiffre d’affaires.
On nous vend l’IA comme l’arbitre qui va nettoyer le terrain, alors qu’elle est en réalité l’outil de marketing ultime, celui qui a compris que pour nous garder captifs, il valait mieux stimuler nos réactions les plus immédiates que notre intelligence. En somme, ils nous vendent l’extincteur tout en arrosant la mèche d’essence.
Ce que beaucoup d’utilisateurs oublient, c’est que les réseaux sociaux sont aussi le terrain d’entraînement des intelligences artificielles. Chaque commentaire indigné, chaque partage impulsif, chaque polémique contribue, souvent à notre insu, à affiner des systèmes conçus pour comprendre ce qui nous fait réagir. Nous sommes à la fois le public… et la matière première.
Ils ont besoin que nous soyons actifs, et comme l’agressivité est le moteur d’activité le plus puissant, ils n’ont aucun intérêt financier à ce que l’IA nous rende « calmes » ou « réfléchis ».
L’IA : Arbitre ou Propriétaire du stade ?
L’arbitre, lui, est censé faire respecter les règles (modération), sans parti pris.
Le propriétaire : qui veut que le match dure le plus longtemps possible, même s’il y a des blessés, car il vend les billets (publicité).
Le problème n’est pas que l’IA se trompe.
Le problème, c’est qu’elle réussit parfaitement ce pour quoi elle a été conçue : capter notre attention.
*Connaissances arrêtées en mars 2026, même si, dans le monde de l’intelligence artificielle, ce qui est vrai aujourd’hui ne le sera peut-être déjà plus demain.
p.dN.