À l’heure où les intelligences artificielles génératives deviennent des outils de diffusion massifs, la question n’est plus seulement celle de la puissance technique, mais de l’éthique de leur usage. Certaines entreprises, au nom d’une vision libertarienne absolue, refusent d’intégrer des garde-fous éthiques. Pourtant, comme le démontre la philosophe Shoshana Zuboff, il est urgent d’encadrer la captation de l’attention et les effets de renforcement que produisent les IA dans un espace public déjà saturé de manipulations. Ce texte plaide pour une IA éthique, contextuelle, programmable, au service de la vérité.
1. L’Europe face à l’intégrisme libertarien
Contrairement aux États-Unis, l’Europe considère que la liberté d’expression s’arrête là où commence la mise en danger d’autrui. Le négationnisme, l’incitation à la haine, les propos racistes ou antisémites sont interdits et pénalement punis. Ces principes sont intégrés au droit et peuvent — sans difficulté technique — être implémentés dans des algorithmes de filtrage, de modération ou de post-traitement. Refuser ces filtres au nom de la liberté, comme le fait Elon Musk avec Grok ou comme le laisse entendre Google avec Veo, revient à ouvrir la voie à une jungle informationnelle incontrôlable.
2. Ce que démontre Zuboff
Dans ‘The Age of Surveillance Capitalism’, Zuboff explique comment les grandes plateformes ont construit leur modèle économique sur la captation et la prédiction du comportement humain. Ce qu’elle appelle les ‘excroissances numériques de la réalité’ deviennent la norme, non pas parce qu’elles sont vraies, mais parce qu’elles sont virales. L’IA, si elle n’est pas régulée, va amplifier cette logique, créant des réalités artificielles répétées jusqu’à être perçues comme des vérités.
3. Une IA éthique est possible
Il est aujourd’hui techniquement possible d’intégrer des garde-fous éthiques :
– Détection du discours haineux
– Ralentissement de la propagation de contenus douteux
– Contextualisation automatique
– Débunkage assisté par IA
– Watermarking systématique des contenus générés
Ces fonctions ne censurent pas — elles responsabilisent, elles contextualisent, elles rendent visible ce qui est artificiel. Elles peuvent être soumises à un contrôle démocratique, via des organismes indépendants, transparents, multi-acteurs.
4. Pourquoi certains s’y opposent
Les plateformes refusant ces garde-fous invoquent souvent la liberté, mais agissent selon des logiques de pouvoir : idéologie libertarienne, instrumentalisation politique, logique de viralité commerciale. Le refus de filtrage n’est pas neutre — il est volontaire. Il permet d’organiser un brouillage informationnel qui sert les intérêts de ceux qui contrôlent les plateformes. Dans un tel cadre, l’éthique devient subversive, car elle impose des limites à l’illusion de toute-puissance.
Conclusion : l’éthique est un choix technique
L’éthique n’est pas un frein à l’innovation, elle en est le socle. Refuser de l’intégrer dans l’IA, c’est fabriquer une machine à illusion, à manipulation, à polarisation. À l’inverse, une IA éthique, transparente, contextuelle, n’est pas seulement possible : elle est urgente. Et elle commence par une décision humaine.