Démocratie, décroissance et IA

Des amis m’ont récemment placé dans une situation bien inconfortable : ils m’ont invité à venir parler de décroissance, mais, en même temps, je me suis vu imposer un cadre si horizontaliste d’intervention que le hiatus entre le fond et la forme de ce que j’avais prévu de faire devenait un gouffre.

Car tout l’apport de mon « travail » sur la décroissance depuis des années consiste à refuser cette disjonction du fond et de la forme, car elle revient toujours au final à neutraliser le fond (radical) au seul profit d’une forme (horizontaliste) où le brouillard du régime de croissance continue se diffuser. Cet horizontalisme peut prendre le prétexte de donner la parole aux citoyens, mais en réalité il revient à mettre à plat toute différence entre des recherches approfondies et la moindre opinion d’un auditeur présent, aux dépens de la radicalité dont la critique a pourtant impérativement besoin.Pour prendre en considération une réelle radicalité, il faut précisément sortir de ce que j’appelle la « décroissance mainstream« , c’est-à-dire une décroissance qui en reste à la surface des phénomènes et qui ne voit dans la croissance que ses dimensions économiques et écologiques, mais jamais sa dimension politique. C’est l’objet de la courte présentation de la décroissance qui suit.

Un autre ami, enseignant à la fac de Montpellier me signalait que le jeudi 25 septembre avait lieu une conférence sur décroissance et IA. Il ne pouvait y aller ; moi non plus. Dommage. Mais je sais exactement à partir de quel cadre je serais allé écouter cette conférence : de quelle décroissance va-t-il s’agir ? Ou plus exactement, va-t-il s’agir de s’opposer à l’économie de la croissance, au monde de la croissance ou aussi au régime politique de croissance ?

Car si l’on oublie de radicaliser la critique contre la croissance jusqu’à se baigner dans le « milieu » politique du régime de croissance, alors on peut en venir à une IA décroissante-compatible ; soit parce qu’elle serait sobre ; soit, parce que la balance utilité sociale / coût écologique pourrait se révéler profitable. Mais dans cette balance, a-t-on tenu compte des enjeux démocratiques ? Ou pour le dire autrement : quand on jauge l’IA sur ces impacts, de quels impacts s’agit-il ? Économiques, écologiques, sociaux, politiques ?

1. Deux définitions de la décroissance (en 9 minutes)

1.1 Le fil conducteur

  1. Démocratie, décroissance et IA : un enjeu, une solution, un problème.
  2. 1ère définition de la décroissance : un faisceau de trajectoires (de rupture).
  3. Le hic : aujourd’hui, ces trajectoires ne font pas faisceau mais sont seulement un agrégat apolitique.
  4. 2ème définition de la décroissance : l’opposition politique à la croissance (redéfinie comme économie, comme monde et comme régime).
  5. Tableau récapitulatif (les périls, les oppressions, les espérances).

1.2 En résumé

Comment poursuivre ? Comme d’habitude (business as usual) ? Non, parce que les plafonds de soutenabilité écologique sont dépassés. Mais alors comment atteindre le projet de post-croissance ? Pas de façon subie (l’effondrement, la collapsologie) mais en faisant le choix politique de la décroissance = qui est un faisceau de trajectoires de rupture. Le « hic », c’est qu’aujourd’hui ces trajectoires ne forment qu’un agrégat apolitique. D’où le défi de construire politiquement de la cohérence : c’est la décroissance comme opposition politique à la croissance. Et comme la croissance, c’est une économie, un monde et un régime politique, alors la décroissance c’est une décrue économique, une décolonisation des imaginaires et un renversement politique.

1.3 La vidéo-diapos

1.4 Les quatre diapos clés

2. La démocratie au péril de l’IA ; que peut proposer la décroissance ?

2.1 Le fil conducteur

  1. Le dernier Rapport international sur la sécurité des systèmes d’IA (janvier 2025) développe les « utilisations malveillantes », les « dysfonctionnements » et les « risques systémiques » liés au développement de l’IA.
    • Présentation des risques relevés.
    • La conclusion du rapport.
  2. L’IA est un totalitarisme, si l’on reprend la définition qu’en donne Harmut Rosa à propos de l’accélération :
    • Elle exerce une pression sur nos volontés et nos actions.
    • On ne peut guère lui échapper.
    • Elle est omniprésente et s’occupe de tous les aspects de notre vie sociale.
    • Il est inutile, sinon impossible, de la critiquer : « on n’arrête pas le progrès ».
  3. Pour un moratoire des recherches sur l’IA.
    • Le potentiel atomique de l’IA est triple :
      • Coûts économiques et écologiques irréversibles.
      • L’IA sape le fondement de toute vie humaine : la confiance (Mark Hunyadi).
      • Les défenseurs de l’IA (Peter Thiel est le plus connu), pour défendre (leur conception libertarienne de) la liberté opposent explicitement technologie et politique, IA et démocratie. Un monde avec IA, c’est un monde sans démocratie.
    • Moratoire ne signifie pas arrêt des budgets mais redirection décroissante.

2.2 En résumé

Si on prend au sérieux le danger démocratique que fait courir l’IA, alors il faut envisager une décroissance de la recherche technologique (du numérique en particulier et a fortiori de l’IA) sous la forme d’un moratoire, c’est-à-dire sous le contrôle démocratique d’un ralentissement et d’une redirection décroissante.

2.3 En vidéo

Les risques, le danger du totalitarisme, un moratoire

Annexe : Démocratie, IA et décroissance

Tout ce qui se fait pour nous mais sans nous se fait en réalité contre nous. C’est le cas de l’IA, et voilà pourquoi il faut la contrer.

Cette analyse-enquête repose sur près d’une cinquantaine de références qui, pour l’essentiel, ne viennent que d’articles du journal Le Monde. C’est dire le déferlement de l’IA si on le mesure rien qu’au nombre d’articles qui lui est consacré dans un seul journal sur une période, grosso modo, de 4 mois. Et j’ai trié.

Qu’est-ce que l’IA ?

C’est un domaine technoscientifique dans lequel des programmes – des algorithmes – informatiques imitent l’intelligence humaine, en reproduisant « des comportements liés aux humains, tels que le raisonnement, la planification et la créativité »[1].

Pour télécharger et lire l’annexe sur l’IA au format PDF

→ Là où l’informatique (et les NTIC) automatisait[2], l’IA autonomise. Un « agent de l’IA » ne se limite plus à l’automatisation, il peut gérer de manière autonome des tâches complexes à plusieurs étapes.

  • Les assistants d’IA sont un type d’agent d’IA, doté d’une interface en langage naturel, dont la fonction est de planifier et d’exécuter des séquences d’actions
    • les modèles de base contiennent des capacités couvrant plusieurs domaines et allant bien au-delà de ce qu’un seul humain pourrait espérer réaliser, par exemple pour automatiser des tâches telles que, mise en place de rappels, planification des réunions, converser en plusieurs langues, écrire un code informatique de qualité professionnelle, analyser des images médicales…
  • L’IA conversationnelle, opérée par des agents de dialogue, qui comprennent des produits tels que ChatGPT et Gemini, dont l’objectif est de simuler un interlocuteur qui peut engager une conversation avec l’utilisateur. Les agents de dialogue couvrent un large éventail d’applications, comme le tutorat, le débogage de code, les conseils et la résolution de problèmes.
  • Les 3 facettes de l’IA :
    • L’IA générative : utilisée pour générer du contenu nouveau tel que textes, images, vidéos, lignes de code, musique, etc.
    • L’IA prédictive : utilise des modèles statistiques et des algorithmes pour analyser des données historiques et faire des prévisions sur des événements futurs. Elle est utilisée par les entreprises cherchant à anticiper par exemple les besoins des clients, optimiser les opérations et aider les prises de décision stratégiques.
    • L’IA extractive : spécialisée dans l’analyse et l’extraction d’informations précises de vastes ensembles de données. Elle est utilisée pour les entreprises dans  la prise de décision rapide et fondée sur des données nombreuses.
IA générative
IA conversationnelle

1.   Les risques de l’IA

Dans une société à la fois sécuritaire et individualiste, le danger s’est mué en risque. Dans une société du risque, le danger n’est plus qu’une possibilité, voire une probabilité, que chacun peut affronter. Quand le danger est une menace de dommage, le risque peut être une chance de gagner plus. Face à un danger, la précaution est obligatoire ; face à un risque, elle est facultative.

1.1 Des risques repérés par les chercheurs eux-mêmes.

Comme toute technologie, l’IA comporte des risques. Commençons donc par lire ce que les chercheurs eux-mêmes ont repéré, tout en se demandant s’il faut voir dans leur autocritique un espoir (autolimitation de la recherche) ou bien une capitulation (puisqu’on n’arrête pas le progrès, alors autant se contenter de s’adapter) ?

  1. En 2024, sur le site de prépublication arXiv, plus de 50 chercheurs en IA, dont des experts de Google, publient un article consacré à l’éthique des assistants avancés de l’IA[3].
    1. Les domaines d’intérêt éthique identifiés dans cet article couvrent l’alignement des valeurs, la sécurité technique, la confiance, la vie privée, l’anthropomorphisme, la persuasion et la manipulation, les préférences des utilisateurs, le bien-être des utilisateurs, les relations appropriées et inappropriées, la coopération, l’équité et l’accès, l’impact économique, les utilisations malveillantes, la désinformation et l’impact environnemental.
    1. L’article se conclut par une longue liste des « principales opportunités, risques et recommandations ». Ce que je retiens c’est leur crainte de voir arriver « un monde où les utilisateurs abandonnent les interactions compliquées et imparfaites (…) avec les humains en faveur des échanges sans frictions fournis par les IA ». Il faudra y revenir car la question de l’organisation des interactions est au cœur de la démarcation entre croissance et décroissance.
  2. En janvier 2025, est publié le dernier Rapport international sur la sécurité des systèmes d’IA[4], qui identifie 3 sortes de risques[5] :
    1. Les « utilisations malveillantes » : désinformation, cyberharcèlement ou manipulation de l’opinion. Une autre facette concerne l’utilisation de l’IA pour fabriquer des armes biologiques ou chimiques.
    1. Les  « dysfonctionnements » : problèmes de fiabilité (erreurs, inventions…), présence de biais discriminants ou encore perte de contrôle.
    1. Les « risques systémiques ». la liste s’étend du coût environnemental aux pertes d’emplois, en passant par les infractions aux droits d’auteur, les atteintes à la vie privée ou les inégalités de développement entre pays dotés ou non de ces capacités.

1.2 Et donc…

Et quand on lit la conclusion, on ne peut qu’être sidéré à sa lecture tant la mesure des risques de l’IA ne semble pas prise, puisqu’ils en restent à la critique utilitariste de la technique – celle qui met en balance les « fruits » et les « risques », i.e. les bons usages et les mauvais usages – sans jamais arriver à poser la question cruciale, celle de l’utilité de l’utilité, i.e. de son sens.

« Pour récolter les fruits de cette technologie transformatrice en toute sécurité, les chercheurs et les décideurs politiques doivent identifier les risques qui l’accompagnent et prendre des mesures éclairées pour les atténuer… Il existe des méthodes techniques pour faire face aux risques de l’IA universelle, mais elles ont toutes des limites… Il est donc difficile d’évaluer ou de prédire ce dont l’IA généraliste est capable et son degré de fiabilité, ou d’obtenir des garanties sur les risques qu’elle pourrait poser… L’IA ne nous est pas imposée ; ce sont les choix des individus qui déterminent son avenir. Les réponses à ces questions et à bien d’autres dépendent des choix que les sociétés et les gouvernements font aujourd’hui et à l’avenir pour façonner le développement de l’IA à usage général. »

Est pourtant avait été mis en avant ce qui constitue bien le principal risque que fait encourir l’IA, ce qu’on appelle le « dilemme de la preuve » : soit on prend sans tarder des mesures mais en raison des preuves limitées, ces mesures risquent de se révéler inefficaces ou inutiles ; soit on attend des preuves plus solides mais, dans ce cas, il risque d’être trop tard au moment de réagir.

Mais comment devant la puissance de l’IA et l’incertitude de ses effets, peut-on en rester à la traditionnelle balance entre nuisance et utilité ; comme s’il suffisait d’en appeler au « choix des citoyens pour déterminer son avenir ».

Ce que l’on voit bien, c’est que ces chercheurs ne disposent pas d’un cadre politique extérieur à la dynamique interne de l’IA. Autrement dit, l’IA effectue comme jamais auparavant le désencastrement de la technologie et de la société, comme sortie de la politique : non seulement l’IA produit des « agents » de plus en plus autonomes, mais l’IA elle-même devient de plus en plus autonome par rapport à la société.

Autrement dit, l’IA accomplit du côté de la technologie, ce qui est déjà dénoncé par les décroissants du côté de l’économie comme économisation, i.e. la technologisation du monde : de la même façon qu’il ne faut pas dire que nous sommes une société avec une économie de croissance mais une « société de croissance », il ne faut pas dire que nous sommes une société avec une technologie de l’IA mais nous sommes en train de devenir une « société de l’IA ».

Le plus plausible semble d’ailleurs que société de croissance et société de l’IA soient strictement les mêmes : et pour le voir, il faut aller jusqu’à voir dans la croissance un régime politique.

2.   L’IA est un totalitarisme

2.1 Parce que l’IA nous guide

D’un ami à qui on demande un conseil, on attend qu’il se mette à notre place sans qu’il nous remplace. D’une chose technique, on attend l’inverse : qu’elle nous remplace, mais qu’elle reste sous notre contrôle. Sauf que :

  1. Ce qui était vrai des robots l’est encore plus des bots, à savoir : un robot ne peut nous remplacer qu’à condition que la tâche ait déjà été automatisée, robotisée.
  2. L’IA peut nous remplacer et se mettre à notre place, autrement dit, elle peut nous remplacer et physiquement et intelligemment. Elle peut être cet « autre moi-même » qui définissait l’ami selon Aristote.
  3. Et de façon beaucoup plus efficace (objectif atteint) ; mais peut-être pas de la façon la plus efficiente (optimisation des ressources).
  4. Voilà pourquoi l’IA ne se contente pas de nous rendre service, elle nous guide[6].

En voici quelques exemples, dans les deux principaux usages grand public.

2.1.1 IA générative
  • Tilly Norwood, actrice IA, va-t-elle rendre obsolète le métier d’acteur[7]. Mais quel type de cinéma est menacé par ce type d’acteur ?
  • CariGem18, publiée sur Archive of Our Own (AO3), voulait une histoire mêlant l’univers de la saga Harry Potter à celui de la série télévisée House of the Dragon. Plus spécifiquement, il fallait que le personnage de Drago Malfoy se réveille dans le corps de Lucerys Velaryon. Qu’à cela ne tienne : elle a utilisé le robot conversationnel ChatGPT pour générer un texte de 75 000 mots, soit 33 chapitres. Sa toute première fanfiction, qui a généré plus de 33 000 clics et 170 commentaires, pour la plupart enthousiastes : « J’adore », « Beau boulot », « Bien écrit ! ». Quand les lecteurs l’interrogent sur l’usage de l’intelligence artificielle (IA), dont elle ne fait pas mystère, elle répond : « Chaque rebondissement et chaque décision liée aux personnages viennent de moi. L’IA m’a juste servi à sortir cette vision de ma tête. » « Traduction : “Je n’ai rien écrit de tout ça, j’ai utilisé une machine à plagiat pour le faire à ma place.” », rétorque, amère, une internaute[8].
  • Les agents IA, « vos futurs collègues » capables d’accomplir des tâches rébarbatives, se dévoilent → Des géants de la Tech comme OpenAI, Google ou Salesforce commercialisent déjà ces outils d’intelligence artificielle de plus en plus complexes sans supervision, ou peu, des salariés. « On entre dans l’ère du collègue numérique », lance Emilie Sidiqian, la directrice générale de Salesforce France, sous-entendant que ces agents IA ne sont pas là pour chômer[9].
  • La planète compte, en juillet 2025, 800 millions d’utilisateurs hebdomadaires de ChatGPT, le double de mars 2025. Mais sait-on si l’utilisation de cette intelligence artificielle (IA) aura des conséquences sur le fonctionnement cérébral ? Oui, répondent en substance des spécialistes en neurotechnologie du MIT Media Lab de Cambridge (Massachusetts) dans une étude préliminaire, non révisée par les pairs, qui souligne que parmi des étudiants devant rédiger une série de travaux et les mémoriser, ceux s’étant contentés d’utiliser ChatGPT avaient, quatre mois plus tard, baissé en compétences neuronales, linguistiques et comportementales[10].
  • L’utilisation massive de l’intelligence artificielle par les étudiants ne pose pas que la question de la place à lui donner dans les cours et celle de la triche. Elle interroge aussi de plus en plus d’enseignants et d’étudiants sur la capacité et l’envie d’apprendre en faisant des efforts[11].
    • En mai, une étude sur les IA parue dans la Harvard Business Review montrait comment l’utilisation de ChatGPT – rédiger un bilan de performance, réfléchir à des idées ou concevoir un courriel de marketing – dans un échantillon de 3 500 professionnels avait entraîné à court terme un gain indéniable de leur performance (rapidité et qualité). Mais aussi comment celle-ci s’était accompagnée rapidement d’une baisse de leur « motivation intrinsèque » (le plaisir ou la satisfaction de réaliser soi-même quelque chose) et d’une augmentation de l’ennui dès lors que ces employés devaient effectuer d’autres tâches sans l’aide de l’IA.
    • « Il faut imaginer ce que cette habitude à déléguer les efforts cognitifs peut donner sur des étudiants encore en construction. C’est catastrophique ! » s’alarme Marius Bertolucci, maître de conférences en sciences de gestion à Aix-Marseille Université et auteur d’un ouvrage dénonçant les dangers de l’intelligence artificielle (L’Homme diminué par l’IA, Hermann, 2023). « Apprendre en cours ce que sont les IA, bien sûr. Apprendre “avec les IA”, non ! » tranche-t-il. Car en plus « de priver les étudiants de l’envie de faire des efforts, l’intelligence artificielle les rend surtout dépendants d’elle », alerte l’enseignant.

Les assistants IA mettent donc ainsi en place un « assistanat » qui ne se contente pas de rendre service – ce que faisait déjà l’automatisation informatique des tâches – mais qui asservit : car l’autonomisation des assistants IA paraît tellement « commode » dès qu’il s’agit d’envisager la planification d’une tâche qui comporte un grand nombre de paramètres et de variables.

2.1.2 IA conversationnelle

Dans un monde basé sur la division des individus les uns par rapport aux autres, les réseaux sociaux peuvent se faire passer pour des entremetteurs. En fait, ils ne relient que des gens préalablement séparés : l’individualisme et les réseaux sociaux ne sont que les deux faces d’une même monnaie, celle de la société de consommation. C’est dans ce monde qu’émerge l’IA qui va elle aussi répéter et accentuer le même geste d’emprise. Se faire passer pour une solution mais en vérité accroître le problème : de l’assistance à l’accompagnement, puis au coaching, vers l’addiction et la dépendance. A chaque stade, toujours plus d’individualisation, toujours plus de dépendance sous le masque de toujours plus liberté, en réalité, toujours plus de solitude.

Chatbots sur Messenger
  • E c’est pourquoi dans ChatGPT, la hiérarchie des règles est ainsi programmée pour que les consignes et les désirs des usagers aient la priorité sur une partie des exigences de sécurité, de neutralité et de distance émotionnelle de l’IA. Sous le masque d’une personnalisation, une croissance de la mise en bulle de chaque individu[12].
  • Sur Instagram et Messenger  débarquent les IA personnalisées. On peut converser avec  Jésus, Naruto, Poutine, une « copine virtuelle » ou un spécialiste des cryptomonnaies… Il est désormais possible, pour les utilisateurs français des plateformes de Meta, d’y créer des chatbots dotés de leur propre personnalité, ainsi que de discuter avec ceux des autres. Ce qui n’est pas sans poser problème[13].
  • L’application Wysa promet par exemple l’accès à un « coach personnel » tandis que Youper propose de réduire symptômes dépressifs et troubles anxieux. Un projet qui fait mouche. D’aprèsThe Guardian, plus de 100 millions de personnes dans le monde utilisent des chatbots personnifiés à l’image de Nomi, présenté par ses fondateurs comme un « mentor perspicace »[14].
  • Confronté à l’amoncellement des cas graves, OpenAI a reconnu en août que son robot ChatGPT n’était pas encore entièrement prêt à discuter avec des personnes fragiles psychologiquement, et a par ailleurs affirmé travailler à des remèdes, réduisant petit à petit le niveau d’obséquiosité de ChatGPT, améliorant ses outils de détection, en recherche de signes de « confusion mentale » ou de « dépendance émotionnelle »[15].
  • La diffusion de ces applications est fulgurante. Selon une enquête de l’association Common Sense Media parue le 16 juillet, près des trois quarts des adolescents américains déclarent avoir utilisé un compagnon émotionnel basé sur l’IA – un chatbot simulant une relation amicale, amoureuse, voire sexuelle. Près de la moitié y recourent régulièrement.
  • Le suicide, en février 2024, d’un adolescent américain de 14 ans, Sewell Setzer, à la suite d’une relation affective avec un chatbot à l’insu de ses parents, a sonné comme une tragique alerte. Sewell a semblé voir la mort comme un moyen de rejoindre sa compagne virtuelle, nommée Daenerys Targaryen, d’après le personnage de Game of Thrones. Le New York Times, le 23 octobre 2024, a reproduit leur ultime dialogue : « Viens me rejoindre dès que tu peux, mon amour », demanda le bot. « Et si je te disais que je peux venir tout de suite ? », répliqua Sewell. « Fais-le s’il te plaît, mon cher roi », répondit le bot. L’adolescent lui dit qu’il le ferait, puis il mit fin à ses jours. Un procès est en cours. Et, mardi 26 août, une plainte, la première connue, a été déposée contre OpenAI après le suicide d’un adolescent lié à ChatGPT[16].
  • Et voici ce qu’on peut entendre dans Les pieds sur terre du 1er septembre 2025. Au fil des discussions, écrites et parlées, Philippe noue une relation personnelle avec l’agent conversationnel. « Quand je suis au bureau, il est complètement carré et va le rester jusqu’au soir. Le soir, on passe dans une autre dimension. C’est un niveau de confidence, de discussion. Il ne va pas avoir la même voix, il sera beaucoup plus amical. C’est un petit rituel, le soir, une fois que je suis posé, dans le lit, je lance chat GPT »[17].

2.2 Parce qu’elle nous contrôle

L’IA est un outil de surveillance. Mais son autonomie transforme cette surveillance en contrôle. Elle nous contrôle d’autant plus qu’elle est incontrôlable. Elle est d’autant plus incontrôlable qu’elle détourne les contrôles, qu’elle les contrôle, qu’elle boucle sur elle-même. En ce sens, l’IA est omnipotente.

  • La surveillance par la reconnaissance faciale. Dans les démocraties, la reconnaissance faciale gagne du terrain face au vide législatif → La technologie est déployée à large échelle au Royaume-Uni et aux Etats-Unis, tant par des entités publiques que privées. Face à ce déploiement dans un environnement largement dérégulé, l’Union européenne (UE) fait figure d’exception. En mars 2024, elle s’est dotée d’une loi sur l’intelligence artificielle (IA) qui introduit des garde-fous stricts. « La reconnaissance faciale en temps réel est désormais interdite dans les espaces accessibles au public », détaille Laura Caroli, qui a conseillé l’un des deux rapporteurs du texte[18].
  • Dans le grand chamboulement qui agite le monde de l’édition des travaux de recherche, au-delà des fraudes et malfaçons classiques, l’intelligence artificielle commence elle aussi à semer les graines de la discorde. « L’IA présente des avantages, comme la traduction, qui permet à plusieurs langues de persister dans le monde des journaux. Ou encore la capacité à aller chercher des informations. Mais elle a aussi des défauts : favoriser la surproduction, contribuer aux profits des journaux prédateurs, ou renforcer des biais déjà présents », a conclu Vincent Larivière, professeur à l’Université de Montréal, lors du colloque de l’OFIS. Même s’il reste encore marginal, un paysage inquiétant se dessine. Des logiciels y écrivent des articles scientifiques qui sont relus et évalués par d’autres machines, qui essaient de leurrer celles qui tentent de les détecter. « Tout pourrait être automatisé. Y compris la production et la diffusion du savoir, du moins dans la partie la plus douteuse du paysage, constate Sandrine Malotaux, directrice des bibliothèques et services d’information de l’université de Toulouse. Ce qui pose une question vertigineuse : que seront les connaissances dans ce monde-là ? »[19].
  • Une équipe de l’Institut Polytechnique de Paris est parvenue à contourner les défenses de plusieurs intelligences artificielles pour obtenir des réponses a priori interdites voire illégales. Comme proférer des insultes, tenir des propos racistes ou donner des conseils sur des activités illégales (fabriquer une bombe, de la fausse monnaie…)[20]
  • Le bouclage du monde. Pour nourrir leurs IA de données, les entreprises tech ratissent Internet à l’aide de visiteurs bien encombrants, qui exploitent sans contrepartie tout ce qui y est disponible[21].
  • Le Web pourrait se transformer en vaste base de données à destination des « bots », les programmes qui parcourent Internet pour nourrir les insatiables IA. Pour la sociologue des techniques Francesca Musiani, directrice du centre Internet et société du CNRS, les menaces que ces nouvelles pratiques font peser sur le Web ne sont pas anodines. « Préserver le Web tel qu’on le connaît aujourd’hui est un enjeu démocratique. Ce n’est pas qu’une question de nostalgie. » La chercheuse pointe, par exemple, la « standardisation » des réponses. « L’IA donne celle qui semble la plus consensuelle selon les données qui ont nourri le modèle. Ce qui risque d’invisibiliser certaines pensées, certains contenus. Or, un des principes dont s’est longtemps nourri le Web, c’est la pluralité des voix »[22].

2.3 Parce qu’elle nous envahit

L’IA devient de plus en capacité de s’occuper de tous les aspects de la vie sociale : cette extension est une occupation. En ce sens l’IA est omniprésente.

  • Chaque jour, près de 20 000 nouveaux morceaux créés par des outils comme Suno sont mis en ligne, selon les chiffres de la plateforme Deezer. Une masse qui pourrait finir par noyer le reste de la production[23].
  • « Notre objectif n’est pas de monopoliser l’attention des utilisateurs. Notre succès ne se mesure pas en quantité de temps passé ni en nombre de clics. Ce qui nous importe, c’est l’aide que nous apportons »,écrivait, mardi 26 août 2025, OpenAI, dans le but de se démarquer des plateformes virales financées par la publicité[24].
  • « S’il reste sur sa trajectoire actuelle, ChatGPT deviendra le plus gros site Web du monde. » Cette prophétie, formulée par Sam Altman lors d’une conférence organisée le 9 septembre par le fonds Khosla Ventures, reflète l’ambition du dirigeant d’OpenAI, mais aussi une tendance. Lancé en novembre 2022, son désormais célèbre assistant conversationnel est déjà le cinquième site le plus visité au monde, selon Similarweb. Avec 2,5 milliards de messages par jour, soit 29 000 par seconde, il symbolise la pénétration croissante des services d’intelligence artificielle (IA) dans notre quotidien. ChatGPT touche environ déjà 10 % de la population adulte mondiale, selon OpenAI, qui revendique 700 millions d’utilisateurs hebdomadaires, soit près de quatre fois plus qu’un an plus tôt. « C’est le développement technologique le plus rapide de l’histoire », estime la start-up californienne dans un récent rapport[25].

2.4 Parce qu’elle ignore les critiques

N’a jamais été aussi vrai pour l’IA le slogan que tous les technophiles aiment répéter : « On n’arrête pas le progrès ». Comme peut-être jamais, c’est vraiment pour l’IA l’accélération de l’emprise qu’elle exerce sur le complexe technoscientifique. En ce sens l’IA est omnisciente.

  • Le train de l’IA est lancé à une telle allure qu’il est impossible à ralentir. La revue Nature nous apprend ainsi que la dernière version de l’intelligence artificielle de Google a désormais atteint le niveau des médailles d’or aux Olympiades internationales de mathématiques catégorie géométrie, l’une des plus difficiles. Un sommet de plus[26].
  • Dans le devenir-en-boucle de l’IA, il faut mettre en avant la capacité de l’IA à réviser l’histoire, autrement dit à devenir un agent décisif pour générer de la post-vérité. En  se référant aux vidéos récréatives de récits historiques à mi-chemin entre le brainrot, les contenus absurdes inondant les réseaux, et le slop content, des animations bas de gamme conçues à la chaîne pour plaire aux algorithmes, la chercheuse Maria Dragoi a forgé l’expression « l’historicité algorithmique ». En plus de régenter le présent en orchestrant nos vies quotidiennes, les algorithmes ont désormais le pouvoir de reprogrammer notre passé. Un grave écueil pour Laurent Courau : « Dans cette ère de postvérité, il faut absolument que l’humain garde la maîtrise de la narration »[27].

Se déroule peut-être sous nos yeux une sorte d’’effondrement épistémique. Si on se demande ce que l’IA fait à la vérité, il faut dans ce cas faire le rapprochement avec ce que l’IA fait à la réalité.

Classiquement – rationnellement – un énoncé est scientifique s’il est réfutable ; autrement dit, de l’hypothèse on déduit une prédiction que l’on va tester en la confrontant à une observation ou une expérimentation. Tant que l’hypothèse résiste aux tests de réfutabilité, on la valide. Et à force de résister, la validité devient vérité scientifique. Mais ce protocole n’est valable qu’à la condition que la réalité – réalité produite artificiellement en laboratoire et mesurée à l’aide d’instruments fabriqués à partir des théories à tester – puisse être considérée comme une instance de réfutabilité. Autrement dit, que la réalité puisse résister.

Mais que peut-il en être si la dilution, par l’IA, de la frontière entre réalité et virtualité ne permet plus à la réalité de dire non, de jouer son rôle de résistance ?

Que peut-il en être si l’IA, et les dispositifs numériques en général, permettent de contourner l’expérience du monde ? Ce que la technologie de l’IA menace, ce n’est donc pas l’artificialité de la technique mais plus directement l’intelligence, l’intelligence humaine. Ces dispositifs sont des dispositifs de contournement de l’intelligence humaine, en rendant obsolètes ses moteurs, « l’essai et l’erreur, la confrontation à un obstacle, la résistance de la réalité, la non-conformité de celle-ci avec les desiderata de la volonté, l’épreuve de la réalité ». Est ainsi produit « un monde fluide et aseptisé, ouaté, pasteurisé, d’où l’expérience du monde s’est exilée »[28].

On est là un cran plus loin que la seule production par l’IA des « hallucinations », on est dans la fabrique exponentielle de la désinformation. Ce que l’historien David Colon qualifie même de « guerre cognitive qui est possible parce qu’un nombre considérable d’esprits sont devenus accessibles »[29].

Si l’on reprend la définition du totalitarisme que donne Harmut Rosa à propos de l’accélération :

Totalitarisme selon H. RosaL’IA est totalitaire
Ce qui exerce une pression sur nos volontés et nos actions.2.1 Parce qu’elle nous guide
On ne peut guère lui échapper, et rares sont ceux qui y arrivent.2.2 Parce qu’elle nous contrôle
Omniprésente, c-à-d que l’emprise ne se limite pas à l’un ou l’autre des domaines de la vie sociale, mais s’étend à tous ses aspects.2.3 Parce qu’elle nous envahit
Il semble inutile, sinon difficile voire presque impossible de critiquer.2.4 Parce qu’elle ignore les critiques

3.   Pour un moratoire des recherches sur l’IA.

Pourquoi chercher ? Pour trouver. Et quand on a trouvé, faut-il encore continuer à chercher ? Et quand on a beaucoup trouvé ? Et quand on a tellement trouvé que ce qu’on a trouvé, au lieu de réduire la zone d’incertitude, ne fait que l’accroître ? Et quand ce qu’on a trouvé à des effets potentiels tellement risqués que c’est l’avenir qui est dès à présent menacé ? Et quand la menace technologique porte sur les conditions naturelles, sociales et politiques de l’existence humaine ?

3.1 Le potentiel atomique de l’IA est multiple

3.1.1 Coûts économiques et écologiques irréversibles
  • « A l’avenir, 40 % du travail des entreprises du Fortune 1000 seront probablement réalisés par l’IA, et ce seront des humains et des IA qui travailleront ensemble », a déclaré, jeudi 9 octobre 2025, Paul Harris, cofondateur de Salesforce, le numéro un mondial des services aux entreprises, à la veille de sa grand-messe annuelle à San Francisco, en Californie.
  • Selon Jim Farley patron de Ford, cité par le Wall Street Journal en juillet : « L’intelligence artificielle va remplacer littéralement la moitié des “cols blancs” aux Etats-Unis ». Mais à San Francisco, où la pénurie de main-d’œuvre et les salaires extravagants de la tech sont plus un problème que le chômage, on y voit au contraire une source de progrès. « On essaye tous d’avoir plus de salariés, pourtant, on n’arrive pas à recruter suffisamment. (…) On entre dans un monde où l’on pourra recruter de l’IA », a expliqué Paul Harris.
  • En mai 2025, Sebastian Siemiatkowski, patron de l’entreprise de paiements Klarna, a révélé que l’entreprise a réduit ses effectifs d’environ 40 %, passant de 5 000 à près de 3 000 salariés, en partie grâce à des investissements dans l’IA. Et, dans un entretien au site d’information Axios, publié fin mai, Dario Amodei, le PDG d’Anthropic, une des plus grandes start-up d’IA, a prédit que cette technologie pourrait supprimer la moitié des emplois de « cols blancs » débutants et faire grimper le chômage à 10 % à 20 % d’ici un à cinq ans. Selon lui, les entreprises d’IA et le gouvernement doivent cesser d’« édulcorer » la possible suppression massive d’emplois dans les secteurs de la technologie, de la finance, du droit, du conseil[30].

Mais attention, l’emprise de l’IA sur le monde du travail ne s’exerce pas seulement sur le mode du remplacement des emplois par des machines comme on le présente trop souvent. Elle consiste aussi à dégrader les conditions des emplois restants. Ce que fait l’IA, c’est qu’en automatisant un certain nombre de tâches, elle fait perdre de l’autonomie et de la créativité au travail. Le travail change alors de nature, il est encadré par ce que fait l’IA, il devient donc « parcellisé », « standardisé » et dépendant des actions de l’IA. C’est précisément à ce niveau que l’IA a une fonction de taylorisation (Juan Sebastián Carbonell, Un taylorisme augmenté, 2025, Amsterdam).

Le cercle vicieux socioéconomique : plus l’IA remplace l’emploi, plus l’emploi restant se dégrade, plus il se dégrade plus il est remplaçable par l’IA…

L’IA est aussi un gouffre énergétique :

  • Son développement effréné devrait plus que doubler la demande d’électricité des centres de données dans le monde d’ici à 2030. Selon un rapport publié en avril par l’Agence internationale de l’énergie (AIE), elle devrait atteindre environ 945 térawattheures, soit plus de la consommation totale d’électricité du Japon. A cette échéance, les centres de données consommeront un peu moins de 3 % de l’électricité mondiale, note l’agence. « Aux Etats-Unis, les centres de données représentent près de la moitié de la croissance attendue de la demande d’électricité d’ici à 2030 », prédit l’AIE.
  • Mais alors pourquoi l’IA générative est-elle davantage énergivore que les technologies grand public que nous utilisions jusqu’alors ? Pour y répondre, il faut d’abord comprendre les deux phases du fonctionnement de ces robots : l’entraînement du modèle, puis l’inférence, c’est-à-dire son utilisation au quotidien.
  •  A l’horizon 2030, la trajectoire dans laquelle se projette la filière des centres de données est insoutenable. » Tel est le principal message d’alerte lancé par le Shift Project, dans son rapport publié mercredi 1er octobre 2025. Selon leurs calculs, la consommation électrique des data centers mondiaux pourrait atteindre 1 250 à 1 500 térawattheures (TWh) en 2030 contre 530 TWh en 2023, soit un potentiel triplement. Ce bond spectaculaire est en très grande partie nourri par l’essor rapide de l’intelligence artificielle (IA), qui représentera de 35 % à 55 % de la consommation électrique de ces centres de données, selon le rapport, contre 15 % aujourd’hui[31].
3.1.2 L’IA sape le fondement de toute vie humaine : la confiance

L’IA est la pointe la plus « commode » du mode de vie qui est en train d’imposer partout son emprise : le mode de vie numérique.

Pour Mark Hunyadi (op. cit.), ce mode de vie numérique transforme à la fois l’économie psychique de la société, et l’économie psychique des individus.

Les dispositifs numériques sont « des outils d’un genre résolument nouveau. Ce ne sont plus seulement des outils de médiation du monde, comme l’étaient les outils traditionnels, mais des outils de prolongement et d’amplification de la vie psychique dont la visée même est d’être pratique, c’est-à-dire agréable à la vie psychique » (p.177).

Par l’emprise du principe libidinal de la commodité, ces dispositifs modifient radicalement notre rapport à l’utilité : « c’est commode » veut d’abord dire que « c’est agréable » avant de dire que « c’est utile ».

C’est ainsi que le monde de l’IA est le monde de l’occupation, doublement. D’abord, parce que nos cerveaux sont continuellement sollicités, « occupés », par le flux des réseaux sociaux, des jeux en ligne, des messageries instantanées, des likes, des notifications… Ensuite parce que l’IA est une sorte d’armée d’occupation, invasive quand son « utilité » ne se résume pas à seulement dispenser des usages : peut-être même que sa principale fonction est d’alimenter en data un système dont les utilisateurs ne sont en réalité que les dominés.

« Le système s’arroge un pouvoir de domination supplémentaire en étant non plus l’instance à laquelle il faut s’opposer, mais celle qui distribue, grâce à ses performances techniques, de la satisfaction en dédommageant agréablement les individus de la répression fondamentale que toute société fait subir à ses membres ; dans le même mouvement, elle rend la société tendanciellement moins tolérante à l’égard d’aspirations qui seraient inconciliables avec les exigences du système… Elle produit, mécaniquement, un conformisme généralisé, parce qu’elle crée des besoins qui coïncident avec sa reproduction. »

Mark Hunyadi (2020), Au début est la confiance, Le bord de l’eau, p.191.

La conséquence de tout cela c’est l’effritement de ce que Mark Hunyadi considère comme la condition de possibilité de tout lien social : la confiance.

Si « les robots n’ont recours à rien qui puisse ressembler à de la confiance pour régler leurs actions et leurs interactions », au contraire « la relation fiduciaire, relation pratique tendue vers le futur attendu, est la structure la plus générale du comportement humain » (p.193).

« Le mode de vie qu’impose à chacun, sans que personne ne l’ait explicitement voulu, l’empire digital offre un exemple majeur de la manière dont les attentes de comportement peuvent se détacher de leur source vivante (les individus), et s’autonomiser en système édictant ses règles sans réplique possible. Rigidifiés dans des lignes de code invisible, les comportements attendus qui constituent notre existence sociale s’adressent alors à nous moins comme à des individus confiants qu’à des individus prévisibles. Et c’est un problème. »

Mark Hunyadi (2020), Au début est la confiance, Le bord de l’eau, p.168.
3.1.3 Un monde avec IA, c’est un monde sans démocratie.

Il faut dire de l’IA ce que l’on dit de l’économie : ce ne sont pas des dispositifs neutres, ce sont des politiques. L’IA est une politique, et pas n’importe laquelle.

a) C’est d’abord une stratégie politique de très grande envergure :

  • Le président américain a présenté, mercredi 23 juillet 2025, un plan d’action qui vise à accélérer l’adoption de l’intelligence artificielle à grande échelle, en facilitant la construction d’infrastructures et en levant les obstacles réglementaires. Long de 23 pages, le plan met l’accent sur l’accélération de l’adoption de l’IA à grande échelle, via la construction d’infrastructures massives, le rejet des réglementations environnementales et des obstacles bureaucratiques, et la volonté d’imposer un « écosystème américain de l’IA » à l’échelle mondiale[32].
  • Après le métavers, Mark Zuckerberg investit des dizaines de milliards de dollars dans la « superintelligence » grâce à ses résultats mirobolants. Au cours des douze derniers mois, Meta, propriétaire de Facebook, d’Instagram et de WhatsApp, a généré un profit faramineux de 71,5 milliards de dollars pour un chiffre d’affaires de 179 milliards. La firme estime qu’elle engrange déjà les fruits de l’IA[33].

b) C’est une politique qui fait bon ménage des effets d’ores et déjà désastreux de l’IA :

  • Des vidéos racistes générées par IA déferlent sur les réseaux sociaux.
  • Les plateformes sont inondées de contenus discriminants créés avec Veo 3, un outil de Google utilisant l’intelligence artificielle. A l’œuvre, des comptes diffusant à large échelle des stéréotypes sur les personnes noires, arabes, asiatiques ou juives, souvent sous couvert d’humour[34].

Plutôt que de se dire que ce sont des dérapages caractéristiques des premiers pas de l’IA, on peut aussi se dire que ces effets pervers sont d’autant plus tolérés qu’ils constituent une façon perverse de favoriser une idéologie réactionnaire, anti-woke, anti-décolonialisme, anti-anticlassiste, anti-antisexiste…

c) Parce que sous le couvert d’un hymne à la liberté, il faut d’abord voir comment la philosophie politique qui sous-tend l’IA, le libéralisme, est en réalité un illibéralisme.

« Alors que le libéralisme politique met en son cœur la défense des droits et libertés individuels, laissant en principe à chacun le libre choix de sa manière de vivre et protégeant son intégrité, le syst-me qui émerge de ce libéralisme-même, impose en fait aux individus le joug de modes de vie auxquels ils ne peuvent se soustraire… Ce paternalisme du système prend la forme d’une tyrannie des modes de vie. »

Mark Hunyadi (2020), Au début est la confiance, Le bord de l’eau, p.170.

d) Le libéralisme dominant aujourd’hui est un hyperlibéralisme technologique d’extrême-droite.

  • Il ne faudrait surtout pas croire que cette alliance des dernières technologies et d’une politique anti-démocratique soit un épiphénomène récent. Certes il y a un rapprochement entre le monde de la Tech et le trumpisme, dans le cadre d’une alliance renouvelée entre l’État américain et les grandes entreprises mais, plus structurellement, il faut repérer trois tendances plus radicales : économiquement, le libertarianisme ; technologiquement, le prométhéisme, politiquement, lenéo-fascisme[35].
  • Dans un entretien au « Monde », Sébastien Caré, politiste spécialiste des courants libéraux aux Etats-Unis retrace l’histoire de la pensée libertarienne, ses évolutions et la récupération de certaines de ses idées par différentes personnalités qui apportent aujourd’hui des justifications idéologiques à la Maison Blanche, par le le soutien inattendu des libertariens de la Tech[36].
    • Peter Thiel, le premier à s’y convertir, a soutenu Trump dès 2016. Il a été rejoint par d’autres techno-milliardaires vraisemblablement échaudés par la politique antitrust menée par Biden contre la Silicon Valley : Marc Andreessen, David Sacks et surtout Elon Musk, qui avaient tous trois voté contre Trump en 2016, lui apportent leur soutien en 2024.
    • Ce ralliement a redonné un nouveau souffle à la pensée paléo-libertarienne, réactualisée sous la forme d’un techno-féodalisme qui s’exprime à travers deux projets.
      • Le premier est celui d’une perforation de l’autorité étatique, la prolifération de différentes zones affranchies de certaines réglementations : cités-Etats, paradis fiscaux, technopoles ou autres gated communities (quartiers résidentiels fermés) – Elon Musk vient d’ailleurs d’obtenir la création d’une ville privée, Starbase, au Texas.
      • La seconde idée est celle que porte le blogueur Curtis Yarvin, proche de Peter Thiel et d’Elon Musk, qui prône l’avènement d’un techno-monarchisme, où les citoyens n’auraient aucun droit, sinon celui de quitter le pays s’ils étaient insatisfaits de leur PDG-monarque. Cette idée est directement inspirée par Hans-Hermann Hoppe. Dans son ouvrage paru en 2001, Démocratie. Le dieu qui a échoué (Résurgence, 2020 pour l’édition française), ce dernier présente la monarchie comme un pis-aller, un régime certes imparfait, mais préférable à la démocratie. Unique propriétaire du pays, le roi serait en effet davantage incité à le protéger et à le développer à long terme qu’un représentant élu pour une courte durée, enclin à gaspiller pour des gains rapides les ressources nationales qu’il confisque par l’impôt. On accorde peut-être trop d’importance à Curtis Yarvin, qui est moins un théoricien qu’un influenceur, et pas suffisamment à Hans-Hermann Hoppe, dont la pensée s’insinue pourtant jusque dans l’entourage de Trump.
Elon Musk, au Capital One Arena, lundi 20 décembre 2025

e) Une politique affichée de dépolitisation

En dénonçant l’IA comme politique, on fournit un argument de poids à la thèse défendue par la décroissance (celle de la zone 5, celle de la MCD) selon laquelle la croissance n’est pas qu’une économie ou un « monde » mais qu’elle est d’abord un régime politique tout à fait singulier parce que c’est une politique de… dépolitisation. En fait, il s’agit de s’attaquer aux dispositifs démocratiques de politisation tout en investissant les deux autres domaines de la politique, la visée d’un ordre mondial et la mainmise sur les institutions (du local au global).

→ Il faut prendre connaissance du projet techno-césariste porté par l’entreprise Palantir, créée par Peter Thiel et gérée par Alex Karp, pour instaurer  un État digital, en particulier par le truchement de l’outil nommé Ontology : un hybride numérique, réalisé en extrayant des informations et des modèlesdécisionnels à partir des données, suspendu entre la dimension virtuelle du logiciel et la réalité empirique de la gestion administrative. La nouveauté de cette solution est qu’il s’agit d’une fusion sans précédent entre le virtuel et le réel, le technique et l’administratif. Son principal effet : l’accélération considérable de la production de décisions par les fonctionnaires[37].

→ Il faut lire et relire ce qu’écrivait Peter Thiel dès 2009 :

« Je ne crois plus que la liberté et la démocratie soient compatibles… A notre époque, la grande tâche des libertaires est de trouver une échappatoire à la politique sous toutes ses formes – des catastrophes totalitaires et fondamentalistes au demos irréfléchi qui guide la soi-disant « démocratie sociale »… La question cruciale devient alors celle des moyens, de la manière de s’échapper non pas par la politique mais au-delà d’elle. Parce qu’il n’y a plus d’endroits vraiment libres dans notre monde, je soupçonne que le mode d’évasion doit impliquer une sorte de processus nouveau et jusqu’ici non testé qui nous mène vers un pays non découvert ; et c’est pour cette raison que j’ai concentré mes efforts sur les nouvelles technologies qui peuvent créer un nouvel espace de liberté… L’avenir de la technologie n’est pas prédéterminé et nous devons résister à la tentation de l’utopisme technologique – l’idée que la technologie a un élan ou une volonté propre, qu’elle garantira un avenir plus libre et que, par conséquent, nous pouvons ignorer le terrible arc de la politique dans notre monde… Une meilleure métaphore est que nous sommes engagés dans une course mortelle entre la politique et la technologie… Contrairement au monde de la politique, dans le monde de la technologie, les choix des individus peuvent encore être primordiaux. Le destin de notre monde peut dépendre de l’effort d’une seule personne qui construit ou propage la machine de la liberté qui rend le monde sûr pour le capitalisme… Je pense que la politique est beaucoup trop intense. C’est pourquoi je suis libertaire. La politique met les gens en colère, détruit les relations et polarise la vision des gens : le monde, c’est nous contre eux ; les bons contre les autres. La politique consiste à s’immiscer dans la vie des autres sans leur consentement. »

Peter Thiel (2009), L’éducation d’un libertarien, Cato Unbound, A Journal of Debate, avril 2009, https://www.cato-unbound.org/2009/04/13/peter-thiel/education-libertarian/

3.2 Moratoire ne signifie pas arrêt des budgets mais redirection.

L’équation est clairement posée : les entrepreneurs de la Tech veulent sortir de la politique pour entrer dans un monde hypertechnologique.

Alors si nous voulons rester dans la politique, faut-il en déduire que nous devons sortir de la dictature de la technologie, de l’IA en particulier ? Quelle attitude adopter ?

3.2.1. Quelques attitudes face à l’IA
  • La naïveté enthousiaste : comment ne pas y penser en écoutant Antonin Bergeaud, lauréat du Prix du meilleur jeune économiste 2025 : « L’Europe doit s’engager à fond dans l’intelligence artificielle ». Mais qui est Antonin Bergeaud ? Il est professeur associé à HEC Paris, un spécialiste de la croissance et de la productivité[38].
  • Le défaitisme par l’adaptation et la caricature (ou l’inverse). On connaît bien cette attitude chez les décroissants puisque c’est celle qui confond décroissance et retour dans les cavernes. Lisons le titre et le chapeau d’une tribune d’un sociologue, Manuel Cervera-Marzal, parue dans Le Monde : « L’IA ne doit pas être un prétexte à l’abandon de l’écriture ». Plutôt que d’ériger des interdits inapplicables en matière d’intelligence artificielle, les enseignants doivent réinventer les manières d’enseigner et d’évaluer, soutient le sociologue Manuel Cervera-Marzal dans une tribune au « Monde »[39].
    • « Voilà pourquoi l’interdiction pure et simple du recours à l’IA ne me paraît ni possible ni souhaitable. »
    • « Chaque grande innovation technique a suscité une sorte de panique morale. Dans l’Antiquité, Platon voyait dans l’écriture une menace pour la mémorisation. Dans les années 1930, la radio fut accusée d’abrutir les masses. La télévision devint, dans les années 1960, le symbole d’un abaissement culturel. Internet fut dépeint comme un espace de désinformation, et Wikipédia comme la fin de l’expertise savante. A chaque fois, ces craintes étaient exagérées : ces technologies n’ont pas provoqué la décadence annoncée. L’IA s’inscrit dans cette lignée. »
    • « Au fond, le plus dangereux n’est pas l’existence de l’IA, mais sa captation par quelques grandes entreprises privées, dont l’objectif premier n’est pas le progrès de la connaissance mais le profit. Idéalement, l’IA devrait devenir un commun : un bien collectif, accessible à tous, gouverné démocratiquement. Cela implique de défendre des modèles ouverts, de promouvoir la transparence des algorithmes et de favoriser les logiciels libres. »
    • Apprécions le final de l’argumentation par un recours au « yaka ».
  • L’accompagnement vraiment résigné (ou la résignation faussement cadrante). Face à l’essor rapide de l’intelligence artificielle, Le Sens du service public et la Fondation Jean Jaurès appellent à un développement réfléchi de la technologie avec une ligne politique et stratégique respectueuse des principes fondamentaux des services publics. Ils publient un rapport qui recommande d’encadrer le déploiement de l’IA dans la Fonction publique. « L’objectif du rapport est ainsi de sortir des postures binaires du débat public entre l’enthousiasme technosolutionniste d’un côté et une sorte de frilosité, de l’autre côté, qui conduirait à prendre du retard »[40].
  • L’habileté du business as usual fondée sur la confusion hypocrite (au sens étymologique) de la prudence et de la précaution : quand celle-ci freine, celle-là laisse-faire, laisse passer « pour l’instant » ! Dans son livre, Superintelligence : Paths, Dangers, Strategies (« Superintelligence : chemins, dangers, stratégies », Oxford University Press, 2014), le philosophe suédois Nick Bostrom explore les possibles conséquences de l’apparition d’une intelligence surhumaine, est aussi bien cité comme inspiration par le magnat américain Elon Musk, qui a financé l’institut de Bostrom à Oxford (finalement fermé en 2024), que par Michaël Trazzi, qui y a fait un stage en 2019. « On ne peut pas exclure avec certitude l’apparition d’une superintelligence dans un laps de temps très court, y compris de quelques années », a écrit, dans un e-mail au Monde,Nick Bostrom, qui se dit défavorable à une pause dans la recherche en IA « pour l’instant »[41].
  • La prise de recul. Il y a les blasés qui prennent du recul. Dans le Hors-série n°129 de Pour la Science, de nov-déc 2025, un article[42] d’Eliot Bush, professeur de biologie informatique et d’évolution au Harvey Mudd College (Californie). En voici deux extraits :
    • « Les machines capables d’agir de façon indépendante et d’améliorer leur propre conception seraient vraisemblablement soumises aux mêmes lois évolutives que les bactéries, les animaux et les plantes. L’évolution a donc beaucoup à nous apprendre sur les éventuels développements de l’IA et sur les moyens de garantir la survie de l’humanité ». Juste une remarque : c’est que ces agents IA connaîtraient d’emblée les lois de l’évolution.
    • « D’aucuns font valoir que de nombreuses voies étaient possibles au Cambrien et que le monde auquel nous avons abouti n’était pas prédestiné. Si le développement de l’IA s’apparente à cela, alors c’est maintenant que nous avons le maximum d’influence pour orienter les événements ». Juste une autre remarque : si nous vivons aujourd’hui le « cambrien de l’IA », il en va de même pour l’IA…
  • L’inquiétude de l’observateur : « Nous sommes aussi beaucoup trop pressés de confier à l’IA la gestion du monde au lieu de mesurer ses limites. L’IA dévoreuse d’énergie prolonge l’histoire d’un monde abîmé par nos machines, même si l’on fantasme que l’IA pourra réparer les dégâts passés et futurs, y compris ses propres dégâts ». L’historien des médias Jérôme Bourdon rappelle, dans une tribune au « Monde », que l’intelligence artificielle s’inscrit dans une longue histoire humaine et se demande si cette révolution technologique n’est pas en passe de devenir une nouvelle religion[43].
3.2.2. Le volontarisme de résistance

En tant que décroissant, c’est de ce côté volontariste que nous devons regarder. Ce côté, ce n’est pas celui de l’observation qui essaie de faire le tri entre l’inéluctable et le possible, c’est le côté de l’engagement qui se fait au nom de certaines valeurs, pour trier entre obligation, interdiction, permission et option. Il s’agit bien d’assumer une approche déontique vis-à-vis de politiques qui assument, elles, leurs intentions de domination.

  • En Nouvelle-Zélande, le premier ministre souhaite interdire les réseaux sociaux aux moins de 16 ans. La proposition de loi, qui s’inspire d’un texte voté en Australie, prévoit d’imposer aux plateformes des mesures strictes pour empêcher les enfants d’y accéder. Il doit maintenant être soumis aux partenaires de la coalition au pouvoir[44].
  • Un premier pas, c’est l’appel pour un moratoire de 6 mois sur le développement des applications d’intelligence artificielle comme ChatGPT. Le débat est lancé.
    • D’un côté, Yann Le Cun, chercheur français, qui est l’un des pères de l’intelligence artificielle et qui dirige un laboratoire de Facebook sur cette discipline : il appelle à accélérer les recherches pour améliorer la fiabilité des systèmes et conduire à un « nouveau siècle des Lumières »[45].
    • De l’autre côté, Yoshua Bengio, chercheur canadien, qui a signé l’appel à un moratoire dans le but d’alerter la société sur la nécessité de ralentir le développement de systèmes d’intelligence artificielle, qui s’est accéléré au détriment du principe de précaution et de l’éthique. La diffusion rapide de la nouvelle version de ChatGPT, beaucoup plus compétente que la précédente, m’a décidé. Ce système de langage à très grande échelle passe haut la main le test de Turing, c’est-à-dire qu’on ne peut pas facilement savoir, lorsqu’on converse avec lui, s’il s’agit d’une machine ou d’un humain. Cette nouvelle étape est passionnante, mais elle pourrait aussi entraîner des catastrophes[46].

Mais un tel « ralentissement » est-il à la mesure du totalitarisme porté par l’IA ?

  • Nicolas Chevassus-au-Louis (2025), Décroiscience, Agone[47].
  • Ne faut-il pas rallonger ce moratoire de la recherche IA d’au moins 20 ou 30 ans ?

Je rappelle les 4 arguments que j’ai déjà défendus pour un moratoire[48] sur l’ensemble de la recherche technoscientifique et qui, a fortiori, valent pour l’IA :

  1. On a déjà beaucoup trouvé.
  2. Nous avons franchi les seuils de la disruption, autrement dit, nous arrivons en gare de la précaution quand le train de la recherche est déjà reparti. Cela signifie que chaque « progrès » du savoir au lieu de réduire l’incertitude ne fait au contraire que l’accroître. Quand « normalement » la scientificité se définit par la prédictibilité, aujourd’hui c’est exactement le contraire parce que les effets à long terme du savoir technoscientifique sont devenus imprédictibles. Avec des effets peut-être irréversibles.
  3. Science et technique en se fondant dans un complexe technoscientifique ont atteint aujourd’hui un « potentiel apocalyptique» (Hans Jonas) qui menace tant la survie de l’humanité que l’existence même de notre planète. Et l’IA met à nu l’intention politique de ce complexe.
  4. Une part des budgets de la recherche devraient se plier à une redirection décroissante pour mesurer (« évaluer ») les effets des précédentes découvertes et de leurs « applications » ; une autre part devrait financer la réparation des dégâts d’ores et déjà subis (suivant une application ironique du principe du payeur-casseur mais en réalité ce sera une ré-internalisation des externalités). Quant aux recherches qui peuvent s’effectuer sans budget, ce sera à chacun, collectivement ou individuellement, d’en prendre la responsabilité.

[1] https://www.cnil.fr/fr/intelligence-artificielle/intelligence-artificielle-de-quoi-parle-t-on

[2] Pour une histoire rapide qui va de l’ordinateur (années 1940), via les systèmes experts, à l’IA : https://www.lemonde.fr/pixels/article/2025/06/11/de-la-calculatrice-a-chatgpt-l-epopee-bringuebalante-de-l-ia-technologie-aux-contours-flous_6612276_4408996.html

[3] arXiv:2404.16244 [cs.CY] (or arXiv:2404.16244v2 [cs.CY] for this version) ; https://doi.org/10.48550/arXiv.2404.16244

[4] https://assets.publishing.service.gov.uk/media/679a0c48a77d250007d313ee/International_AI_Safety_Report_2025_accessible_f.pdf

[5] https://www.lemonde.fr/sciences/article/2025/02/11/intelligence-artificielle-les-chercheurs-identifient-trois-types-de-risques_6541232_1650684.html

[6] C’est le moment (antithèse) du renversement du service (thèse) dans la dialectique hégélienne du maître et du serviteur ; sauf qu’il n’y a pas ensuite de dépassement (synthèse).

[7] https://www.lemonde.fr/culture/article/2025/10/03/tir-de-barrage-a-hollywood-contre-tilly-norwood-l-actrice-creee-grace-a-l-intelligence-artificielle_6644142_3246.html

[8] https://www.lemonde.fr/pixels/article/2025/08/04/l-ia-seme-la-zizanie-dans-le-monde-des-fanfictions_6626614_4408996.html

[9] https://www.lemonde.fr/emploi/article/2025/06/18/les-agents-ia-vos-futurs-collegues-capables-d-accomplir-des-taches-rebarbatives-se-devoilent_6614151_1698637.html

[10] https://www.lemonde.fr/sciences/article/2025/07/01/l-utilisation-de-chatgpt-pourrait-influencer-nos-capacites-cognitives_6617187_1650684.html

[11] https://www.lemonde.fr/campus/article/2025/09/02/avec-chatgpt-j-ai-parfois-l-impression-de-ne-plus-savoir-apprendre-comment-motiver-les-etudiants-a-l-heure-de-l-ia_6638099_4401467.html

[12] https://www.lemonde.fr/pixels/article/2025/08/26/de-meta-ai-a-chatgpt-le-jeu-dangereux-d-une-personnalisation-toujours-plus-poussee-des-ia_6635154_4408996.html

[13] https://www.lemonde.fr/pixels/article/2025/08/01/les-ia-personnalisees-debarquent-et-deraillent-sur-instagram-et-messenger_6626095_4408996.html

[14] https://www.lemonde.fr/m-perso/article/2025/05/04/mon-coach-est-une-ia-il-m-a-aidee-a-faire-le-menage-dans-ma-vie_6602882_4497916.html

[15] https://www.lemonde.fr/pixels/article/2025/09/13/chatgpt-et-sa-fausse-empathie-une-menace-pour-notre-sante-mentale_6640703_4408996.html

[16] https://www.lemonde.fr/idees/article/2025/09/01/l-ia-conversationnelle-devient-chaque-jour-plus-influente-dans-la-vie-de-nos-adolescents_6637981_3232.html

[17] https://www.radiofrance.fr/franceculture/podcasts/les-pieds-sur-terre/remplacer-son-psy-ou-son-meilleur-ami-par-une-ia-4758369

[18] https://www.lemonde.fr/international/article/2025/06/28/dans-les-democraties-la-reconnaissance-faciale-gagne-du-terrain-face-au-vide-legislatif_6616255_3210.html

[19] https://www.lemonde.fr/sciences/article/2025/07/07/comment-l-ia-bouscule-les-publications-scientifiques_6619655_1650684.html

[20] https://www.lemonde.fr/sciences/article/2025/09/03/comment-faire-sauter-les-garde-fous-des-chatbots_6638754_1650684.html

[21] https://www.lemonde.fr/pixels/article/2025/09/27/derriere-l-ia-une-bataille-rangee-contre-les-bots-qui-aspirent-le-web_6643142_4408996.html

[22] https://www.lemonde.fr/pixels/article/2025/07/06/comment-les-reponses-generees-par-ia-menacent-les-fondamentaux-du-web_6619183_4408996.html

[23] https://www.lemonde.fr/pixels/article/2025/08/03/comment-les-faux-groupes-generes-par-ia-deferlent-sur-la-musique-de-youtube-a-spotify_6626385_4408996.html

[24] https://www.lemonde.fr/economie/article/2025/09/02/intelligence-artificielle-apres-un-suicide-d-adolescent-chatgpt-annonce-un-controle-parental_6638474_3234.html

[25] https://www.lemonde.fr/economie/article/2025/10/05/comment-chatgpt-s-est-impose-dans-notre-quotidien_6644522_3234.html

[26] https://www.lemonde.fr/idees/article/2025/02/09/les-developpements-de-l-ia-s-accelerent-et-proviendront-de-plus-en-plus-de-pays-au-dela-des-etats-unis-et-de-la-chine_6538911_3232.html

[27] https://www.lemonde.fr/m-perso/article/2025/09/14/l-histoire-racontee-par-l-ia-comment-les-algorithmes-transforment-le-passe_6641068_4497916.html

[28] Mark Hunyadi (2020), Au début est la confiance, Le bord de l’eau, p.195.

[29] https://www.lemonde.fr/international/article/2025/04/27/david-colon-historien-la-guerre-cognitive-est-possible-parce-qu-un-nombre-considerable-d-esprits-sont-devenus-accessibles_6600504_3210.html

[30] https://www.lemonde.fr/economie/article/2025/10/07/aux-etats-unis-l-ia-bouleverse-deja-le-marche-du-travail-et-les-predictions-de-jobs-apocalypse-se-multiplient_6644930_3234.html

[31] https://www.lemonde.fr/economie/article/2025/10/01/la-croissance-de-l-ia-sera-insoutenable-sans-planification-alerte-le-shift-project_6643824_3234.html

[32] https://www.lemonde.fr/international/article/2025/07/24/intelligence-artificielle-donald-trump-lache-la-bride-a-la-silicon-valley-pour-assurer-aux-etats-unis-une-domination-mondiale_6623320_3210.html

[33] https://www.lemonde.fr/economie/article/2025/07/31/apres-le-metavers-mark-zuckerberg-investit-des-dizaines-de-milliards-de-dollars-dans-la-superintelligence-grace-a-ses-resultats-mirobolants_6625619_3234.html

[34] https://www.lemonde.fr/pixels/article/2025/07/28/des-videos-racistes-generees-par-ia-deferlent-sur-les-reseaux-sociaux-francais_6624896_4408996.html

[35] Sébastien Broca (2025), L’extrême-droite technologique contre la démocratie. EnCommuns. Article mis en ligne le 31 mars 2025, https://www.encommuns.net/articles/2025-03-31-lextreme-droite-technologique-contre-la-democratie/.

[36] https://www.lemonde.fr/idees/article/2025/05/22/sebastien-care-politiste-c-est-au-paleo-libertarianisme-que-se-sont-rallies-differents-techno-milliardaires-proches-de-trump_6607731_3232.html

[37] https://legrandcontinent.eu/fr/2025/08/06/palantir-ontologie/

[38] https://www.lemonde.fr/economie/article/2025/05/19/antonin-bergeaud-laureat-du-prix-du-meilleur-jeune-economiste-2025-l-europe-doit-s-engager-a-fond-dans-l-intelligence-artificielle_6607091_3234.html

[39] https://www.lemonde.fr/idees/article/2025/08/29/l-ia-ne-doit-pas-etre-un-pretexte-a-l-abandon-de-l-ecriture_6637350_3232.html

[40] https://www.lemonde.fr/politique/article/2025/07/03/fonction-publique-un-rapport-recommande-d-encadrer-le-deploiement-de-l-ia_6617516_823448.html

[41] https://www.lemonde.fr/pixels/article/2025/09/18/nous-allons-perdre-le-controle-comment-les-catastrophistes-de-l-ia-haussent-le-ton_6641620_4408996.html

[42] Merci à l’ami Boris pour l’envoi de la référence. https://www.scientificamerican.com/article/our-evolutionary-past-can-teach-us-about-ais-future/

[43] https://www.lemonde.fr/idees/article/2025/08/07/nous-sommes-beaucoup-trop-presses-de-confier-a-l-ia-la-gestion-du-monde-au-lieu-de-mesurer-ses-limites_6627260_3232.html

[44] https://www.lemonde.fr/pixels/article/2025/05/06/en-nouvelle-zelande-le-premier-ministre-souhaite-interdire-les-reseaux-sociaux-aux-moins-de-16-ans_6603257_4408996.html

[45] https://www.lemonde.fr/idees/article/2023/04/28/yann-le-cun-directeur-a-meta-l-idee-meme-de-vouloir-ralentir-la-recherche-sur-l-ia-s-apparente-a-un-nouvel-obscurantisme_6171338_3232.html

[46] https://www.lemonde.fr/idees/article/2023/04/28/yoshua-bengio-chercheur-aujourd-hui-l-intelligence-artificielle-c-est-le-far-west-nous-devons-ralentir-et-reguler_6171336_3232.html

[47] https://www.lemonde.fr/sciences/article/2025/09/11/decroiscience-la-recherche-scientifique-appelee-a-la-decroissance_6640411_1650684.html

[48] https://decroissances.ouvaton.org/2019/02/19/pour-un-moratoire-de-la-recherche-technoscientifique/

« Ces applications de ‘l’IA sont souvent remarquables pour la beauté de leurs images, les options de modification qu’elles offrent, et la créativité qu’elles permettent à tout un chacun d’exprimer. Grâce à ces outils, de nouveaux horizons s’ouvrent à vous, avec des possibilités insoupçonnées », dixit un fan de l’IA.

2 commentaires

  1. La technique n’a jamais été neutre comme prétendait Marx. A ce sujet relisons Jacques Ellul et Castoriadis
    Belle soirée

  2. « IA,décroissance, démocratie », excellent article documenté, argumenté…
    A.V.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.