Le collectif Le Mouton numérique refuse de s’ériger contre l’IA en bloc. Dans cet entretien, le collectif développe une critique radicale de l’IA ancrée dans une approche intersectionnelle : l’intelligence artificielle cristallise et renforce des rapports de domination – de classe et de genre, notamment – qui lui préexistent. Fort de son engagement dans des luttes concrètes contre l’algorithme de la Caisse d’allocations familiales (CAF) en France ou la vidéosurveillance algorithmique dans ce même pays, le collectif rappelle que les choix technologiques sont d’abord des choix politiques et que la bataille se joue sur le terrain des rapports sociaux plutôt que sur celui de la technique elle-même.

Pouvez-vous présenter le collectif Le Mouton numérique ?
Il y a en fait une grande diversité d’opinions et de courants au sein du Mouton numérique, mais nous nous rejoignons autour de l’idée que les questions technologiques sont avant tout politiques. En d’autres termes, Le Mouton est avant tout un collectif de réflexion antifasciste, féministe, écologiste, anticapitaliste, queer, antiraciste, antivalidiste, etc. pour qui les technologies – et pour ce qui nous concerne plus particulièrement, le numérique – occupent une place centrale dans les rapports sociaux et les rapports de pouvoir. La critique de la neutralité des technologies et du progrès (l’idée que progrès technique et progrès social sont liés) comme voiles idéologiques, la critique de l’économie politique du numérique, de son usage à des fins de gestion des populations, ou encore celle de « l’efficacité », nous rattachent au courant technocritique. C’est une critique qui se veut ancrée dans l’expérience que font les individus et les groupes sociaux du numérique tel qu’il est déployé aujourd’hui, de façon concrète et toujours située.
Nous soutenons une décroissance numérique qui ne se limite pas à une réduction en termes matériel ou d’usage mais s’étend à la réorganisation des rapports de force et des dépendances technologiques inéluctables. Nous défendons un numérique ancré dans une dynamique décoloniale et anti-impérialiste (ce que d’autres que nous, comme Génération Lumière et Tribe-X font très bien). Nous sommes également proches de collectifs et d’initiatives queer et cyberféministes et nous suivons les initiatives portées par les usager·es précaires touché·es par la numérisation des services publics comme Changer de Cap. Finalement, l’avenir de la technocritique n’est peut-être pas aux mains de collectifs qui se définissent eux-mêmes comme technocritiques !
Dans votre texte sur le Sommet de l’IA [1], coprésidé par la France et l’Inde et qui a eu lieu du 6 au 11 février, vous affirmez ne pas lutter contre l’IA en bloc, car cela correspondrait à une position « privilégiée, occidentalo-centrée, souvent masculiniste et validiste ». Pouvez-vous expliciter cette position ?
Depuis une posture militante, il y a de toute évidence un avantage à s’ériger « contre l’intelligence artificielle » – ce qui, dans la période actuelle, désigne plutôt l’IA générative [2] et les agents conversationnels. C’est un slogan séduisant. À la limite, sous certaines conditions, nous pourrions être d’accord sur le fait que l’IA pollue, détruit ou déplace le travail (rarement dans le bon sens), reconduit des rapports de domination Nord-Sud, etc. L’IA est le dernier avatar du capitalisme
Capitalisme
Système économique et sociétal fondé sur la possession des entreprises, des bureaux et des usines par des détenteurs de capitaux auxquels des salariés, ne possédant pas les moyens de subsistance, doivent vendre leur force de travail contre un salaire.
(en anglais : capitalism)
technologique et, à ce titre
Titre
Morceau de papier qui représente un avoir, soit de propriété (actions), soit de créance à long terme (obligations) ; le titre est échangeable sur un marché financier, comme une Bourse, à un cours boursier déterminé par l’offre et la demande ; il donne droit à un revenu (dividende ou intérêt).
(en anglais : financial security)
, la critique doit être radicale.
Cependant, par-delà la posture, il y a plusieurs écueils dans une telle formulation. D’abord, et ce n’est pas anecdotique, on ne sait pas exactement de quoi on parle. C’est le problème avec les totalisations (« LA » technologie, « l’IA », etc.). Elles tendent à réifier l’objet de la critique.
Or, ce n’est pas « l’IA » qui surveille, qui déplace le travail, ce sont des rapports de domination inhérents au capitalisme, que l’IA cristallise et renforce. On le voit quand on parle de suppressions massives d’emploi dans le tertiaire. En effet, il y en a, mais l’IA sert aussi de prétexte.
Ensuite, elles empêchent de distinguer une technologie de l’autre. Tout ne se vaut pas en matière d’IA. On ne peut pas mettre sur le même plan un algorithme d’appariement, un filtre antispam et un grand modèle de langage.
Enfin, être contre l’IA est une position confortable mais peu opérante. L’IA recouvre un système sociotechnique et repose, en ce sens, sur des chaînes d’approvisionnement, des marchés publics, des besoins (réels ou artificiels), des promesses locales (retombées fiscales pour les centres de données), des emplois, etc. Le refus abstrait peut susciter des alliances sur le terrain (par exemple : bloquer un projet de centre de données), mais offre dans le détail peu de prises concrètes et peut même devenir une manière de parler à la place des premier·es concerné·es. Dans plusieurs pays du Sud, des collectifs revendiquent des droits, des salaires et un pouvoir de négociation dans les filières d’annotation et de modération. Balayer l’ensemble revient à ignorer ces luttes.
Pouvez-vous donner des exemples concrets où ces dimensions intersectionnelles — de classe ou de genre, par exemple — se croisent ?
Depuis plusieurs années, Le Mouton numérique observe les questions intersectionnelles. Notre réflexion ne se limite pas ici à l’IA, mais concerne la technologie en général. Si l’on s’arrête aux récits des industriels, ce qui est invisibilisé, c’est d’abord le travail, notamment celui des femmes pour l’annotation, et de l’extractivisme dans les pays du Sud. Cela commence par les mots comme « IA » ou « cloud », autant de métaphores qui passent sous silence ses conditions de production. La vulgate du « remplacement » des emplois par l’IA invisibilise quant à elle la réalité des rapports de production et salariaux au sein des entreprises.
Si les données peuvent contribuer à mettre en lumière certaines problématiques, cette exposition peut aussi, dans certains contextes politiques, faire courir un danger aux populations concernées. Sous le gouvernement Trump, cette réalité est devenue particulièrement évidente. En effet, des données concernant l’identité de genre ont été utilisées de manière discriminatoire pour retirer des droits aux personnes transgenres et non-binaires, comme l’accès à une partie de la couverture
Couverture
Opération financière consistant à se protéger contre un risque lié à l’incertitude des marchés futurs par l’achat de contrats d’assurance, d’actes de garantie ou de montages financiers.
(en anglais : hedge)
sociale. Lorsque les informations personnelles sont collectées par des institutions qui adoptent des politiques répressives, cela peut exposer les populations vulnérables à des formes d’exclusion, de persécution, voire de violence institutionnalisée.
De même, l’absence de données sur certains groupes sociaux n’est pas un oubli innocent, mais bien un acte politique qui renforce et perpétue les inégalités existantes. Dans des sociétés où les politiques publiques et les avancées technologiques s’appuient de plus en plus sur les données, ne pas être représenté signifie ne pas exister. Cela conduit à l’invisibilisation institutionnalisée de ces groupes, à l’ignorance de leurs besoins spécifiques et à la marginalisation de leurs expériences.
Mais cela n’a rien de nouveau. Quand on critique la technologie (dont l’IA), on ne peut pas faire l’économie des usages et de la manière dont ceux-ci sont distribués. Qu’on le veuille ou non, de nombreuses technologies sont utiles – et parfois vitales – précisément parce que nos sociétés restent profondément inégalitaires. C’est ce qui rend l’angle antivalidiste si peu audible dans le débat public. On discute trop peu des situations où les technologies servent de béquille faute d’un environnement accessible.
À ce titre, l’intersectionnalité est aussi une méthode pour comprendre les effets de dépendance qui se jouent dans les chaînes sociotechniques : qui a des alternatives ? Qui pourrait subir une coupure d’un service
Service
Fourniture d’un bien immatériel, avantage ou satisfaction d’un besoin, fourni par un prestataire (entreprise ou l’État) au public. Il s’oppose au terme de bien, qui désigne un produit matériel échangeable.
(en anglais : service)
ou une panne ? Qui peut, par exemple, réellement se passer d’un smartphone, quand celui-ci est la seule option
Option
Contrat où un acquéreur possède le droit d’acheter (option dite « call ») ou de vendre (option dite « put ») un produit sous-jacent (titre, monnaie, matières premières, indice...) à un prix fixe à une date donnée, moyennant l’octroi une commission au vendeur. C’est un produit dérivé.
(en anglais : option).
permettant d’accéder à un service public
Service public
Entreprise dont le propriétaire, en général unique, est les pouvoirs publics. Dans un sens plus étroit, cela peut vouloir dire aussi que cette firme publique poursuit des objectifs autres que la rentabilité, de sorte à rendre le service fourni accessible à un plus grand nombre.
(en anglais : public service)
? Il y a là, certes, une pente relativiste. Mais elle en dit long sur la part de critique bourgeoise qui traverse une partie du débat public. Une technocritique qui ne mesure pas ces dépendances finit par moraliser les usages des personnes dominées, tout en laissant intacte la structure qui les contraint.
Vous insistez sur le fait que « ce n’est pas l’IA qui entrave l’accès au service public et cible (par exemple) les bénéficiaires d’aides sociales » [3] mais des choix politiques antérieurs. Toutefois, comment articuler cette analyse avec le constat que l’IA, une fois déployée, possède une certaine autonomie et produit des effets propres ? Où placer le curseur entre déterminisme technologique et volonté politique ?
C’est le cœur du problème philosophique. Celui qui distingue plusieurs écoles dans les pensées technocritiques. Depuis une perspective essentialiste, celle d’Ellul, Anders, Heidegger, etc., la technique est en effet autonome, « auto-engendrée » et donc inévitable. De cette pensée découlent deux variables. Tout d’abord, comme la technique est autonome alors tout contrôle démocratique est exclu. Ce raisonnement ne résiste pas aux travaux empiriques, car la technologie ne se déploie pas comme une abstraction, mais via des normes, des choix politiques et industriels, des intérêts
Intérêts
Revenus d’une obligation ou d’un crédit. Ils peuvent être fixes ou variables, mais toujours déterminés à l’avance.
(en anglais : interest)
de classe. Ensuite, ces raisonnements impliquent que la technologie surdétermine les rapports sociaux humains. Pour Ellul [4] par exemple, le capitalisme est juste un décor, il sort de l’histoire.
Est-ce à dire que la technique ne détermine rien ? Non. Dans quelle mesure détermine-t-elle une conduite ? Cela dépend fortement – et c’est ce que nous enseignent des décennies de sociologie des techniques – des zones et des espaces de négociation pendant lesquels un choix technologique est réalisé puis, parfois, verrouillé. Ces espaces existent. Ils ne sont pas en faveur de la technocritique, certes, mais les possibilités de retour en arrière ou de bifurcations ne sont pas difficiles à imaginer.
Concernant les aides sociales, attaquer le sujet par l’IA offre une prise, mais ce n’est que le petit bout de la lorgnette. Ces systèmes font suite à quatre décennies de néolibéralisme
Néolibéralisme
Doctrine économique consistant à remettre au goût du jour les théories libérales « pures ». Elle consiste surtout à réduire le rôle de l’État dans l’économie, à diminuer la fiscalité surtout pour les plus riches, à ouvrir les secteurs à la « libre concurrence », à laisser le marché s’autoréguler, donc à déréglementer, à baisser les dépenses sociales. Elle a été impulsée par Friedrich von Hayek et Milton Friedman. Mais elle a pris de l’ampleur au moment des gouvernements de Thatcher en Grande-Bretagne et de Reagan aux États-Unis.
(en anglais : neoliberalism)
et de pensée gestionnaire. En l’occurrence, le problème est moins « l’IA » que la représentation qu’une société se fait des plus pauvres : des profiteur·euses à contrôler et, accessoirement, une force de travail
Force de travail
Capacité qu’a tout être humain de travailler. Dans le capitalisme, c’est la force de travail qui est achetée par les détenteurs de capitaux, non le travail lui-même, en échange d’un salaire. Elle devient une marchandise.
(en anglais : labor force)
à mobiliser.
En France, en phase avec votre discours, votre collectif s’est engagé dans des luttes concrètes contre l’algorithme de notation
Notation
Classification des actifs (titres, monnaie, prêts...) ou des émetteurs de ceux-ci en fonction du risque de défaut de paiement des revenus et du remboursement de ces actifs ou de la part de celui qui les émet. Cette classification est attribuée par une société privée, appelée agence de notation. Les trois plus importantes sont Fitch Ratings, [Moody’s et Standard & Poor’s. Elles contrôlent l’essentiel des évaluations de risque. Mais le fait qu’elles soient privées et qu’elles aient d’autres départements assurant d’autres fonctions vis-à-vis de leurs clients qu’elles notent pose un très sérieux problème d’indépendance, d’impartialité et finalement de légitimité. Les notations dépendent des sociétés qui les allouent. En général, elles ressemblent néanmoins fortement de la classification suivante, allant de l’actif ou de l’entreprise la moins risquée vers celui ou celle qui l’est le plus : AAA, AA, A, BBB, BB, B, CCC, CC, C.
(en anglais : credit rating).
de la Caisse d’allocations familiales (CAF), contre la vidéosurveillance algorithmique, etc. Qu’apprennent ces batailles de terrain sur les stratégies à développer ? Quels enseignements tirez-vous de ces expériences pour penser l’opposition au déploiement de l’IA dans les services publics ?
Les enseignements sont doubles. En premier lieu, on l’a dit, les actions sur la CAF ont permis de tisser des alliances indispensables sur le long terme, tout en donnant à voir les fameux « dangers de l’IA » de façon bien plus palpable et concrète que les dystopies lointaines et étranges des films et séries de science-fiction.
En second lieu, toutefois, il faut aussi tirer de ces expériences une importante autocritique. La mobilisation contre les algorithmes de sélection de Parcoursup [5] a pris une ampleur disproportionnée au regard du sujet qui aurait dû occuper la quasi-totalité de l’espace médiatique à ce propos. L’entrée à l’université n’était soudainement plus un droit ouvert à toutes et tous mais devenait sélective. L’algorithme n’est qu’une façon comme une autre d’opérer cette sélection, qui est d’ailleurs encore largement réalisée par des humains sans que les conséquences en soient moins graves : tout le monde ne pourra pas étudier à l’université.
Les débats sur la CAF offrent un spectacle similaire. Les articles de presse se multiplient sur les algorithmes qui orientent les contrôles réalisés par la CAF contre ses bénéficiaires, mais on peine à trouver des témoignages de personnes qui en sont victimes et dont la vie est pourtant rendue impossible par le gel des revenus sur de longues périodes et par l’incertitude du résultat du contrôle. S’y intéresser permettrait de garder au centre du débat l’objectif de ces vérifications, qui n’est pas tant de détecter des fraudes mais de dissuader les potentiels bénéficiaires de la CAF de faire valoir leurs droits en les exposant à une menace constante. Cet objectif nécessite uniquement de multiplier les contrôles. Peu importe finalement que ceux-ci soient faits au hasard ou sur base de tels ou tels critères. Peu importe, donc, que ces critères soient appliqués par des personnes ou des programmes. On finit par redouter que, si nos actions en justice contre la CAF devaient conduire à la suppression de ces algorithmes, plus personne ne s’intéresse encore aux victimes des futurs contrôles — tout aussi nombreux et injustes, et décidés seuls par des agents humains de la CAF.
Ces expériences nous rappellent combien la technocritique, telle qu’elle se présente majoritairement dans les pays du Nord, est une discipline bourgeoise. Initialement, les classes privilégiées, dont nous faisons partie, ne se posent pas tant la question de leur exclusion de l’université ou d’un contrôle de la CAF, mais s’intéressent de prime abord aux sujets de leur expertise bourgeoise : sécurité informatique, modèles mathématiques d’appariement, de statistique ou d’apprentissage profond, décrets, lois, règlements européens, etc. Si nous nous intéressons aux impacts sociaux des technologies, en pratique, ce n’est souvent qu’en tant que conséquences des technologies que nous étudions déjà. Cette chronologie peut éloigner de notre champ d’attention des situations plus graves, mais étrangères à nos expertises, situations qui risquent d’être invisibilisées par une presse bourgeoise qui partage nos centres d’intérêt.
La conclusion que nous pourrions en tirer est à débattre. La technocritique est-elle trop facilement captée par des dynamiques abstraites et bourgeoises pour qu’on puisse prendre le risque d’en faire le point de départ d’actions politiques ? La technocritique ne devrait-elle pas se contenter de proposer son soutien à d’autres actions déjà engagées par les personnes qui en bénéficieront matériellement et qui, à ce titre, sont moins susceptibles d’égarer la lutte dans des considérations anecdotiques ?
Plus largement, vous appelez à « construire un front de luttes européen incluant un large spectre d’associations de terrain, de syndicats et de mouvements sociaux ». Concrètement, quelles formes d’action
Action
Part de capital d’une entreprise. Le revenu en est le dividende. Pour les sociétés cotées en Bourse, l’action a également un cours qui dépend de l’offre et de la demande de cette action à ce moment-là et qui peut être différent de la valeur nominale au moment où l’action a été émise.
(en anglais : share ou equity)
et d’organisation collectives vous semblent les plus pertinentes pour contester le déploiement actuel de l’IA ? Quels sont, pour vous, les points de blocage, les leviers d’action, les alliances à construire ?
Il n’existe pas de solution militante unique et miraculeuse. C’est une stratégie de tenaille qui consiste plutôt à multiplier les prises. De plus, il semble vain de lutter depuis une position de surplomb qui ne tient pas compte des dépendances et du monde du travail.
Les luttes « contre » la technologie se sont historiquement structurées depuis des fronts multiples, et parfois en contradiction les uns avec les autres. Les luddites luttaient pour leurs conditions de travail, les défenseurs des libertés sur internet pour une certaine conception du débat public (parfois de concert avec les Big Tech), les écologistes pour la préservation et la justice environnementales, et ainsi de suite. Il paraît aujourd’hui utile d’articuler ces luttes.
Sur le terrain juridique, des associations comme La Quadrature du net, EDRi (European Digital Rights) ou AlgorithmWatch ont déjà permis de mettre certaines entreprises face à leurs responsabilités. Parfois, avec le concours d’usager·es, comme on l’a vu dans le cas des luttes contre l’algorithme de la CAF. Dans le domaine du travail, les années récentes ont vu émerger des alliances entre les travailleuses et travailleurs de la tech et les petites mains de l’IA, avec d’autres ubérisé·es. Bien que balbutiants et rares, ces mouvements sont fertiles.
Qu’est-ce qui bloque ? Déjà, il faut accepter que la solution ne soit pas immédiate, que la route soit longue. Dans ces conditions historiques difficiles et face à des adversaires puissants, chacun·e fait ce qu’il peut. Par ailleurs, le monde syndical est encore largement hypnotisé par l’IA et gagnerait à se radicaliser. Enfin, la critique des technologies ne peut pas faire l’économie d’une pensée plus large, ancrée dans la gauche sociale et progressiste, qui entretient encore des relations ambivalentes au progrès technologique.
Vous vous ralliez également à la proposition de Cécilia Rikap et Cédric Durand d’une souveraineté numérique « non alignée ». Quelles seraient les conditions politiques, économiques et sociales pour qu’une telle souveraineté serve effectivement l’intérêt général plutôt que de nouvelles formes de domination ?
Oui, nous avons trouvé cette proposition intéressante ! Il faut dire que les propositions concrètes et ambitieuses ne sont pas légion. Les autrices et auteurs proposent une reprise en main du numérique aux géants de la Tech, par des puissances publiques activement engagées pour mettre ces technologies au service des citoyen·nes. Ces puissances publiques seraient réunies dans une Internationale écologique non alignée avec les États-Unis et la Chine.
Si l’on veut que l’État mette les technologies au service de toutes et tous, il faudrait déjà que la gauche s’empare du pouvoir, et ce n’est pas une mince affaire... Soit dit en passant, si nous souhaitons effectivement qu’une gauche de rupture s’empare des institutions, notre rôle est aussi de l’aider à aiguiser ses réflexions sur les technologies (on pense à l’enthousiasme sans doute un peu excessif de Jean-Luc Mélenchon quant au partenariat entre Mistral AI, dépendante des infrastructures des géants étasuniens, et l’armée française).
Pour répondre plus précisément, on ne peut décemment décréter du jour au lendemain une souveraineté numérique. C’est un vieux serpent de mer auquel nombre de chercheur·es et de politiques ont tenté de répondre sans grand succès pour l’instant. Et pour cause, elle est un objet politique aux contours mal définis. Qu’appelle-t-on souveraineté numérique ? Imposer plus de régulations aux plateformes actuelles ? En faire des services publics comme certain·es chercheur·es ont tenté de le définir pour Facebook, il y a quelques années ? S’écarter de ces modèles en adoptant les alternatives open sources telles que le Fediverse ? Ou tout recréer ex nihilo en créant les conditions politiques et financières démocratiques pour y arriver ?
Comment finance-t-on les programmes de recherche mais aussi des infrastructures ? Comment finance-t-on la modération ou encore la maintenance du réseau ? Comment taxer plus fortement les GAFAM alors que nous sommes dans le collimateur de Trump avec le RGPD et le DSA (cf. la nouvelle doctrine de la sécurité américaine publiée début 2025) ? Voilà la liste des difficiles questions sur notre chemin.
Selon vous, l’IA cristallise et renforce des rapports de force qui sont propres au capitalisme. Dans cette perspective, est-ce que, malgré tout, des alternatives concrètes à l’IA dominante vous semblent souhaitables et réalistes ?
La véritable question centrale est celle du besoin et non de l’usage. Avons-nous besoin de l’IA ? Avons-nous besoin d’exploiter des terres rares, besoin de créer de nouveaux rapports de domination de type colonialistes, masculinistes ou sexistes ? Besoin d’implanter des centres de données au risque de mettre en péril les nappes phréatiques ? Pourquoi devrions-nous nécessairement proposer des alternatives à des technologies comme l’IA ? Quand nous parlons d’alternatives, nous pensons depuis des situations et des besoins concrets, et les alternatives émancipatrices auxquelles nous pensons sont rarement technologiques elles-mêmes.
Nous ne savons pas ce qu’est une IA émancipatrice et démocratique parce que les modèles dominants utilisés ne le sont pas. Il est donc difficile de répondre à cette question pour l’instant.
Cette absence de réponse immédiate ne doit pas nous désarmer, mais nous inspirer au contraire un rappel important sur ce qu’est la technocritique. L’IA, comme n’importe quel système technique, n’est qu’une modalité parmi d’autres qu’ont les personnes humaines d’ajuster et d’exercer leurs rapports de pouvoir les unes sur les autres. Tant que nos structures de pouvoir actuelles se perpétueront, de nouvelles structures techniques (IA et autres) apparaîtront et s’imposeront pour les maintenir. Réciproquement, la mise à mal de ces structures de pouvoir pourrait faire apparaître les structures techniques vertueuses que nous avons nécessairement du mal à voir aujourd’hui. Si la technocritique peut offrir certains outils pour examiner ces évolutions, elle ne peut s’y substituer, car il ne s’agit jamais de problèmes techniques mais toujours de problèmes politiques. Sur le long terme, ce sont les luttes décoloniales, féministes, queer, anti-validistes et anticapitalistes qui nous diront ce que sont les « alternatives émancipatrices à l’IA dominante ».
Photo : CC by 2.0 Demonstration_of_facial_recognition_software by Pete Woodhead on Wikimedia Commons
Pour citer cet article : Adrien Jahier, "Au-delà de la technique : pour une critique sociale de l’IA - Entretien avec le collectif Le Mouton numérique", Gresea Échos n°125, mars 2026.

