L’intelligence artificielle sera t'elle la marionnettiste du travail ?
18/06/2025
Avec le lancement de ChatGPT fin 2022, l’intelligence artificielle a pris une forme publique très concrète. Chacun peut désormais, moyennant une somme modique – en forte augmentation récemment –, lui poser les questions qui lui viennent à l’esprit, entretenir avec lui une conversation suivie, vérifier sa connaissance de la langue française et son habileté à l’utiliser, le pousser dans ses retranchements [1]... Dialoguant régulièrement avec lui ou ses concurrents chinois (Deepseek) ou français (Le chat), je peux attesté que ces robots conversationnels sont bluffant, bien supérieurs aux moteurs de recherche dans leur capacité à établir des liens de causalité et à « maitriser » le langage naturel, mais qu’ils ne sont pas exempts d’erreurs qu’ils ont d’ailleurs appris à reconnaitre volontiers et poliment…
L’intelligence artificielle est une réalité émergente. Au fur et à mesure de ses progrès, ses applications vont se multiplier et se diffuser dans les entreprises et la société. Il est évidemment trop tôt pour en dresser un bilan. On peut toutefois supposer qu’il en sera d’elle comme de toutes les innovations techniques qui l’ont précédée : elle apportera son lot de bénéfices et d’avantages dont on ne pourra que se féliciter et d’horreurs inouïes, car derrière elles, toujours se dressent des hommes qui en sont capables.
La question que je souhaite aborder ici est celle de son impact sur le travail, dans une double perspective : en amont, sur celui qui lui est nécessaire pour fonctionner et en aval sur ceux qui jusqu’à présent se passaient d’elle. Certes, ses applications sont peu nombreuses et encore fraiches. Mais j’ai souvent été surpris de la lucidité dont pouvaient faire preuve les témoins d’une époque nouvelle. Je pense par exemple à ce qui a été écrit à l’aube de l’industrialisation ou à la naissance du taylorisme. C’est un exercice que l’on peut faire aujourd’hui encore, à partir de quelques exemples, non pas au titre d’un jugement définitif porté sur une innovation mais comme exercice de notre vigilance intellectuelle à son encontre.
Une intelligence artificielle, objet de tous les fantasmes
L’intelligence artificielle n’en est qu’à ses premiers pas, mais ils suffisent pour projeter sur elle bien des prophéties radicales. D’un extrême à l’autre, elle serait capable de nous sortir des impasses dans lesquelles nous nous sommes enfoncés, capable de nous tracer un avenir sous forme d’homme augmenté, ou bien elle serait un outil au service des pouvoirs ou des escrocs pour asservir ou duper les hommes.
Une clarification conceptuelle peut peut-être modérer ces représentations et les ramener sur terre. Je m’appuie ici sur la lecture d’un ouvrage du mathématicien et philosophe, Daniel Andler : Intelligence artificielle, intelligence humaine : la double énigme [2].
Reprenons d’abord la distinction clarificatrice qu’il opère des trois composantes de l’intelligence artificielle : la première, à la source des deux autres, ce sont les institutions et les disciplines de recherche qui conçoivent et promeuvent l’intelligence artificielle. Il les désigne par « IA ». La deuxième, c’est ce que ces institutions visent et produisent, à savoir l’« intelligence artificielle » écrite en toutes lettres. Enfin, il y a les applications concrètes mises en œuvre dans différents secteurs de l’économie telles que le diagnostic médical, la traduction automatique, la logistique, les robots conversationnels, les applications militaires, etc. que l’auteur nomme les « Systèmes Artificiels d’Intelligence » (SAI).
Les pionniers de l’IA ont beaucoup rêvé. L’un d’entre eux, Herbert Andler, économiste et sociologue américain, concepteur avec Allen Newell, en 1959, d’un programme informatique censé résoudre tous les problèmes universels, écrivait ainsi en 1957 : « il existe désormais dans le monde des machines qui pensent, qui apprennent et qui créent. De plus leurs performances en la matière vont augmenter rapidement jusqu’au moment où, dans un avenir prévisible, l’ensemble des problèmes qu’elles peuvent résoudre sera coextensif au domaine des problèmes auxquels l’esprit humain s’est attaqué » [3]. L’excès rhétorique tient évidemment à l’utilisation des mots de pensée, d’apprentissage et de création, de bien grands concepts ici abusivement mobilisés.
Pour comprendre ce qu’est et produit l’intelligence artificielle, il faut entrer dans la boite noire. Ce qui fait son succès aujourd’hui, c’est ce qu’on appelle l’ « apprentissage profond », c'est-à-dire la capacité de la machine, grâce aux algorithmes qu’on lui fournit, à plonger dans des bases de données gigantesques, les Mégadonnées, et d’en tirer des enseignements qu’elle pourra utiliser lors d’un prochain questionnement. Par exemple, elle devient capable d’identifier un chat à partir des nombreuses photos de chat qu’on lui aura fait ingérer. Mais pour identifier tous les vivants de la terre et les reconnaitre, il faut l’alimenter d’une quantité phénoménale d’images correctement étiquetées. Si vous lui fournissez des images de lion et les avez nommées chat, sa compétence identificatrice va nettement diminuer…
Sur la base de cette connaissance, Daniel Andler recense tout ce que l’intelligence artificielle n’est pas quand on la compare à l’intelligence humaine :
La machine ne comprend pas ce qu’elle dit ou fait ; elle n’en a pas conscience ; elle ne sait pas généraliser, mais seulement résoudre des problèmes particuliers ; elle est totalement dépendante de l’intelligence humaine qui a construit la machine, lui fournit l’énergie, l’alimente en données, lui procure des algorithmes et lui soumet les questions ou les problèmes à résoudre ; elle peut identifier des émotions et les nommer, mais ne peut pas les éprouver ; elle ne réfléchit pas sur l’action qu’elle conduit, ne porte aucun jugement moral sur ce qu’elle fait ou dit ; elle ne peut pas certifier la qualité des résultats qu’elle obtient ; elle ne crée rien, mais nous ressort, dans un nouvel arrangement, des plats que nous avons déjà cuisinés. Avec elle donc, aucune rupture épistémologique ou esthétique n’est à espérer…
Parfois le succès vient d’une dénomination abusive. « (Tout est parti d’un) malentendu autour du nom même donné à la discipline, qui n’a rien à voir avec l’intelligence » écrit Luc Julia, le créateur de Siri, dans L’intelligence artificielle n’existe pas [4]. Dans l’expression d’intelligence artificielle, le mot « intelligence » n’est qu’une métaphore. Si on l’avait appelée « répétiteur artificiel » ou « système expert » qui était le nom donné aux dispositifs créés dans les années 1980, on aurait été plus près de sa réalité.
En fait, l’« intelligence » artificielle ne fonctionne pas comme l’intelligence humaine. Elle ne procède pas par raccourci, par intuition, par sauts cognitifs. « Pour qu’une machine reconnaisse un chat avec une précision de 95 %, on a besoin de quelque chose comme 100 000 images de chats » déclare Luc Julia [5], alors qu’il en faut très peu à des enfants pour arriver au même résultat. La machine est besogneuse et par conséquent parfois plus précise si on l’a alimentée correctement, avec suffisamment d’exemples. L’avenir de l’« intelligence » artificielle tient probablement d’ailleurs à assumer son statut machinal et non pas à essayer de mimer l’intelligence humaine. C’est en découvrant des mécanismes sans rapport direct avec les procédés intellectuels humains qu’elle pourra probablement le mieux nous rendre services.
… artificielle, donc en état de dépendance
Le développement d’internet a donné un coup de fouet à la fabrication de données tous azimuts. Nombreux sont les travailleurs qui abreuvent la toile d’information, soit bénévolement à travers les réseaux sociaux, wikipedia, leurs bloc-notes…, soit commercialement par les sites qui la peuplent. L’informatisation des entreprises, des administrations et des services publics, plus ancienne encore, en fait des fournisseurs potentiels d’innombrables données, de toutes natures. C’est l’ensemble de celles qui sont accessibles qui forment ce qu’on nomme les big data, les méga données. Elles sont si nombreuses qu’elles ne peuvent être traitées que par des machines numériques. Mais ce n’est pas leur quantité qui fait leur qualité. Aussi ont-elles besoin d’être purgées de leurs erreurs et rangées. Ce sont ces données toilettées qui vont nourrir l’intelligence artificielle chargée de les rendre opérationnelles.
Les travailleurs en amont de l’intelligence artificielle sont nombreux. La liste des métiers ou compétences informatiques et marketing qu’elle mobilise soit dans l’IA, soit dans les SAI (je reprends ici la terminologie d’Andler, bien pratique) est impressionnante. Du côté des IA, il y a tous les métiers de recherche et de conception de dispositifs d’intelligence artificielle. On les trouve essentiellement dans les GAFAM qui souhaitent l’intégrer dans toutes leurs offres et disposent des ressources et des compétences pour cela, avec des développeurs d’algorithme, des ingénieurs en apprentissage automatique, des experts en reconnaissance vocale ou analogique, des « éthiciens » qui proposent des dispositifs de contrôle éthique des productions de l’intelligence artificielle, etc. On en trouve également dans les instituts publics pour des recherches fondamentales. Du côté du développement des SAI, les métiers spécialisés sont également nombreux. On peut citer les architectes en intelligence artificielle qui conçoivent les systèmes et en supervisent la mise en place, les consultants qui conseillent les entreprises sur la mise en place de technologies basées sur l'intelligence artificielle ; les experts en données (Data scientists) qui les analysent et les nettoient pour les rendre exploitables, les chargés de sécurité informatique, etc.
Mais ce sont les travailleurs de données (data workers) qui forment les bataillons les plus nombreux mis au service de l’intelligence artificielle ; ils sont à nos yeux invisibles car souvent dans le Sud et sous-payés. Un rapport de la Banque mondiale estime qu’il en existe entre 150 et 450 millions dans le monde [6]. « Les sacrifiés de l’IA », un documentaire diffusé le 5 février dernier sur France 2 les a sortis de l’ombre. Plutôt que de s’interroger sur ce que produisent les intelligences artificielles, Henri Poulain, son réalisateur, s’est demandé comment elles sont produites. Tiré de ce film, voici en quoi consiste leur travail. Il se passe de commentaires.
Un impact sur le travail en attente de réalisations à instruire
Mais que se passe-t-il en aval, une fois un dispositif d’intelligence artificielle mis en place dans une organisation ? Quelles transformations du travail induit-elle ?
Les généralités en la matière n’ont guère d’intérêt car si ces dispositifs réaménagent le travail ce sera à chaque fois en des termes propres aux organisations dans lesquelles ils seront insérés. Malheureusement, à ma connaissance, nous ne disposons pas de véritables monographies. Même le réseau Anact issu du courant sociotechnique [7] n’a à ce jour rien publié de significatif à ce sujet [8]. En attendant que ces études soient produites, je peux faire état de quelques exemples présentés lors de séminaires ou colloques récents de nature à dessiner une première carte des impacts possibles. Ils sont à prendre avec précaution car exposés unilatéralement par une partie prenante – que ce soit un dirigeant, un syndicaliste ou un tiers –, ils sont souvent en- ou dé-jolivés. Ils sont néanmoins les buttes témoins d’un territoire à explorer.
C’est le secteur des services qui semble davantage se mobiliser pour mettre en place des SAI. Ce serait le cas des banques que l’intelligence artificielle générative (c'est-à-dire productrice de textes, d’images ou de sons) intéresse pour produire automatiquement des textes répondant aux exigences légales ; de même en serait-il des notaires. La fonction Ressources humaines dans les organisations serait aussi candidate. Sont évoqués chez Thalès ou Carrefour l’édition des paies, ainsi que des appuis dans les processus de recrutement. Dans la Gendarmerie nationale, l’IA serait en cours d’intégration pour assurer la transcription écrite d’écoutes téléphoniques, tâche éminemment longue et fastidieuse ; elle serait également utilisée pour examiner les sites pornographiques. La machine épargnerait ainsi le moral ou la santé psychique des gendarmes mobilisés à ces tâches, mais parce que d’autres, ailleurs et en amont, y sont exposés. En voici deux témoignages :
Dans des Centres d’appel, on chercherait à utiliser l’intelligence artificielle pour enlever les accents de téléopérateurs et augmenter ainsi leur « efficacité » commerciale. Assez fréquemment semble-t-il, l’IA générative est utilisée par les salariés sans que leur hiérarchie le sache, pour accélérer les recherches ou les productions (de diaporamas ou de projets par exemple) pour lesquelles on les sollicite.
Du côté de l’industrie, les exemples que j’ai pu entendre sont moins nombreux. Des robots pilotés par de l’IA auraient pris en charge le réglage de commandes numériques et pris ainsi la place de programmeurs et régleurs. Dans le secteur automobile, l’IA serait envisagé comme assistance au pilotage. Mais comme l’a déclaré un cadre d’Airbus, autre fabricant de moyen de transport, dans un colloque : « on fait voler des avions. On ne peut pas se permettre d’utiliser des outils dont on ne sait pas comment ils fonctionnent ».
Beaucoup d’expérimentations sont ainsi lancées, mais il n’existe que fort peu de déploiement à grande échelle. Beaucoup dépendra donc de leurs résultats. Elles devront prouver, dans la durée, leur plus grande efficacité et fiabilité au regard des mêmes opérations réalisées par des hommes, pour prétendre prendre leur place.
Des printemps et des hivers de l’intelligence artificielle
L’impact en emploi du développement des SAI dans les années à venir fait régulièrement l’objet d’études prospectives. Dans un article très intéressant [9], Olivier Ezrati examine les études prospectives réalisées entre 2013 et 2019 et recense les approximations ou les impasses qui expliquent leurs résultats divergents :
- nombre de prévisions s’appuient sur des technologies qui ne sont pas encore disponibles même en recherche fondamentale et ne font pas d’analyse factuelle de celles qui sont à venir, ni des délais nécessaires à leur implantation dans les organisations. Elles ont une tendance lourde à surestimer les capacités de l’« intelligence » artificielle et la rapidité de déploiement et de mise en œuvre sur le terrain économique.
- certaines raisonnent au niveau des métiers comme s’ils étaient affectés dans leur totalité. Or l’« intelligence » artificielle conduit à une recomposition du travail au sein des métiers par l’automatisation de certaines de leurs tâches et non à une substitution.
Elles pèchent ainsi dans les deux registres d’analyse, celui de la diffusion des technologies nouvelles et celui du travail. Elles aboutissent à des résultats qui ne sont que des effets de communication qui font peur ou qui rassurent. Elles contribuent ainsi à former ces nuages idéologiques qui embrouillent la vision du citoyen.
L’histoire de l’intelligence artificielle est récente et la désignation même de la discipline est fondée sur une approximation sémantique. On fait en effet remonter sa naissance au séminaire scientifique organisé en 1956 au Dartmouth College (New Hampshire, États unis) pour réfléchir aux avancées matérielles et logicielles nécessaires, afin qu’advienne une « intelligence artificielle ». C’est dans l’invitation adressée aux chercheurs que figure cette expression qui n’a ensuite pas été remise en question par les participants. S’en est suivi une période faste d’investissement dans la recherche, dopée par une perspective inouïe : créer des machines qui raisonnent. Mais elle s’est vite épuisée faute de résultat tangible et entre 1974 et 1980, les recherches ont été gelées. Ce fut le premier « hiver » de l’intelligence artificielle. Une relance des investissements eu lieu dans les années 80 autour de la création des « systèmes experts », mais ceux-ci faute de résultats significatifs conduisirent à un deuxième hiver (1987-1993). Nous sommes aujourd’hui dans un troisième « printemps » rendu possible par le développement exponentiel des données et la mise au point d’algorithmes permettant l’apprentissage profond.
Il y aurait lieu de s’interroger sur ces freinages – relances. Sont-ils les effets d’emballements dans les esprits, confrontés à des avancées techniques qui tâtonnent dans les faits ? Un article récent paru dans Le Monde titrait sur « les craintes d’une bulle autour de l’intelligence artificielle générative », en soulignant que des analystes aujourd’hui alertent sur le dépassement des dépenses, notamment en capacité de calcul informatique, sur les revenus [10] ; un autre soulignait des coûts énergétiques qui pourraient devenir colossaux [11] ; un autre encore le problème géopolitique que pose l’utilisation de métaux rares nécessaires aux équipements qui proviennent pour certains quasi exclusivement de Chine, donnant à cette dernière un pouvoir d’action contraignant sur les économies numériques [12]. Sur ce troisième printemps pèse donc déjà quelques menaces de refroidissement.
La spirale consumériste du développement numérique
A l’occasion de mes lectures, j’ai découvert un concept qui fleure bon son idéologie productiviste : « La dette technologique ». C’est une resucée des moutons de Panurge, en moins poétique toutefois. Elle fait référence à l’utilisation par une organisation de technologies dépassées ou inefficaces, ce qui entraîne pour elle un retard ou une inefficacité productive. Ce retard est qualifié de « dette » car elle devra être nécessairement remboursée. L’entreprise qui n’y consentirait pas prendrait en effet le risque de perdre sa place sur les marchés, voire de disparaître. Est ainsi diffusé dans les esprits des dirigeants d’entreprise l’idée d’une inéluctabilité d’un « progrès » technologique sans faille. C’est évidemment une invitation à s’engager dans les innovations technologiques dès qu’elles semblent de nature à créer une rupture productive.
Mais ce concept a aussi à faire face à une réalité plus large que lui. L’intelligence artificielle est une grande consommatrice d’énergie et son développement, faute de pouvoir se faire en prenant sur les consommations actuelles, suppose le développement parallèle de la production d’électricité. C’est ce qu’a bien compris Eric Schmidt [13], un ancien PDG de Google. Sa tribune parue au début de cette année en France est un excellent exemple de la manière dont les GAFAM souhaitent déblayer le terrain devant elles et continuer à faire des affaires très lucratives, sans entraves techniques ni idéologiques. « L’IA est très gourmande en électricité » reconnait-il « une seule requête sur ChatGPT, par exemple, consommant dix fois plus d’énergie qu’une recherche classique sur Internet ». Il indique que la consommation d’électricité nécessaire au développement de l’IA devrait être multipliée par plus de vingt entre 2023 et 2030. La direction à prendre ne fait pour lui aucun doute, pour des raisons expédiées en quelques mots : « La mise en place d’un approvisionnement durable en électricité à l’appui de la révolution de l’IA s’inscrit dans l’intérêt des États-Unis et bénéficiera également à d’autres pays, au travers d’améliorations considérables en matière de santé, d’éducation, de sciences, de sécurité nationale, etc. ». Conscient toutefois que cette consommation nouvelle ne saurait se faire au détriment des utilisations actuelles, il milite donc pour le développement d’une énergie non carbonée aux États-Unis. Il propose d’y raccourcir les délais administratifs afin d’accélérer les ouvertures d’infrastructures énergétiques, d’y redémarrer des centrales nucléaires existantes déjà reliées au réseau ou d’en bâtir de nouvelles plus petites et plus fiables, de développer l’innovation énergétique en se concentrant sur l’énergie de fusion nucléaire – sur laquelle de nombreuses recherches ont lieu mais qui sont encore très loin de la maitrise technique qui permettrait d’envisager un développement industriel à moyen terme – et en attendant ce moment béni où sera enfin réglé le problème énergétique, que les États-Unis aillent chercher de l’énergie peu chère et abondante à l’étranger, citant le Japon et le Canada.
La révolution numérique face à la concurrence des autres activités humaines consommatrices d’énergie
Notre planète est secouée par l’activité humaine qui touche à ses limites matérielles et vivantes : la disparition progressive des énergies fossiles et de certains minerais, le changement climatique, la diminution de la biodiversité, les pollutions, la pression démographique, sans parler des guerres qui sont aussi une activité humaine.
Le développement économique des deux derniers siècles, cause de l’atteinte de ces limites, a principalement été porté par l’utilisation croissante d’énergie fossile ou minérale (ceux que cette question intéresse pourront poursuivre leur lecture sur ce bloc-notes en se rendant sur « De la productivité du travail et de certaines de ses conséquences… »).
L’apport de la « rationalisation » du travail, face à elle, n’a été que marginale. Or la révolution numérique contrairement aux précédentes, ne sera génératrice de productivité qu’au travers cette rationalisation. Celle-ci n’est, s’agissant de l’intelligence artificielle, pour l’instant qu’une vague promesse. Elle est en revanche d’ores et déjà, et de plus en plus, consommatrice d’énergie. Elle entre donc directement en concurrence avec toutes les autres activités humaines qui en ont besoin. Sauf à entrer dans la spirale du développement énergétique nucléaire comme le propose Eric Schmidt, la consommation devra se réguler en fonction de l’utilité sociale des activités. A cette aune, que pèsera le numérique et particulièrement l’intelligence artificielle ?
[1] Voir « Combien de temps encore pourrai-je abuser de ta candeur ? », un article d’Hervé Le Tellier paru dans le Monde du 20 juillet 2023 dans lequel il s’amusait à poser à ChatGPT des questions Oulipo comme celle-ci : « Qu’est-ce qui coûte le plus cher : les yeux de la tête ou la peau du cul ? ».
[2] Daniel Andler, Intelligence artificielle, intelligence humaine : la double énigme. Gallimard, Paris, 2023.
[3] Cité dans Intelligence artificielle, intelligence humaine : la double énigme
[4] Luc Julia, L’intelligence artificielle n’existe pas, First éditions, Paris, 2019, p 122. Luc Julia est un informaticien Français, cocréateur de Siri, l’assistant vocal d’Apple.
[5] Ibidem, p 119
[6] Source : « Les sacrifiés de l’IA », documentaire d’Henri Poulain, France, 2024
[7] Les approches sociotechniques sont nées à la fin des années 40, en vue d’une détaylorisation du travail. L’organisation y est vue comme la mise en relation d’un système technique et d’un système social. Dans cette perspective, toute innovation ou changement technique a nécessairement un impact social qu’il s’agit d’évaluer et de corriger dans ses effets néfastes pour les travailleurs qui y sont soumis. Lire à ce sujet : Christian Michelot et Oscar Ortsman, Actualité de l’approche sociotechnique
[8] Récemment (octobre 2024 à février 2025), l’Anact, en partenariat avec l’OIT (Organisation Internationale du Travail), a organisé un cycle de conférences intitulé « Intelligence artificielle, de quoi parle t’on ? Quels enjeux pour les milieux du travail ». C’est un séminaire utile, faisant état de travaux d’experts ou de chercheurs, mais qui ne saurait remplacer des analyses du travail issues de travaux de terrain.
[9] « Intelligence artificielle : Les fumeuses prévisions sur le futur de l’emploi », dans Revue Constructif n° 54, octobre 2019
[10] « Les craintes d’une bulle autour de l’intelligence artificielle générative », Le Monde du 12/07/2024
[11] « Les promesses de l’IA grevées par un lourd bilan carbone », Le Monde du 04/08/2024
[12] « D’ici à 2030 la consommation d’électricité des data centers sera équivalente à celle du Japon », Le Monde du 10/04/2025
[13] « Nous avons besoin d’énergie pour l’IA, et de l’IA pour notre énergie », tribune d’Eric Schmidt, Le Monde du 01/01/2025