Difficile de passer à côté. Depuis son lancement officiel en novembre 2022, le robot conversationnel ChatGPT n’en finit plus de faire l’actualité. Mais au-delà de ses « prouesses » (réelles ou supposées) quels sont les enjeux qui entourent le développement de cette nouvelle vague d’intelligence artificielle ?

« Révolutionnaire », « fascinante », « effrayante », on ne compte plus les superlatifs qui entourent l’intelligence artificielle déployée par l’outil conversationnel ChatGPT, mis à disposition du public par l’entreprise OpenAI en novembre dernier [1]. Capable d’écrire un poème victorien comme de réussir des examens d’entrée de médecine ou d’ingénieur, ses performances ont effectivement de quoi impressionner… et relancer le débat sur la « singularité technologique », ce point de bascule théorique où l’intelligence artificielle (IA) aurait définitivement dépassé l’intelligence humaine [2].

Sans aller jusque-là, beaucoup anticipent néanmoins une nouvelle rupture technologique au moins aussi importante que l’arrivée d’Internet ou la généralisation du smartphone [3]. À commencer par les entreprises et les investisseurs, en quête d’un nouvel eldorado après les récentes déconvenues dans le domaine des hautes technologies (crash des cryptomonnaies, ralentissement boursier et licenciements massifs chez les GAFAM, etc.) [4]. L’engouement actuel atour de l’IA générative [5] doit d’ailleurs peut-être (surtout) être lu à cet aune : la fin d’un cycle – ou d’une bulle – technologique initié au début des années 2010 [6] et qui ouvre la course pour le « next big thing » (le prochain grand succès), avec ce que cela peut impliquer de fausses promesses ou de coups de bluff.

Dans ce contexte, il peut être utile de rappeler que la technologie qui sous-tend ChatGPT n’est pas neuve et qu’OpenAI n’est pas forcément l’entreprise la plus en pointe dans le domaine de l’intelligence artificielle [7]. Certes, la qualité de son outil conversationnel en a pris plus d’un par surprise, mais c’est surtout sa mise à disposition publique et gratuite qui en a garanti le retentissement planétaire. Une stratégie qui tranche avec la prudence observée jusqu’ici par les autres poids lourds du secteur – ainsi que par OpenAI elle-même [8] – et qui n’est pas sans poser de redoutables problèmes éthiques, mais aussi juridiques.

 Irresponsabilité « disruptive »

C’est notamment le cas, parce que, faut-il le rappeler, aussi impressionnantes qu’elles soient, les réponses formulées par ChatGPT ne sont animées d’aucune « intelligence », ni encore moins de « conscience » réelles. Comme l’explique ce spécialiste, Jim Thomas : « Tout ce qu’elles font, c’est mélanger une sélection de textes trouvés sur Internet pour alimenter une prédiction probabiliste sur ce qu’il faut dire pour répondre à votre question ». Et d’ajouter qu’être « "exact" ou "réfléchi" n’est pas l’objectif. C’est l’engagement avec l’utilisateur qui est essentiel. L’IA doit simplement continuer à convaincre son public qu’elle sait de quoi elle parle et qu’on peut lui faire confiance. Elle n’a pas besoin d’être "correcte" » [9].

La conséquence, ce sont dès lors des outils susceptibles d’alimenter de vastes campagnes de désinformation et plus largement de diffuser des discours toxiques ou manipulatoires aux conséquences potentiellement catastrophiques [10]. Se pose également la question de la propriété intellectuelle Propriété intellectuelle Ensemble des droits exclusifs accordés sur les créations intellectuelles liées à un auteur, dont un acteur économique (souvent une entreprise) se fait le représentant.
(en anglais : intellectual property)
des innombrables textes sur lesquels ces IA sont entraînées et à partir desquels elles créent de nouveaux contenus, sans parler du fait que plus les machines produiront elles-mêmes du texte, plus elles s’entraîneront à partir de textes produits par d’autres machines…

Autant de considérations qui n’ont visiblement pas empêché OpenAI d’aller de l’avant, dans une irresponsabilité typique de la « disruption » en vogue dans le milieu de la tech [11], « forçant » en même temps d’autres acteurs à embrayer de peur d’être laissés de côté. C’est ainsi qu’après avoir déclaré qu’une mise à disposition publique trop rapide de son propre outil conversationnel pourrait lui causer des « dommages réputationnels », Google a changé d’avis en organisant précipitamment la présentation de son chatbot « Bard »… laquelle a tourné au fiasco. Le robot s’est notamment trompé sur une question concernant le télescope James Webb, faisant immédiatement plonger l’action Action Part de capital d’une entreprise. Le revenu en est le dividende. Pour les sociétés cotées en Bourse, l’action a également un cours qui dépend de l’offre et de la demande de cette action à ce moment-là et qui peut être différent de la valeur nominale au moment où l’action a été émise.
(en anglais : share ou equity)
d’Alphabet (la maison mère de Google) [12]. S’il est risible, l’épisode pointe néanmoins vers les limites plus générales de ces modèles, qu’illustrent également les ratés connus par Microsoft dans ses tentatives d’intégrer GPT-3.5 dans son moteur de recherche Bing [13].

 Nouvelle « frontière » du numérique

En attendant, le même Microsoft a déjà annoncé investir 10 milliards de dollars supplémentaires pour renforcer son partenariat privilégié avec OpenAI et la plupart des autres géants technologiques ont déclaré travailler sur leur propre version de ChatGPT [14]. L’enjeu consiste non seulement à continuer de perfectionner la technologie, mais aussi de lui trouver une ou des applications susceptibles de la rentabiliser. Pour l’heure, on parle beaucoup de la « révolution » que ces outils pourraient permettre dans le fonctionnement des moteurs de recherche ou dans les logiciels de bureautique [15], mais il existe également des projets d’applications plus ciblées, notamment dans des secteurs spécifiques (ex. : programmation, e-commerce) [16]. Les plus enthousiastes y voient les prémisses d’une nouvelle ère caractérisée par des bonds de productivité Productivité Rapport entre la quantité produite et les ressources utilisées pour ce faire. En général, on calcule a priori une productivité du travail, qui est le rapport entre soit de la quantité produite, soit de la valeur ajoutée réelle (hors inflation) et le nombre de personnes nécessaires pour cette production (ou le nombre d’heures de travail prestées). Par ailleurs, on calcule aussi une productivité du capital ou une productivité globale des facteurs (travail et capital ensemble, sans que cela soit spécifique à l’un ou à l’autre). Mais c’est très confus pour savoir ce que cela veut dire concrètement. Pour les marxistes, par contre, on distingue la productivité du travail, qui est hausse de la production à travers des moyens techniques (machines plus performantes, meilleure organisation du travail, etc.), et l’intensification du travail, qui exige une dépense de force humaine supplémentaire (accélération des rythmes de travail, suppression des temps morts, etc.).
(en anglais : productivity)
spectaculaires rendus possibles par cette nouvelle vague d’automatisation [17]… même si on cherche toujours les gains de productivité permis jusqu’ici par la numérisation [18].

Quoiqu’il en soit, sans préjuger du succès que pourraient rencontrer ces différents projets, on peut déjà en pointer certaines limites ou problèmes. Le premier renvoie au coût environnemental prohibitif qu’impliquerait un déploiement massif de ces solutions d’IA. Comme l’expliquait récemment un gestionnaire de fonds Fonds (de placement, d’investissement, d’épargne…) : société financière qui récolte l’épargne de ménages pour l’investir ou le placer dans des produits financiers plus ou moins précis, parfois définis à l’avance. Il existe des fonds de pension, des fonds de placement, des fonds de fonds qui sont proposés à tout un chacun. En revanche, les hedge funds (fonds spéculatifs) et les private equity funds sont réservés à une riche clientèle.
(en anglais : fund)
financiers dans le journal L’Echo : « Cette technologie révolutionnaire qui se développe à une vitesse fulgurante nécessite des investissements majeurs en infrastructure de calcul. New Street Research a déterminé que si Google déployait un algorithme similaire à ChatGPT pour alimenter son moteur de recherche utilisé par plus de 4 milliards d’humains chaque jour, plus de 80 milliards de dollars seraient nécessaires, soit plus que les investissements en data centers en 2021 de Microsoft, Amazon et Google réunis ! » [19]

Une perspective qui semble réjouir notre « analyste », mais qui oublie (ou feint d’oublier) l’impact environnemental majeur de ces infrastructures numériques, que ça soit en termes de consommation d’électricité ou encore des différentes pollutions liées à leur fabrication [20]. À titre Titre Morceau de papier qui représente un avoir, soit de propriété (actions), soit de créance à long terme (obligations) ; le titre est échangeable sur un marché financier, comme une Bourse, à un cours boursier déterminé par l’offre et la demande ; il donne droit à un revenu (dividende ou intérêt).
(en anglais : financial security)
d’exemple, un autre article explique qu’une « startup a estimé qu’en apprenant à un système à résoudre un Rubik’s Cube à l’aide d’une main robotique, OpenAI a consommé 2,8 gigawattheures d’électricité, soit autant que ce que trois centrales nucléaires pourraient produire en une heure » [21]. Certes, le journaliste reconnaît que des améliorations importantes sont possibles et mêmes probables dans ce domaine, mais il ajoute que « développer la précision de l’IA implique généralement des modèles plus complexes qui passent au crible davantage de données - le modèle GPT2 d’OpenAI aurait utilisé 1,5 milliard de paramètres pour évaluer les données, tandis que le modèle GPT3 en comptait 175 milliards - ce qui laisse penser que l’impact écologique de l’IA pourrait empirer avant de s’améliorer ».

 Inégalités et limites de l’automatisation

Second problème, ces IA génératives risquent d’aggraver considérablement la fracture numérique à la fois au sein et entre les pays. OpenAI propose déjà une version payante et plus performante de ChatGPT qui introduit donc différentes classes d’utilisateurs en fonction de leur capacité ou non à payer [22]. En outre, si le modèle fonctionne aujourd’hui dans plus de 95 langues différentes, « il est principalement conçu pour comprendre et générer des textes en anglais » [23], non seulement pour des raisons de débouchés, mais aussi parce que l’anglais est la langue la plus parlée sur Internet (avec le mandarin) [24]. Or, dans la mesure où cet outil est d’autant plus performant qu’il peut s’entraîner sur de vastes corpus de textes, les langues les moins présentes en ligne sont donc naturellement désavantagées.

Ce serait même le cas pour le mandarin, pourtant massivement présent en ligne, mais moins « structuré » que l’anglais, avec pour conséquence qu’il est « plus difficile d’entraîner ChatGPT à produire des choses qui ressemblent à une production humaine » [25]. De quoi accentuer la pression sur les géants chinois du numérique – dans un domaine où la Chine est considérée comme ayant une légère avance sur les Américains [26] – pour qu’ils développent leurs propres outils adaptés à la langue et au marché Marché Lieu parfois fictif où se rencontrent une offre (pour vendre) et une demande (pour acheter) pour un bien, un service, un actif, un titre, une monnaie, etc. ; un marché financier porte sur l’achat et la vente de titres ou d’actifs financiers.
(en anglais : market)
chinois. Et ce d’autant plus que Pékin a interdit aux entreprises chinoises de proposer des services basés sur ChatGPT [27], officiellement pour ne pas qu’ils répandent les « fausses informations » diffusées par le gouvernement américain, mais aussi parce qu’ils risqueraient de mettre à mal les mécanismes actuels de censure des autorités sur les contenus circulant sur Internet.

Enfin, le dernier problème renvoie au déploiement à grande échelle de l’IA en général, et pas uniquement de ses versions « génératives ». Comme le souligne Jim Thomas, que nous avons déjà cité plus haut, une métaphore utile pour comprendre comment fonctionne une IA comme ChatGPT consiste à la voir comme « une forme de correcteur automatique sous stéroïdes » [28]. Or, toujours selon lui, « c’est exactement la stratégie sur laquelle travaillent de nombreuses IA : elles prédisent l’étape suivante la plus probable en se basant de manière probabiliste sur le vaste ensemble de données qu’elles ont analysé jusqu’à présent ». Le problème c’est que ces « données » peuvent être de qualité variable et elles sont de toute façon toujours l’expression de construits sociaux (et donc de biais) qui se trouveront naturalisés et renforcés par les modèles prédictifs qu’elles alimentent [29].

 Lutter contre l’entropie numérique

L’automatisation de pans entiers de l’économie et plus largement de nos sociétés se fait donc à la fois au risque d’une aggravation des discriminations, par exemple, mais aussi d’une perte de réflexivité sur leurs causes et sur notre fonctionnement social en général, aboutissant à une situation « entropique » [30] comme la définissait notamment Bernard Stiegler : « Qu’est-ce qu’il se passe avec les algorithmes que l’on appelle aujourd’hui l’intelligence artificielle ? Ce sont des dispositifs qui permettent d’analyser à très grande échelle des phénomènes dans le domaine de la langue, du transport, de la santé, etc., et d’obtenir des résultats. Mais tous les gens sérieux vous diront que ces résultats sont factuels et n’ont pas de rigueur théorique. Ce qui signifie que ces algorithmes ne savent pas anticiper les exceptions. Et il y a toujours des exceptions. (…) De façon plus scientifique, ces analyses algorithmiques reposant sur des moyennes et ne gérant pas les exceptions augmentent l’entropie. Or, l’entropie c’est ce qui détruit tout, c’est le désordre » [31].

Face à cette situation, le philosophe appelait notamment l’Europe à se défaire de sa fascination pour les « prouesses » de la Silicon Valley et à s’engager dans sa propre voie, intégrant, entre autres, une véritable réflexion épistémologique sur les portées et les limites de l’IA. L’adoption en cours de la législation européenne sur l’IA (AI Act) pourrait en fournir l’occasion [32], mais elle risque de souffrir de la même ambiguïté que celle qui caractérise le reste de la stratégie numérique européenne [33], à savoir la difficulté à trancher entre la volonté de (re)mettre le numérique au service Service Fourniture d’un bien immatériel, avantage ou satisfaction d’un besoin, fourni par un prestataire (entreprise ou l’État) au public. Il s’oppose au terme de bien, qui désigne un produit matériel échangeable.
(en anglais : service)
de la société… et l’impératif de « compétitivité mondiale », notamment vis-à-vis des États-Unis et de la Chine.


Pour citer cet article : Cédric Leterme, "ChatGPT : l’IA générative qui bouleverse le numérique", Gresea, mars 2023.

Source photo : CC Flickr.

Notes

[1P. Laloux, « « Tsunami technologique », « invention du siècle » : ChatGPT affole le monde de la tech », Le Soir, 17 décembre 2022.

[2A. Stiru, « Opinion : La singularité technologique est plus proche qu’on ne le pense », Business AM, 25 février 2023.

[3C. Charlot, « Faut-il craindre la révolution ChatGPT ? », Trends-Tendances, 6 février 2023.

[4« Investors are going nuts for ChatGPT-ish artificial intelligence », The Economist, 28 février 2023.

[5C’est-à-dire les algorithmes capables de générer du nouveau contenu (texte, image, vidéo) en faisant une prédiction probabiliste sur la base de quantités énormes de contenus préexistants qui ont servi à les « entraîner ». Pour une présentation sommaire de l’histoire et des principales formes d’intelligence artificielle, lire : T. Simonite, « The WIRED Guide to Artificial Intelligence », Wired, 8 février 2023.

[6Lire, à ce propos : K. Van Hamme, « La suprématie boursière de la Big Tech sur le déclin », L’Echo, 14 novembre 2022.

[7R. Browne, « All you need to know about ChatGPT, the A.I. chatbot that’s got the world talking and tech giants clashing », CNBC, 8 février 2023.

[8« Le générateur de texte GPT-2 a été publié par étapes au fil des mois en 2019 par crainte d’une utilisation abusive et de son impact sur la société (…). En 2020, le processus d’entraînement de son successeur plus puissant, GPT-3, a été bien documenté en public (…). En novembre 2022, le processus de commercialisation de ChatGPT n’incluait aucun article technique ou publication de recherche, mais seulement un article de blog, une démo et bientôt un plan d’abonnement » (K. Johnson, « Chatbots Got Big—and Their Ethical Red Flags Got Bigger », Wired, 16 février 2023).

[9J. Thomas, « What happens when ChatGPT’s delusions spill into our bigger AI future ? », Scan the Horizon (blog), 21 février 2023.

[10Soit parce que ces robots relayeraient des contenus ou informations problématiques déjà présentes sur Internet, soit parce qu’ils pourraient eux-mêmes en générer. Sur ce point, lire : « ChatGPT pourrait-il devenir un super propagateur d’infox ? », Misinformation Monitor, Newsguard, janvier 2023.

[11B. Stiegler, Dans la disruption ; comment ne pas devenir fou ?, Actes Sud – Babel, 2018.

[12« L’IA Bard, concurrent de ChatGPT, se trompe et fait plonger Google en Bourse de près de 100 milliards de dollars », La Libre Eco, 9 février 2023.

[13N. Lellouche, « Bing ChatGPT a un gros problème : il ment, insulte et prétend être humain », Numerama, 16 février 2023.

[14C. Zhou, « Alibaba, Tencent and Baidu join the ChatGPT rush », Asia Nikkei Review, 10 février 2023.

[15M. Rochefort, « Microsoft parti pour révolutionner l’usage d’Internet avec OpenAI », Siècle Digital, 8 février.

[16Y. Yu & C. Ting-Fang, « Tech giants look for ways to cash on ChatGPT boom », Asia Nikkei Review, 2 mars 2023.

[17Charlot, « Faut-il craindre la révolution ChatGPT ? », op. cit.

[18En 1987, l’économiste Robert Solow affirmait ainsi que « les ordinateurs sont visibles partout, sauf dans les statistiques de productivité », un constat qui ne s’est pas démenti depuis lors, même si les raisons exactes de cette situation font débat. Lire notamment la page de Wikipédia consacré au « Paradoxe de la productivité » : https://en.wikipedia.org/wiki/Productivity_paradox.

[19R. Grandi, « Tribune : ChatGPT, tendance éphémère ou invention du siècle ? », L’Echo, 1er mars 2023.

[20G. Pitron, L’enfer numérique – Voyage au bout d’un like, Paris, Les Liens qui Libèrent, 2021.

[21Simonite, « The WIRED Guide to Artificial Intelligence », op. cit.

[22« Introducing ChatGPT Plus », OpenAI (blog), 1er février 2023.

[23A. Christensen, « How Many Languages Does ChatGPT Support ? The Complete ChatGPT Language List », SEO.ai, 3 février 2023.

[24« Observatoire de la diversité culturelle et linguistique dans l’Internet » : https://funredes.org/lc/.

[25Y. Yu & C. Zhou, « ChatGPT rush kicks U.S.-China AI race into higher gear », Asia Nikkei Review, 15 février 2023.

[26W. Knight, « US Technological Dominance Is Not What It Used to Be », Wired, 2 mars 2023.

[27C. Zhou, « China tells big tech companies not to offer ChatGPT services », Asia Nikkei Review, 22 février 2023.

[28Thomas, « What happens when ChatGPT’s delusions… », op. cit.

[29À ce propos, lire également K. Crawford, Contre-atlas de l’intelligence artificielle, Paris, Zulma, 2022.

[30L’entropie désigne la désorganisation croissante d’un système, contre laquelle il est possible de lutter, par exemple en développant de nouveaux savoirs dans le cas des sociétés humaines (on parle alors de néguentropie).

[31« Rapport Villani sur l’intelligence artificielle : le regard du philosophe Bernard Stiegler », TV5 Monde, 31 mars 2018.

[33Lire par exemple : C. Leterme, « Portée et limites de l’offensive européenne sur le numérique, Revue européenne des médias et du numérique, n°61-62 (printemps-été), 2022.