Difficile de passer à côté. Depuis son lancement officiel en novembre 2022, le robot conversationnel ChatGPT n’en finit plus de faire l’actualité. Mais au-delà de ses « prouesses » (réelles ou supposées) quels sont les enjeux qui entourent le développement de cette nouvelle vague d’intelligence artificielle ?
« Révolutionnaire », « fascinante », « effrayante », on ne compte plus les superlatifs qui entourent l’intelligence artificielle déployée par l’outil conversationnel ChatGPT, mis à disposition du public par l’entreprise OpenAI en novembre dernier [1]. Capable d’écrire un poème victorien comme de réussir des examens d’entrée de médecine ou d’ingénieur, ses performances ont effectivement de quoi impressionner… et relancer le débat sur la « singularité technologique », ce point de bascule théorique où l’intelligence artificielle (IA) aurait définitivement dépassé l’intelligence humaine [2].
Sans aller jusque-là, beaucoup anticipent néanmoins une nouvelle rupture technologique au moins aussi importante que l’arrivée d’Internet ou la généralisation du smartphone [3]. À commencer par les entreprises et les investisseurs, en quête d’un nouvel eldorado après les récentes déconvenues dans le domaine des hautes technologies (crash des cryptomonnaies, ralentissement boursier et licenciements massifs chez les GAFAM, etc.) [4]. L’engouement actuel atour de l’IA générative [5] doit d’ailleurs peut-être (surtout) être lu à cet aune : la fin d’un cycle – ou d’une bulle – technologique initié au début des années 2010 [6] et qui ouvre la course pour le « next big thing » (le prochain grand succès), avec ce que cela peut impliquer de fausses promesses ou de coups de bluff.
Dans ce contexte, il peut être utile de rappeler que la technologie qui sous-tend ChatGPT n’est pas neuve et qu’OpenAI n’est pas forcément l’entreprise la plus en pointe dans le domaine de l’intelligence artificielle [7]. Certes, la qualité de son outil conversationnel en a pris plus d’un par surprise, mais c’est surtout sa mise à disposition publique et gratuite qui en a garanti le retentissement planétaire. Une stratégie qui tranche avec la prudence observée jusqu’ici par les autres poids lourds du secteur – ainsi que par OpenAI elle-même [8] – et qui n’est pas sans poser de redoutables problèmes éthiques, mais aussi juridiques.
Irresponsabilité « disruptive »
C’est notamment le cas, parce que, faut-il le rappeler, aussi impressionnantes qu’elles soient, les réponses formulées par ChatGPT ne sont animées d’aucune « intelligence », ni encore moins de « conscience » réelles. Comme l’explique ce spécialiste, Jim Thomas : « Tout ce qu’elles font, c’est mélanger une sélection de textes trouvés sur Internet pour alimenter une prédiction probabiliste sur ce qu’il faut dire pour répondre à votre question ». Et d’ajouter qu’être « "exact" ou "réfléchi" n’est pas l’objectif. C’est l’engagement avec l’utilisateur qui est essentiel. L’IA doit simplement continuer à convaincre son public qu’elle sait de quoi elle parle et qu’on peut lui faire confiance. Elle n’a pas besoin d’être "correcte" » [9].
La conséquence, ce sont dès lors des outils susceptibles d’alimenter de vastes campagnes de désinformation et plus largement de diffuser des discours toxiques ou manipulatoires aux conséquences potentiellement catastrophiques [10]. Se pose également la question de la propriété intellectuelle
Propriété intellectuelle
Ensemble des droits exclusifs accordés sur les créations intellectuelles liées à un auteur, dont un acteur économique (souvent une entreprise) se fait le représentant.
(en anglais : intellectual property)
des innombrables textes sur lesquels ces IA sont entraînées et à partir desquels elles créent de nouveaux contenus, sans parler du fait que plus les machines produiront elles-mêmes du texte, plus elles s’entraîneront à partir de textes produits par d’autres machines…
Autant de considérations qui n’ont visiblement pas empêché OpenAI d’aller de l’avant, dans une irresponsabilité typique de la « disruption » en vogue dans le milieu de la tech [11], « forçant » en même temps d’autres acteurs à embrayer de peur d’être laissés de côté. C’est ainsi qu’après avoir déclaré qu’une mise à disposition publique trop rapide de son propre outil conversationnel pourrait lui causer des « dommages réputationnels », Google a changé d’avis en organisant précipitamment la présentation de son chatbot « Bard »… laquelle a tourné au fiasco. Le robot s’est notamment trompé sur une question concernant le télescope James Webb, faisant immédiatement plonger l’action
Action
Part de capital d’une entreprise. Le revenu en est le dividende. Pour les sociétés cotées en Bourse, l’action a également un cours qui dépend de l’offre et de la demande de cette action à ce moment-là et qui peut être différent de la valeur nominale au moment où l’action a été émise.
(en anglais : share ou equity)
d’Alphabet (la maison mère de Google) [12]. S’il est risible, l’épisode pointe néanmoins vers les limites plus générales de ces modèles, qu’illustrent également les ratés connus par Microsoft dans ses tentatives d’intégrer GPT-3.5 dans son moteur de recherche Bing [13].
Nouvelle « frontière » du numérique
En attendant, le même Microsoft a déjà annoncé investir 10 milliards de dollars supplémentaires pour renforcer son partenariat privilégié avec OpenAI et la plupart des autres géants technologiques ont déclaré travailler sur leur propre version de ChatGPT [14]. L’enjeu consiste non seulement à continuer de perfectionner la technologie, mais aussi de lui trouver une ou des applications susceptibles de la rentabiliser. Pour l’heure, on parle beaucoup de la « révolution » que ces outils pourraient permettre dans le fonctionnement des moteurs de recherche ou dans les logiciels de bureautique [15], mais il existe également des projets d’applications plus ciblées, notamment dans des secteurs spécifiques (ex. : programmation, e-commerce) [16]. Les plus enthousiastes y voient les prémisses d’une nouvelle ère caractérisée par des bonds de productivité
Productivité
Rapport entre la quantité produite et les ressources utilisées pour ce faire. En général, on calcule a priori une productivité du travail, qui est le rapport entre soit de la quantité produite, soit de la valeur ajoutée réelle (hors inflation) et le nombre de personnes nécessaires pour cette production (ou le nombre d’heures de travail prestées). Par ailleurs, on calcule aussi une productivité du capital ou une productivité globale des facteurs (travail et capital ensemble, sans que cela soit spécifique à l’un ou à l’autre). Mais c’est très confus pour savoir ce que cela veut dire concrètement. Pour les marxistes, par contre, on distingue la productivité du travail, qui est hausse de la production à travers des moyens techniques (machines plus performantes, meilleure organisation du travail, etc.), et l’intensification du travail, qui exige une dépense de force humaine supplémentaire (accélération des rythmes de travail, suppression des temps morts, etc.).
(en anglais : productivity)
spectaculaires rendus possibles par cette nouvelle vague d’automatisation [17]… même si on cherche toujours les gains de productivité permis jusqu’ici par la numérisation [18].
Quoiqu’il en soit, sans préjuger du succès que pourraient rencontrer ces différents projets, on peut déjà en pointer certaines limites ou problèmes. Le premier renvoie au coût environnemental prohibitif qu’impliquerait un déploiement massif de ces solutions d’IA. Comme l’expliquait récemment un gestionnaire de fonds
Fonds
(de placement, d’investissement, d’épargne…) : société financière qui récolte l’épargne de ménages pour l’investir ou le placer dans des produits financiers plus ou moins précis, parfois définis à l’avance. Il existe des fonds de pension, des fonds de placement, des fonds de fonds qui sont proposés à tout un chacun. En revanche, les hedge funds (fonds spéculatifs) et les private equity funds sont réservés à une riche clientèle.
(en anglais : fund)
financiers dans le journal L’Echo : « Cette technologie révolutionnaire qui se développe à une vitesse fulgurante nécessite des investissements majeurs en infrastructure de calcul. New Street Research a déterminé que si Google déployait un algorithme similaire à ChatGPT pour alimenter son moteur de recherche utilisé par plus de 4 milliards d’humains chaque jour, plus de 80 milliards de dollars seraient nécessaires, soit plus que les investissements en data centers en 2021 de Microsoft, Amazon et Google réunis ! » [19]
Une perspective qui semble réjouir notre « analyste », mais qui oublie (ou feint d’oublier) l’impact environnemental majeur de ces infrastructures numériques, que ça soit en termes de consommation d’électricité ou encore des différentes pollutions liées à leur fabrication [20]. À titre
Titre
Morceau de papier qui représente un avoir, soit de propriété (actions), soit de créance à long terme (obligations) ; le titre est échangeable sur un marché financier, comme une Bourse, à un cours boursier déterminé par l’offre et la demande ; il donne droit à un revenu (dividende ou intérêt).
(en anglais : financial security)
d’exemple, un autre article explique qu’une « startup a estimé qu’en apprenant à un système à résoudre un Rubik’s Cube à l’aide d’une main robotique, OpenAI a consommé 2,8 gigawattheures d’électricité, soit autant que ce que trois centrales nucléaires pourraient produire en une heure » [21]. Certes, le journaliste reconnaît que des améliorations importantes sont possibles et mêmes probables dans ce domaine, mais il ajoute que « développer la précision de l’IA implique généralement des modèles plus complexes qui passent au crible davantage de données - le modèle GPT2 d’OpenAI aurait utilisé 1,5 milliard de paramètres pour évaluer les données, tandis que le modèle GPT3 en comptait 175 milliards - ce qui laisse penser que l’impact écologique de l’IA pourrait empirer avant de s’améliorer ».
Inégalités et limites de l’automatisation
Second problème, ces IA génératives risquent d’aggraver considérablement la fracture numérique à la fois au sein et entre les pays. OpenAI propose déjà une version payante et plus performante de ChatGPT qui introduit donc différentes classes d’utilisateurs en fonction de leur capacité ou non à payer [22]. En outre, si le modèle fonctionne aujourd’hui dans plus de 95 langues différentes, « il est principalement conçu pour comprendre et générer des textes en anglais » [23], non seulement pour des raisons de débouchés, mais aussi parce que l’anglais est la langue la plus parlée sur Internet (avec le mandarin) [24]. Or, dans la mesure où cet outil est d’autant plus performant qu’il peut s’entraîner sur de vastes corpus de textes, les langues les moins présentes en ligne sont donc naturellement désavantagées.
Ce serait même le cas pour le mandarin, pourtant massivement présent en ligne, mais moins « structuré » que l’anglais, avec pour conséquence qu’il est « plus difficile d’entraîner ChatGPT à produire des choses qui ressemblent à une production humaine » [25]. De quoi accentuer la pression sur les géants chinois du numérique – dans un domaine où la Chine est considérée comme ayant une légère avance sur les Américains [26] – pour qu’ils développent leurs propres outils adaptés à la langue et au marché
Marché
Lieu parfois fictif où se rencontrent une offre (pour vendre) et une demande (pour acheter) pour un bien, un service, un actif, un titre, une monnaie, etc. ; un marché financier porte sur l’achat et la vente de titres ou d’actifs financiers.
(en anglais : market)
chinois. Et ce d’autant plus que Pékin a interdit aux entreprises chinoises de proposer des services basés sur ChatGPT [27], officiellement pour ne pas qu’ils répandent les « fausses informations » diffusées par le gouvernement américain, mais aussi parce qu’ils risqueraient de mettre à mal les mécanismes actuels de censure des autorités sur les contenus circulant sur Internet.
Enfin, le dernier problème renvoie au déploiement à grande échelle de l’IA en général, et pas uniquement de ses versions « génératives ». Comme le souligne Jim Thomas, que nous avons déjà cité plus haut, une métaphore utile pour comprendre comment fonctionne une IA comme ChatGPT consiste à la voir comme « une forme de correcteur automatique sous stéroïdes » [28]. Or, toujours selon lui, « c’est exactement la stratégie sur laquelle travaillent de nombreuses IA : elles prédisent l’étape suivante la plus probable en se basant de manière probabiliste sur le vaste ensemble de données qu’elles ont analysé jusqu’à présent ». Le problème c’est que ces « données » peuvent être de qualité variable et elles sont de toute façon toujours l’expression de construits sociaux (et donc de biais) qui se trouveront naturalisés et renforcés par les modèles prédictifs qu’elles alimentent [29].
Lutter contre l’entropie numérique
L’automatisation de pans entiers de l’économie et plus largement de nos sociétés se fait donc à la fois au risque d’une aggravation des discriminations, par exemple, mais aussi d’une perte de réflexivité sur leurs causes et sur notre fonctionnement social en général, aboutissant à une situation « entropique » [30] comme la définissait notamment Bernard Stiegler : « Qu’est-ce qu’il se passe avec les algorithmes que l’on appelle aujourd’hui l’intelligence artificielle ? Ce sont des dispositifs qui permettent d’analyser à très grande échelle des phénomènes dans le domaine de la langue, du transport, de la santé, etc., et d’obtenir des résultats. Mais tous les gens sérieux vous diront que ces résultats sont factuels et n’ont pas de rigueur théorique. Ce qui signifie que ces algorithmes ne savent pas anticiper les exceptions. Et il y a toujours des exceptions. (…) De façon plus scientifique, ces analyses algorithmiques reposant sur des moyennes et ne gérant pas les exceptions augmentent l’entropie. Or, l’entropie c’est ce qui détruit tout, c’est le désordre » [31].
Face à cette situation, le philosophe appelait notamment l’Europe à se défaire de sa fascination pour les « prouesses » de la Silicon Valley et à s’engager dans sa propre voie, intégrant, entre autres, une véritable réflexion épistémologique sur les portées et les limites de l’IA. L’adoption en cours de la législation européenne sur l’IA (AI Act) pourrait en fournir l’occasion [32], mais elle risque de souffrir de la même ambiguïté que celle qui caractérise le reste de la stratégie numérique européenne [33], à savoir la difficulté à trancher entre la volonté de (re)mettre le numérique au service
Service
Fourniture d’un bien immatériel, avantage ou satisfaction d’un besoin, fourni par un prestataire (entreprise ou l’État) au public. Il s’oppose au terme de bien, qui désigne un produit matériel échangeable.
(en anglais : service)
de la société… et l’impératif de « compétitivité mondiale », notamment vis-à-vis des États-Unis et de la Chine.
Pour citer cet article : Cédric Leterme, "ChatGPT : l’IA générative qui bouleverse le numérique", Gresea, mars 2023.
Source photo : CC Flickr.