le Jeudi 23 janvier 2025
le Mercredi 8 janvier 2025 6:30 Chroniques et éditoriaux

Le mirage de l’intelligence artificielle

Pourquoi faire confiance à Francopresse.
Paradoxalement, trop se fier aux IA génératives pour remplacer les techniques éprouvées d’apprentissage prive les gens de la pensée critique dont ils ont besoin pour les utiliser efficacement.  — Photo : Yan Krukau – Pexels – Pexelshttps://www.pexels.com/fr-fr/photo/gens-personnes-individus-livres-8199595/
Paradoxalement, trop se fier aux IA génératives pour remplacer les techniques éprouvées d’apprentissage prive les gens de la pensée critique dont ils ont besoin pour les utiliser efficacement.
Photo : Yan Krukau – Pexels – Pexelshttps://www.pexels.com/fr-fr/photo/gens-personnes-individus-livres-8199595/
CHRONIQUE – Les outils communément associés à l’«intelligence artificielle générative» créent davantage de problèmes qu’ils en résolvent. Les mots utilisés pour parler de ces outils dissimulent leurs limites et les couts de leur utilisation.
Le mirage de l’intelligence artificielle
00:00 00:00

Ce que nous nommons «intelligence artificielle» (ou IA) est en fait une nébuleuse de technologies informatiques. Les grands modèles de langage (GML, ou LLM en anglais), dont ChatGPT est sans doute le plus connu, semblent permettre à une espèce de robot de répondre à nos questions à partir de connaissances trouvées un peu partout sur Internet.

On parle ainsi à tort et à travers d’«apprentissage», de «génération de connaissances», d’«intelligence» et d’«hallucination» ainsi que de création originale. Tout est mis en œuvre pour donner des apparences de processus cognitifs à ces logiciels.

Toutefois, les algorithmes qui sous-tendent cette production assistée par machine ne ressemblent à ces phénomènes humains que par analogie.

La réalité est tout autre.

Les GML sont «entrainés» à partir d’énormes banques de textes, comme leur nom le suggère. Ils divisent les requêtes selon les mots et les signes de ponctuation, puis ils compilent la réponse la plus probable en trouvant, un à un, les mots qui sont le plus souvent utilisés ensemble – sans égard à la signification.

Les GML n’ont donc aucun critère de vérité et ne peuvent qu’agencer d’une nouvelle manière ce qui a déjà été écrit. Ils ne peuvent pas chercher de sources, trouver de l’information selon sa pertinence, ni l’interpréter. Ils alignent des mots qui tendent à aller ensemble, c’est tout.

Cela signifie également que le racisme, le sexisme, la transphobie, le capacitisme et toutes les formes de suprémacisme qui règnent dans la plus grande partie des créations textuelles humaines se trouvent répétés et souvent amplifiés par l’IA.

Cette production de texte par probabilité statistique explique les résultats souvent décevants de l’IA : des bibliographies où le nom d’un auteur·rice renvoie à des articles et des livres qui n’existent pas, mais dont les titres sont plausibles; du texte truffé de formulations vagues et dépourvu quasi complètement de contenu concret.

À lire : L’intelligence artificielle, une odyssée vers l’inconnu

À qui profite l’IA?

Dans nos ordinateurs, nos logiciels de traitement de texte, nos outils de recherche en ligne et nos téléphones, l’IA nous est constamment imposée. Puisque le nombre de personnes qui l’adoptent fréquemment demeure limité et ne répond pas aux attentes du marché, les entreprises comme Meta, Microsoft, ou OpenAI tentent de la rendre inévitable.

La bulle de l’IA pourrait être sur le point d’éclater : les divers modèles exigent des investissements énormes, mais n’amènent pas encore de profits. Les revenus augmentent certes, mais plus lentement que les dépenses pour le développement et l’offre de service.

Et les dangers financiers de l’adoption de l’IA dans un contexte entrepreneurial, universitaire ou gouvernemental sont par ailleurs importants.

Pour toutes ces raisons, l’IA nous est imposée de plus en plus souvent, même à notre insu. Elle crée ses propres besoins, mais n’arrive pas à répondre aux véritables besoins actuels de l’humanité. La logique économique demande de recouvrer à tout prix les investissements.

Nous recevons ainsi une avalanche de messages et de discours qui nous détournent de la réalité et cherchent à nous rassurer sur les incidences de l’IA, à nous la faire voir comme une forme d’intelligence, mais aussi à nous faire croire que son adoption est inévitable, une étape de la marche libératrice du progrès. La répétition l’emporte sur les raisons.

À lire : L’IA ou la prochaine «merdification» (Éditorial)

Les entreprises technologiques sont de plus en plus nombreuses à imposer des outils inspirés des IA génératives dans leurs produits, ne donnant pas toujours de choix quant à leur utilisation. 

Photo : Mikael Blomkvist – Pexels

L’apprentissage nécessaire… et impossible

Nous entendons sans cesse que l’IA est là pour rester et que nous y opposer serait futile. Une tendance importante consiste dès lors à croire (ou à se faire croire) qu’il suffit d’apprendre à nous en servir.

Dès que les discussions tournent autour de cette question, nous supposons que nous pouvons nous servir de l’IA pour atteindre nos buts sans les transformer.

Nous supposons que nous pouvons même en faire un usage éthique, alors que les corpus des GML sont bâtis sur la violation du droit d’auteur et que leur utilisation des ressources en énergie et en eau pour leur fonctionnement n’est pas écoresponsable.

À lire : Climat : l’IA sous un ciel variable

Or, le problème essentiel du recours à l’IA est qu’avant d’être en mesure d’évaluer les résultats qu’elle produit, nous devons d’abord être capables de les comprendre et de les produire nous-mêmes.

L’utilisation de l’IA pour remplacer l’écoute, l’enseignement, la lecture, la discussion et les autres méthodes classiques d’apprentissage nous empêche de développer les compétences essentielles à la pensée critique et aux multiples formes de la littératie, qui permettent ensuite d’évaluer l’exactitude de l’IA.

Il en va de même pour l’écriture : les logiciels de révision – comme Antidote, Grammarly ou ceux inclus dans Microsoft Word et Google Docs – ne fonctionnent que si la personne qui s’en sert est en mesure d’accepter ou non les suggestions, puisque ces outils ne font que ramener l’écriture à une norme abstraite. Ils aplanissent l’écriture et enlèvent tout ce qui relève du style… qui n’est pas commun statistiquement.

Il faut donc apprendre à écrire avant de les utiliser; apprendre à traduire avant d’utiliser la traduction automatisée. Sans cet apprentissage, nous écrivons comme des machines, nous répétons par cœur ce que nous mémorisons sans comprendre. Nous répétons donc les mots et les formulations des autres.

Aller directement à l’IA, sans le processus d’essai et d’erreur central à l’apprentissage, c’est se voir comme une courroie pour l’information et non comme une personne ayant besoin d’apprendre pour atteindre ses buts et améliorer sa situation.

Tandis que certains types d’IA peuvent être fort utiles dans certains contextes, les technologies génératives demeurent pour l’instant des investissements en quête d’usagers et de nouveaux investissements.

Ne pas les utiliser, c’est refuser la destruction environnementale qu’ils amènent et ce qu’ils font de nous.

Jérôme Melançon est professeur titulaire en philosophie à l’Université de Regina. Ses recherches portent généralement sur les questions liées à la coexistence, et notamment sur les pensionnats pour enfants autochtones, le colonialisme au Canada et la réconciliation, ainsi que sur l’action et la participation politiques. Il est l’auteur et le directeur de nombreux travaux sur le philosophe Maurice Merleau-Ponty, dont La politique dans l’adversité. Merleau-Ponty aux marges de la philosophie (MétisPresses, 2018).

Type: Opinion

Opinion: Contenu qui avance des idées et qui tire des conclusions fondées sur une interprétation des faits ou des données émanant de l’auteur.

Jérôme Melançon

Chroniqueur