« A l’avenir, mes usages de ChatGPT seront comme les antibiotiques : pas automatiques »
Depuis quelques jours, j’essaie de clarifier le rapport que j’entretiens avec l’IA générative. Jusqu’à la semaine dernière, je ne l’avais jamais vraiment utilisée. La déferlante de commentaires, prophéties et autres injonctions qui accompagnent le sujet « LLM»[1] depuis novembre 2022 avait rapidement eut raison de ma curiosité. J’avais certes testé ChatGPT à plusieurs reprises, mais c’était uniquement par « conscience professionnelle », pour être un minimum à la hauteur lorsque je suis amené à parler d’IA. Mon rapport à l’IA générative restait purement dominé par l’agacement, mais aussi par la méfiance et l’inquiétude.
Pourtant, j’ai récemment utilisé ChatGPT au-delà du simple test. Je l’ai utilisé pour concevoir la nouvelle version d’une brochure de formation – tâche pour laquelle j’ai assez peu de talent – et je dois admettre que cette expérience m’a troublé. A ma réticence initiale sont venues s’ajouter des émotions plus « positives » : en itérant avec l’artefact, j’ai ressenti un mélange d’amusement et de curiosité dans l’exercice du prompt et dans l’attente de son résultat. Au bout d’environ deux heures, je disposai d’une brochure nettement plus attrayante que la précédente et goutai le plaisir d’un travail bien fait.
Mais pourquoi ai-je consenti à utiliser ChatGPT alors que cette technologie m’inquiète ? Premièrement, dans une optique de sérieux à la fois professionnel, intellectuel et moral, je souhaite comprendre les causes qui me déterminent, comme pourrait le dire Spinoza. Plus précisément, je dois comprendre mes mauvaises dispositions à l’égard de ces artefacts pour être aussi libre que possible face à eux. Peut-être aboutirais-je au boycott, mais au moins je saurais exactement pourquoi. Deuxièmement, je voyais dans cet exercice l’occasion, non pas de « monter en compétences », comme on dit, mais de m’imprégner un peu plus que je ne le suis d’une logique « marketing » qui m’échappe presque totalement. Troisièmement, pour finir, faire appel à ChatGPT était aussi une façon pour moi de délester mes collègues de cette charge tout en me délestant moi-même du poids émotionnel lié à mon manque de compétence sur le sujet.
Après cette expérience, me voilà donc dans un rapport plus ambigu, mais aussi plus informé à ChatGPT. Outre le fait qu’une seule entreprise, OpenAI, soit à l’origine de la ruée vers une trajectoire technologique – qui est toujours aussi une trajectoire politique – qui engage une grande partie de l’humanité, la création d’artefacts capables d’une telle maîtrise du langage verbal m’inquiète particulièrement. Car contrairement à l’invention de l’écriture et du livre qui, elles aussi, suscitèrent l’inquiétude en leur temps, ChatGPT offre le franchissement d’un seuil de pouvoir inédit en matière langagière. Je laisse un instant la parole à l’écrivain de science-fiction et essayiste Alain Damasio sur la distinction entre pouvoir et puissance :
« L’innovation dans le capitalisme consiste 95 fois sur 100 à décalquer dans tous les champs d’activité possible une poussée anthropologique de fond : passer de la puissance au pouvoir. Autrement dit : de la capacité humaine à faire, directement et sans interface, avec ses seules facultés cérébrales, physiologiques et créatives, à la possibilité de faire faire, qui est une définition primaire du pouvoir. »[2]
Ce à quoi il ajoute : « ce qu’on ne veut pas condescendre à faire : ici se tient le pouvoir. »[3] Je suis sensible à cette idée. Avec le concept de logos, qui signifie aussi bien parler que penser, raisonner, les grecs de l’antiquité avaient bien compris qu’on ne pense que dans la mesure où l’on parle et vice versa. D’où cette question : en extériorisant à ce point nos facultés langagières et l’infinité de constructions symboliques qu’il permet dans des artefacts ne signe-t-on pas notre plus grande condamnation à l’impuissance, c’est-à-dire à l’incapacité de penser par nous-mêmes ? L’enjeu n’est pas purement intellectuel, loin de là, car la puissance qu’est la pensée est au fondement de ce que la philosophie nomme individuation, c’est-à-dire la capacité à devenir un individu singulier, consistant et présent à lui-même d’un point de vue éthique[4].
Mais ce questionnement inquiet n’est qu’une première étape vers le problème de fond : celui de l’appareil normatif qui préexiste à ChatGPT et qu’il ne manquera pas d’amplifier si on ne le remet pas en question. Je pense ici aux deux valeurs cardinales de notre système techno-économique : l’efficacité et la performance. Deux normes auxquelles il est tentant de sacrifier le temps de la pensée au profit de productions automatisées. Nos usages des techniques – que les tenants de la neutralité technologique brandissent comme seuls et uniques ressorts d’une technologie désirable[5] – sont dans une large mesure pré-parés par les normes dominantes qui structurent la société, notamment au travail. Dans une optique d’émancipation avec plus que par la technique nous devons donc interroger les façons dont nous sommes socialement préparés à l’IA générative et celles que nous voulons mettre en place pour rester libres et puissants face à elle.
A l’avenir, mes usages de ChatGPT, s’il y en a, seront donc comme les antibiotiques : pas automatiques. Je devrai y consentir de façon éclairée et deux questions m’y aideront : en ai-je vraiment besoin et, si oui, pourquoi ? Il en va de la robustesse de mon système immunitaire intellectuel.
Julien De Sanctis
[1] Pour « large language model ».
[2] Alain Damasio, Vallée du Silicium, Albertine|Seuil, 2024, p.43.
[3] ibid.
[4] Sur ce beau concept de présence à soi, voir Michel Terestchenko, Un si fragile vernis d’humanité. Banalité du mal, banalité du bien, La Découverte, 2007.
[5] Pour une critique de l’idée de neutralité technologique voir, par exemple, cet article publié sur le site technocritique Mais où va le web ?
PhiloPop, le billet d’humeur des philosophes de Thaé.
RV tous les mois.