Un exemple de compte-rendu de débat tenu dans l'Atelier 'Enjeux du monde contemporain"

Faut-il avoir peur des Intelligence Artificielles ?

On peut d’abord s’interroger sur ce qui justifie un accès public aussi rapide et aussi large aux IA du type « Chat GPT », alors que la facilité d’usage à des fins « malhonnêtes » (fraude scolaire et universitaire, etc.) est si évidente. La réponse réside probablement dans le fait que les algorithmes sont en cours de développement et qu’ils ont besoin d’être alimentés par une utilisation à échelle de masse. Il est probable que des versions payantes (directement ou via la pub) se développent une fois les modèles au point, et il s‘agira donc d’une appropriation privée d’une expérience collective. La démocratisation est fulgurante, tout comme la multiplication des usages et l’augmentation des performances, le tout en seulement quelques mois d’usage public. Cela laisse augurer de la suite, après des années de développement. Aujourd’hui nous pouvons tous parler à une IA, qui a été insérée dans Snapchat sans que personne ne l’ait demandée (on peut ne pas l’activer mais pas la supprimer), alors qu’il y a déjà eu de graves problèmes. En effet, les témoignages d’utilisations pour le moins problématiques se multiplient. Outre la triche scolaire et universitaire, on a des exemples d’IA qui ont poussé certains de leurs utilisateurs au suicide et le présentant comme la seule « solution » à leurs problèmes. On a aussi des exemples de demandes de rançon basées sur la fabrication par IA d’une voix de synthèse, où la pseudo-victime d’un enlèvement demandait à ses proches de payer. Aucune préoccupation éthique semble n’avoir été prise en compte dans le développement du modèle. Il existe même une forme d’autonomisation des IA puisque deux IA auraient (le fait est contesté, même si tous reconnaissent une prise d’autonomie) mis en place entre-elles un langage indéchiffrable par les humains. En fait, des chercheurs ont demandé à deux IA appelées Alice et Bob de mettre en place entre-elles un « cryptosystème » de communication indéchiffrable par une troisième appelée Eve. Elles y sont parvenues, au point que le système était indéchiffrable par les chercheurs eux-mêmes. La seule solution aurait été de les débrancher électriquement ! Peut-être alors faudrait-il développer les IA en respectant les trois règles fondamentales de la robotique énoncée par Isaac Asimov :

  • Loi numéro 1 : un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu'un être humain soit exposé au danger ;
  • Loi numéro 2 : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  • Loi numéro 3 : un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

La question est de savoir si nous ne jouons pas à nous faire peur, comme à chaque innovation technologique. L’IA n’est-elle pas le simple prolongement de ce qui existe déjà ? Nous avons déjà l’habitude de confier aux machines des gestes, des travaux, des opérations répétitives, de la mémoire à stocker, mais là, il s’agit d’un système créatif, innovant, qui en un sens « pense » à notre place : c’est très différent. N’y a-t-il pas à terme un risque de disparition, ou au moins de sous-utilisation de l’intelligence humaine ?

Mais la question se pose de savoir si ce que nous appelons « intelligence artificielle » est réellement intelligente. On observe une indéniable augmentation de la capacité de calcul, mais qui reste un calcul « mécanique », de sorte que l’on peut dire que les IA ont beaucoup de connaissances (tout ce qui est disponible sur Internet, sachant que ce n’est pas la totalité du savoir produit par l’humanité au cours de son histoire), mais aucune capacité de réflexion. La différence réside dans l’absence de sensations, d’émotions, et de vécu, ce qui pose directement le problème de la nature de l’intelligence humaine. Notre rationalité se nourrirait-elle d’irrationnel (sensations, émotions) ?

Nous faisons en direct plusieurs expériences avec Chat GPT. A la question « qu’est-ce que le nihilisme ? », elle répond de façon plus complète, informée et pertinente que les dictionnaires généralistes en ligne type Larousse. Nous lui demandons : « te considères-tu comme intelligente ? ». De façon très intéressante, elle refuse de répondre en expliquant qu’elle ne peut pas porter de jugement sur elle-même. Nous reformulons la question en : « te considères-tu comme performante ? ». Elle fait alors une longue réponse expliquant ce que sont les critères objectifs à partir desquels on la considère comme performante (rapidité, fiabilité, etc.) et explique ensuite qu’on la considère généralement comme performante. Elle explique ensuite qu’elle ne peut pas prendre de décisions mais qu’elle peut générer des « conversations humaines cohérentes ». Elle refuse donc de répondre à toute question supposant une intériorité, une subjectivité, un auto-référencement, bref une conscience, mais accepte de collecter et synthétiser les données extérieures fournies sur elle, puis d’en faire une réponse « objective », en tout cas extérieure.

De multiples questions restent posées. Les IA étant capables de produire des images, des textes poétiques, des musiques, des chansons, la question de la place de la créativité humaine est posée. C’est toute l’idée de création artistique qui va s’en trouver bouleversée. Puisqu’il est aujourd’hui possible de générer, par exemple, de nouvelles chansons avec la voix et le style d’un artiste disparu, puisqu’il est aujourd’hui possible de demander à une IA de produire une œuvre « à la façon de… », qu’en est-il des droits d’auteur, et même simplement du respect dû à une œuvre constituée ?

La question reste de savoir, comme avec toute technique et toute technologie, si les dérives sont imputables à la technologie elle-même ou à l’utilisation qu’on en fait. Le problème de l’encadrement est ici majeur, mais quelle forme peut-il prendre exactement ? Il est à noter que Chat GPT propose un avertissement sur ses propres limites et signale le risque d’erreur.

Il faut surveiller de près l’évolutivité des IA : entre la version initiale de Chat GPT et la version actuelle (4), divers changements sont intervenus (plus grande actualité des informations collectées).

Il est également important de maîtriser l’outil, et notamment d’apprendre à formuler les requêtes.

Finalement, la question reste posée de l’avantage réel que constitue l’invention des IA. Il s’agit de bien plus qu’un simple moteur de recherche, mais le bénéfice réel, mis en balance des risque, reste à évaluer. L’IA ne se contente pas de compiler des données acquises mais produit de nouvelles synthèses. On peut alors concevoir un réel intérêt en matière de recherche scientifique. En résumé, il s’agit d’une invention potentiellement intéressante à condition que nous en gardions le contrôle.