Les étudiants en sueur : un outil cryptographique insère une signature détectable (ou watermark) dans les mots produits par les modèles d’intelligence artificielle générateurs de texte d’OpenAI ou ChatGPT. Une bonne nouvelle pour les enseignants qui voient déjà les élèves avoir recours aux IA pour faire leurs devoirs ou passer des examens.
La société d’intelligence artificielle OpenAI développe un moyen d’empêcher les utilisateurs de prendre le texte produit par les modèles d’IA et de le faire passer pour leur propre travail. Le potentiel de triche aux examens et même à la propriété intellectuelle tout court a été soulevé par l’incroyable performance de ce nouvel outil d’IA. La fonction de sécurité de type filigrane pourrait aider les enseignants et les universitaires à repérer les étudiants qui utilisent des générateurs de texte tels que le ChatGPT d’OpenAI pour rédiger des textes à leur place. Les experts en cryptographie disent que des solutions de contournement seront inévitablement trouvées, sinon le changement de paradigme des apprentissages serait total !
Est-ce qu’un humain a écrit ça, ou ChatGPT ?
Selon le créateur d’Open AI cela deviendra de plus en plus difficile : c’est pourquoi il travaille sur un moyen de « marquer » le contenu généré par l’IA, afin de pouvoir déterminer son origine humaine ou non.
Lors d’une conférence à l’Université du Texas à Austin, le professeur d’informatique Scott Aaronson, actuellement chercheur invité à OpenAI, a révélé qu’OpenAI développait un outil pour « marquer statistiquement les sorties d’un texte issu d’une IA ». Chaque fois qu’un système – par exemple, ChatGPT – génère du texte, l’outil intègre un « signal secret imperceptible » indiquant l’origine du texte.
L’ingénieur OpenAI Hendrik Kirchner a construit un prototype fonctionnel, dit Aaronson, et l’espoir est de l’intégrer dans les futurs systèmes développés par OpenAI.
« Nous voulons qu’il soit beaucoup plus difficile de faire passer un contenu produit par une IA pour un contenu produit par un humain »
a déclaré Aaronson dans ses remarques.
La fonctionnalité pourrait être nécessaire très vite car OpenAI pourrait être utilisé à des fins politiques de propagande, ou a des malversations diverses :
- spammer de message politiques des milliers de blogs pour faire passer des idées
- usurper l’identité et le style d’écriture d’un auteur
- générer des milliers de contenus orientés politiquement à destination des réseaux sociaux
- prévoir des résultats sportifs ou simuler des compte-rendus
- faire passer des diplômes en ligne, et c’est déjà le cas comme nous l’avons vu dans cet article.
Des problèmes éthiques avec ChatGPT
Pourquoi le besoin d’un filigrane? ChatGPT en est un bon exemple. Le chatbot développé par OpenAI a pris d’assaut Internet, montrant une aptitude non seulement à répondre à des questions difficiles, mais aussi à écrire de la poésie, à résoudre des énigmes de programmation ou à devenir philosophe.
Bien que ChatGPT soit très amusant – et véritablement utile – le système soulève des problèmes éthiques évidentes. Comme de nombreux systèmes de génération de texte avant lui, ChatGPT pourrait être utilisé pour écrire des e-mails de phishing de haute qualité et des logiciels malveillants nuisibles, ou permettre à des étudiants de tricher lors de devoirs scolaires. En tant qu’outil de questions-réponses, il est factuellement incohérent par intermittence – une lacune qui a conduit le site de programmation de questions-réponses Stack Overflow à interdire les réponses provenant de ChatGPT jusqu’à nouvel ordre.
Comment marquer les contenus d’intelligence artificielle ?
Pour comprendre les bases techniques de l’outil de filigrane, il faut comprendre pourquoi des systèmes comme Open AI et ChatGPT fonctionnent. Ces systèmes interprètent le texte d’entrée et de sortie comme des chaînes de « jetons » (tokens), qui peuvent être des mots, de la ponctuation, des expressions. En réponse à ces données, les systèmes génèrent en continu une fonction mathématique appelée distribution de probabilité pour décider du prochain jeton (un mot, une virgule) à produire, en tenant compte de tous les jetons précédemment produits. C’est pour ça que les contenus d’IA se ressemblent tous, car ils sont tous le résultat de probabilités. Sur deux contenus il peut y avoir une différence, mais sur 50 ou 1000 cela se voit immédiatement.
Dans le cas d’OpenAI/ChatGPT, une fois la distribution générée, le serveur d’OpenAI effectue le travail d’échantillonnage des jetons en fonction de la distribution. Il y a un peu de hasard dans cette sélection : c’est pourquoi la même invite de texte ou « prompt » dans l’outil peut donner une réponse différente, mais pas trop.
Une clé cryptographique marque le contenu
L’outil de filigrane d’OpenAI agit comme un emballage (wrapper) sur les systèmes de génération de texte, exploitant ainsi une fonction cryptographique du serveur pour sélectionner pseudo-aléatoirement le jeton suivant. En théorie, le texte généré par le système semblerait aléatoire pour un cerveau humain qui lirait le texte, mais toute personne possédant la « clé » de la fonction cryptographique serait en mesure de découvrir un filigrane : une sorte de pattern visible d’assemblage de briques d’informations.
Selon Aaronson, quelques centaines de jetons suffisent pour obtenir un signal qui indique si le texte provient d’une IA. Même sur un long texte hybride, le système de watermark pourrait repérer les parties issues d’une IA parmi du texte humain. A la génération du texte, l’outil marque le contenu avec une clé secrète qu’il reconnaît facilement ensuite.
Les limites de la clé cryptographique
L’idée de filigrane pour du texte généré par l’IA n’est pas nouvelle. Les tentatives précédentes reposaient sur des techniques de substitution de synonymes et les changements de syntaxe. OpenAI semble être l’une des premières approches cryptographiques du problème, ce qui serait plus fiable. Aaronson a cependant indiqué que la clé cryptographique n’était qu’une option explorée parmi d’autres.
Des chercheurs ont émis des critiques, indiquant qu’une solution cryptographique côté serveur serait facile à contourner, et que l’IA a de beaux jours devant elle. Les techniques efficaces de watermarking font débat, et parmi les concurrents d’Open AI les critiques sont présentes, indiquant que le marquage statistique ne suffirait pas.
Une implication des gouvernements n’est pas à exclure, ou de Google lui-même, tant les enjeux sont énormes. De l’éducation à la formation, de la politique au quotidien des humains, jusqu’à la création même d’art (Open AI ce sont aussi des images et des vidéos) l’IA pourrait être une invention aussi marquante qu’Internet, tant les possibilités sont vastes. Comment réguler et déterminer les limites viables pour la civilisation humaine reste à déterminer : le problème étant la rapidité de propagation des idées dans l’information mondiale, face à la lenteur des gouvernements.