OpenAI publie un outil anti-triche pour repérer les textes de ChatGPT
- Alban Martin
- Il y a 1 an (Màj il y a 1 an)
- 💬 Réagir
- 🔈 Écouter
La société derrière le désormais célèbre ChatGPT, OpenAI, a annoncé aujourd'hui le lancement d'un nouveau "classificateur" conçu pour détecter les textes écrits par des machines. Un outil qui tombe à pic pour aider notamment les enseignants qui sont confrontés à des cas de triche exponentielle depuis quelques semaines.
Attention si vous utilisez ChatGPT à l'école
Nous avons entraîné un classificateur à faire la distinction entre un texte écrit par un humain et un texte écrit par une IA provenant d'une variété de fournisseurs.
Si le chatbot de l'entreprise alimenté par l'IA a épaté tout le monde fin 2022, il a également suscité des inquiétudes quant à l'exploitation de textes générés pour des travaux scolaires, des tests de codage, des campagnes de désinformation, et plus encore. La semaine dernière, ChatGPT a fait la une des journaux pour avoir réussi l'examen final du programme de maîtrise en administration des affaires (MBA) de la Wharton School.
OpenAI a déclaré que son nouvel outil de classification de texte est conçu pour repérer textes générés par ChatGPT, notamment dans le cadre de publications en ligne, de malhonnêteté académique et autres. En gros, tout ce qui essaye de se faire passer pour une production humaine.
Pour vérifier si un morceau de texte a été écrit par une IA, les utilisateurs peuvent simplement le copier dans une case et le système l'évaluera. Il évaluera le texte sur une échelle de cinq points, avec "très improbable" qu'il ait été généré par une IA, "improbable", "peu clair", "possible" ou "probable". L'outil d'OpenAI est disponible sur le site.
Attention, l'outil n'est pas parfait
D'après OpenAI, l'outil fonctionne mieux avec des échantillons de texte de plus de 1 000 mots. Il s'agit de déterminer dans quelle mesure le texte analysé est similaire aux types d'écrits sur lesquels l'outil d'OpenAI a été formé.
OpenAI a décrit le classificateur comme un "travail en cours", notant qu'il n'est pas entièrement fiable. "Dans nos évaluations sur un "ensemble" de textes anglais, notre classificateur identifie correctement 26 % des textes écrits par l'IA (vrais positifs) comme étant "probablement écrits par l'IA", tout en étiquetant incorrectement les textes écrits par des humains comme étant écrits par l'IA dans 9 % des cas (faux positifs)."