Le créateur de ChatGPT tente de freiner sa réputation de machine à tricher avec un nouvel outil qui peut aider les enseignants à détecter si un étudiant ou une intelligence artificielle a écrit ce devoir.

Le nouveau classificateur de texte AI publié mardi par OpenAI fait suite à une discussion d’une semaine dans les écoles et les universités sur les craintes que la capacité de ChatGPT à taper presque n’importe quoi puisse alimenter la malhonnêteté académique et rendre l’apprentissage plus difficile.

OpenAI prévient que son nouvel outil, comme d’autres déjà disponibles, n’est pas infaillible. La méthode de détection du texte tapé par l’IA “est imparfaite et sera parfois erronée”, a déclaré Jan Leike, responsable de l’équipe d’alignement OpenAI chargée de rendre ses systèmes plus sûrs.

“C’est pourquoi vous ne devriez pas vous fier uniquement à lui pour prendre des décisions”, a déclaré Leike.

Les adolescents et les étudiants faisaient partie des millions de personnes qui ont commencé à expérimenter ChatGPT après sa sortie le 30 novembre en tant qu’application gratuite sur le site OpenAI. Et tandis que beaucoup ont trouvé des moyens de l’utiliser de manière créative et inoffensive, la facilité avec laquelle il pouvait répondre aux questions du test à faire à la maison et aider avec d’autres devoirs a semé la panique chez certains éducateurs.

Lorsque les écoles ont ouvert pour la nouvelle année, New York, Los Angeles et d’autres grands districts scolaires publics ont commencé à bloquer leur utilisation dans les salles de classe et sur les appareils scolaires.

HORLOGE | Comment ChatGPT perturbe le milieu universitaire :

Les enseignants et les étudiants voient des défis et des opportunités avec le nouveau logiciel ChatGPT AI

Les éducateurs et les étudiants du postsecondaire disent que le nouveau logiciel ChatGPT AI, capable de produire des essais entiers basés uniquement sur des invites d’écriture, pose des défis mais aussi des opportunités pour améliorer les compétences humaines.

Le district des écoles publiques de Seattle a initialement bloqué ChatGPT sur tous les appareils scolaires en décembre, mais a ensuite ouvert l’accès aux éducateurs qui souhaitent l’utiliser comme outil pédagogique, a déclaré Tim Robinson, porte-parole du district.

“Nous ne pouvons pas nous permettre de l’ignorer”, a déclaré Robinson.

Le district discute également de la possibilité d’étendre l’utilisation de ChatGPT dans les salles de classe pour permettre aux enseignants de l’utiliser pour former les élèves à être de meilleurs penseurs critiques et pour permettre aux élèves d’utiliser l’application comme “tuteur personnel” ou pour aider à générer de nouvelles idées lorsque travailler sur une tâche. dit Robinson.

Les districts scolaires à travers le pays disent qu’ils voient la conversation ChatGPT évoluer rapidement.

“La première réaction a été ‘Oh mon Dieu, comment allons-nous endiguer la marée de toutes les tricheries qui vont se produire avec ChatGPT ?'”, a déclaré Devin Page, un spécialiste de la technologie du district des écoles publiques du comté de Calvert dans le Maryland. Il y a maintenant une prise de conscience croissante que “c’est l’avenir” et le bloquer n’est pas la solution, a-t-il déclaré.

“Je pense que nous serions naïfs si nous n’étions pas conscients des dangers que pose cet outil, mais nous ne serions pas non plus au service de nos étudiants si nous les empêchions, ainsi que nous, de l’utiliser à son plein potentiel”, a déclaré Page, qui pense que des districts comme le vôtre finiront par débloquer ChatGPT, surtout une fois que le service de détection de l’entreprise sera opérationnel.

Un homme en costume marche avec un dossier sous le bras.
Jean-Noël Barrot, ministre français de l’Economie numérique et ancien professeur au Massachusetts Institute of Technology, affirme que les questions éthiques difficiles concernant ChatGPT doivent être abordées. (Benoit Tessier/Reuters)

OpenAI a souligné les limites de son outil de détection dans un article de blog mardi, mais a déclaré qu’en plus de dissuader le plagiat, il pourrait aider à détecter les campagnes de désinformation automatisées et d’autres utilisations abusives de l’IA pour imiter les humains.

Plus un passage de texte est long, meilleur sera l’outil pour détecter si une IA ou un humain a écrit quelque chose. Écrivez n’importe quoi : un essai d’admission à l’université ou une analyse littéraire de Ralph Ellison. Homme invisible – et l’outil l’étiquettera comme “très improbable, improbable, peu clair si, possible ou probable” généré par l’IA.

Mais comme ChatGPT lui-même, qui s’est entraîné sur une vaste mine de livres numérisés, de journaux et d’écrits en ligne, mais qui débite souvent des mensonges ou des bêtises avec confiance, il n’est pas facile d’interpréter comment il est arrivé à un résultat.

“Nous ne savons pas fondamentalement à quel type de modèle il prête attention ou comment cela fonctionne en interne”, a déclaré Leike. “Il n’y a vraiment pas grand-chose que nous puissions dire pour le moment sur le fonctionnement réel du classificateur.”

Les établissements d’enseignement supérieur du monde entier ont également commencé à discuter de l’utilisation responsable de la technologie de l’IA. Sciences Po, l’une des universités les plus prestigieuses de France, a interdit son utilisation la semaine dernière et a averti que toute personne surprise à utiliser ChatGPT et d’autres outils d’intelligence artificielle pour produire des travaux écrits ou oraux pourrait être bannie de Sciences Po et d’autres institutions.

En réponse au contrecoup, OpenAI a déclaré qu’il travaillait depuis plusieurs semaines pour proposer de nouvelles directives pour aider les éducateurs.

“Comme beaucoup d’autres technologies, il se peut qu’un district décide qu’il est inapproprié de l’utiliser dans ses salles de classe”, a déclaré Lama Ahmad, chercheur sur les politiques d’OpenAI. “Nous ne les poussons pas vraiment dans un sens ou dans l’autre. Nous voulons simplement leur donner les informations dont ils ont besoin pour pouvoir prendre les bonnes décisions pour eux.”

Il s’agit d’un rôle public inhabituel pour la startup de San Francisco axée sur la recherche, désormais soutenue par des milliards de dollars d’investissements de son partenaire Microsoft et faisant l’objet d’un intérêt croissant de la part du public et des gouvernements.

Le ministre français de l’Economie numérique, Jean-Noël Barrot, a récemment rencontré en Californie des dirigeants d’OpenAI, dont le PDG Sam Altman, et une semaine plus tard, il a déclaré à un public du Forum économique mondial de Davos, en Suisse, qu’il était optimiste quant à la technologie. Mais le ministre du gouvernement, ancien professeur au Massachusetts Institute of Technology et à l’école de commerce française HEC à Paris, a déclaré qu’il y avait aussi des problèmes éthiques difficiles qui devront être résolus.

“Donc, si vous êtes à la faculté de droit, il y a lieu de s’inquiéter car, évidemment, ChatGPT, entre autres outils, sera en mesure de fournir des tests relativement impressionnants”, a-t-il déclaré. “Si vous êtes dans une école d’économie, ce n’est pas grave, car ChatGPT aura du mal à trouver ou à fournir quelque chose qui est attendu lorsque vous êtes dans une école d’économie de niveau supérieur.”

Il a déclaré qu’il deviendra de plus en plus important pour les utilisateurs de comprendre les bases du fonctionnement de ces systèmes afin qu’ils sachent quels biais peuvent exister.