Meta AI Research Labs a créé un nouveau chatbot à la pointe de la technologie et permet aux membres du public de parler au système pour recueillir des commentaires sur ses capacités.

Le bot s’appelle BlenderBot 3 et accessible sur le web. (Bien qu’à ce stade, seuls les résidents américains puissent le faire.) BlenderBot 3 peut s’engager dans une conversation générale, dit Meta, mais il répond également au type de questions que vous pourriez poser à un assistant numérique, “en parlant de santé saine”. recettes de cuisine pour trouver des services adaptés aux enfants dans la ville. »

Le bot est un prototype et est basé sur Meta précédent travail avec ce que l’on appelle les grands modèles de langage ou LLMS, un logiciel de génération de texte puissant mais défectueux dont le GPT-3 d’OpenAI est l’exemple le plus connu. Comme tous les LLM, BlenderBot est initialement formé sur de grands ensembles de données textuelles, qu’il exploite à la recherche de modèles statistiques pour générer du langage. De tels systèmes se sont avérés extrêmement flexibles et ont été utilisés pour une variété d’utilisations, de générer du code pour les programmeurs un aider les auteurs à écrire leur prochain best-seller. Cependant, ces modèles présentent également de sérieux défauts : régurgiter les préjugés dans vos données d’entraînement et souvent inventer des réponses aux questions des utilisateurs (un gros problème s’ils doivent être utiles en tant qu’assistants numériques).

Ce dernier problème est quelque chose que Meta veut tester spécifiquement avec BlenderBot. Une grande caractéristique du chatbot est qu’il est capable de rechercher sur Internet pour parler de sujets spécifiques. Plus important encore, les utilisateurs peuvent cliquer sur leurs réponses pour voir d’où ils ont obtenu leurs informations. BlenderBot 3, en d’autres termes, vous pouvez citer vos sources.

En diffusant le chatbot au grand public, Meta souhaite recueillir des retours sur les différents problèmes auxquels sont confrontés les grands modèles de langage. Les utilisateurs qui discutent avec BlenderBot pourront signaler toute réponse suspecte du système, et Meta dit qu’il a travaillé dur pour “minimiser l’utilisation de langage vulgaire, d’insultes et de commentaires culturellement insensibles par les bots”. Les utilisateurs devront s’inscrire pour que leurs données soient collectées, et si c’est le cas, leurs conversations et commentaires seront stockés puis publiés par Meta pour être utilisés par la communauté générale de recherche sur l’IA.

“Nous nous engageons à publier toutes les données que nous collectons dans la démo dans l’espoir de pouvoir améliorer l’IA conversationnelle”, a déclaré Kurt Shuster, ingénieur de recherche chez Meta qui a aidé à créer BlenderBot 3. le bord.

Un exemple de conversation avec BlenderBot 3 sur le web. Les utilisateurs peuvent donner leur avis et réagir à des réponses spécifiques.
Image : Objectif

Historiquement, la publication de prototypes de chatbots IA au public a été une décision risquée pour les entreprises technologiques. En 2016, Microsoft a lancé un chatbot nommé Tay sur Twitter qui a appris de ses interactions avec le public. Sans surprise, les utilisateurs de Twitter ont rapidement formé Tay à régurgiter une variété de Déclarations racistes, antisémites et misogynes. En réponse, Microsoft a mis le bot hors ligne moins de 24 heures plus tard.

Meta dit que le monde de l’IA a beaucoup changé depuis le dysfonctionnement de Tay et que BlenderBot a toutes sortes de rails de sécurité qui devraient empêcher Meta de répéter les erreurs de Microsoft.

Fondamentalement, explique Mary Williamson, responsable de l’ingénierie de recherche chez Facebook AI Research (FAIR), alors que Tay a été conçu pour apprendre en temps réel à partir des interactions des utilisateurs, BlenderBot est un modèle statique. Cela signifie qu’il est capable de se souvenir de ce que disent les utilisateurs dans une conversation (et conservera même ces informations via les cookies du navigateur si un utilisateur quitte le programme et revient plus tard), mais ces informations ne seront utilisées que pour améliorer le système ultérieurement.

Ce n’est que mon avis personnel, mais ça [Tay] L’épisode est relativement malheureux, car il a créé cet hiver de chatbot où chaque institution avait peur de sortir publiquement des chatbots pour la recherche », explique Williamson. le bord.

Williamson dit que la plupart des chatbots utilisés aujourd’hui sont limités et axés sur les tâches. Pensez aux robots de service client, par exemple, qui présentent souvent aux utilisateurs une arborescence de dialogue préprogrammée, affinant leur requête avant de la transmettre à un agent humain qui peut réellement faire le travail. Le vrai prix est de construire un système qui peut mener une conversation aussi libre et naturelle qu’un humain, et Meta dit que la seule façon d’y parvenir est de permettre aux bots d’avoir des conversations libres et naturelles.

“Ce manque de tolérance envers les robots qui disent des choses inutiles, au sens large du terme, est regrettable”, déclare Williamson. “Et ce que nous essayons de faire, c’est de publier cela de manière très responsable et de faire avancer la recherche.”

En plus de mettre BlenderBot 3 sur le Web, Meta est également post code-behind, jeu de données d’entraînement et variantes de modèle plus petites. Les chercheurs peuvent demander l’accès au plus grand modèle, qui compte 175 milliards de paramètres, via un formulaire ici.