ChatBot: Comment créer de meilleures conversations de chatbot

ChatBot: Comment créer de meilleures conversations de chatbot

Les assistants numériques à commande vocale comme Siri et Alexa sont devenus de plus en plus aptes à répondre de manière appropriée aux demandes des utilisateurs, mais permettre aux utilisateurs d’avoir une vraie conversation avec de tels robots reste un énorme défi. Quiconque a joué avec ces IA sait qu’il y a un monde de différence entre, par exemple, faire jouer au bot une chanson demandée de votre bibliothèque musicale et engager le bot dans un échange d’opinions satisfaisant sur cette chanson.

Ce n’est qu’un exemple de la difficulté de l’IA conversationnelle, un domaine qui a attiré l’attention des chercheurs en IA ces dernières années grâce au Alexa Prize Challenge d’Amazon, qui depuis 2017 oppose des équipes universitaires les unes aux autres pour créer le social le plus engageant. Sous la supervision du conseiller pédagogique Christophe Manning, qui dirige également le Laboratoire d’intelligence artificielle de Stanford et est directeur associé du Stanford Institute for Human-centered AI, l’équipe de Stanford s’est classée deuxième en le dernier concours et a récemment mis le code de son à la disposition du public.

Une partie de la difficulté de créer un social découle de la grande quantité de connaissances et de compétences du monde réel qui permettent de rendre une conversation entre deux personnes enrichissante, explique Amélie Hardy, membre de l’équipe du prix Alexa de Stanford, dont le s’appelle « Chirpy Cardinal ». Les récompenses d’une conversation de personne à personne satisfaisante, souligne-t-elle, découlent du fait de pouvoir échanger des idées sur une variété de sujets et de se sentir vraiment compris et empathique. Mais les machines n’ont tout simplement pas ce genre de compréhension du monde réel, qu’il s’agisse de sujets de conversation spécifiques ou de l’harmonisation émotionnelle qu’une bonne conversation nécessite. « Il n’y a aucune intuition de ce que signifie faire preuve d’empathie ou de ce qu’est le baseball », déclare Hardy, étudiant à la maîtrise en informatique. Les machines n’ont pas non plus une grande capacité à capter les signaux de conversation, tels que les signes subtils d’un intérêt décroissant pour le sujet actuel, même si cette capacité est, bien sûr, essentielle pour répondre de manière appropriée.

Essayer de relever ces défis conversationnels grâce à l’apprentissage automatique pose un problème supplémentaire. Il y a eu beaucoup de travaux récents sur l’utilisation de grands réseaux de neurones pour essayer de générer les réponses d’un bot mot à mot en fonction de la conversation jusqu’à ce point. Ces réponses générées neuronalement peuvent sembler assez réactives au flux réel de la conversation et peuvent utiliser une grande variété de mots. Mais il y a un inconvénient. « Si vous faites tout ce qui est généré neuronalement, c’est juste très difficile à obtenir [the ] pour faire des choses qui sont cohérentes et prévisibles, et ainsi le bot pourrait totalement dérailler », explique Hardy. Pourtant, essayer de garder le bot sur la bonne voie grâce à des réponses modélisées – le genre basé sur des phrases prédéfinies avec des espaces réservés – a tendance à rendre le bot rigide et contre nature.

Ce problème d’atteindre des degrés élevés de prévisibilité et de flexibilité dans un reste en grande partie non résolu, mais l’équipe a trouvé plusieurs règles empiriques – l’heuristique – pour combiner efficacement l’utilisation de réponses scriptées et générées neuronalement. Par exemple, parce que la génération neuronale est bien meilleure pour poursuivre une conversation riche que pour en démarrer une, l’équipe a découvert que c’était une bonne idée de démarrer les discussions avec une question scriptée avant de passer aux réponses générées neuronalement. Et parce que les bots utilisant la génération neuronale ont tendance à dériver hors sujet au fil du temps, l’équipe a décidé de ne pas laisser le dialogue généré par les neurones se poursuivre pendant plus de quelques tours.

Connexion homme/IA

En testant Chirpy sur des centaines de milliers d’utilisateurs Alexa participants, l’équipe a également fait plusieurs découvertes intéressantes sur la façon dont les utilisateurs voient et traitent le bot conversationnel.

« L’une des choses les plus surprenantes était la façon dont nous aurions des gens qui voulaient discuter pendant longtemps », explique Ashwin Paranjape, qui a codirigé l’équipe de Stanford avec un autre doctorant Abi Voir. Bien que la conversation moyenne avec Chirpy n’ait duré que deux minutes environ, 10 % des utilisateurs ayant interagi avec Chirpy ont discuté pendant plus de 10 minutes, certains pendant 15 minutes ou plus. De plus, même si Chirpy était loin d’être un causeur sans faille, de nombreux utilisateurs étaient prêts à tolérer les bizarreries du bot, et lui ont même posé des questions personnelles, comme « Qu’as tu fais durant le weekend? » Tout cela suggère à Paranjape et Hardy que de nombreuses personnes ont un réel intérêt à avoir une conversation sociale avec un bot et à se connecter avec lui de manière à établir des relations.

Paranjape a également été surpris de voir une certaine suspension de l’incrédulité des utilisateurs. L’équipe avait commencé avec l’hypothèse que le ne pouvait pas parler d’avoir eu des « expériences incarnées » telles que manger. Pourtant, lorsque Chirpy a déclaré qu’il avait récemment mangé une pizza ou un hot-dog, les utilisateurs avaient tendance à jouer le jeu. « Ils demandaient : « Où l’avez-vous eu ? » ou « Quel goût avait-il ? » »

Un échantillon d'une conversation Chirpy.
L’équipe de Stanford a testé Chirpy sur des centaines de milliers d’utilisateurs.

Prévenir les abus, créer un flux de conversation

Pour accélérer le développement de l’IA conversationnelle, l’équipe de Stanford a récemment Chirpy open source— en espérant, entre autres progrès, que quelqu’un étend l’état de l’art « liaison d’entité” pour travailler avec des conversations et supplanter la méthode plus grossière et heuristique que Chirpy utilise actuellement pour relier les mots ambigus à leurs significations prévues. Un bot averti en conversation doit savoir, par exemple, quand il entend les sons « froid jouer » dans le contexte de la musique que l’utilisateur fait en fait référence au groupe Coldplay.

Deux des découvertes de l’équipe au cours du défi les ont déjà conduits vers de nouvelles voies de recherche. L’un est l’observation qu’une partie importante des utilisateurs parlent abusivement au bot – un schéma qui est troublant étant donné qu’un abus incontrôlé envers un bot peut légitimer un comportement similaire envers les humains dans des rôles de service, en particulier les femmes et les minorités. Ainsi, certains des coéquipiers de Stanford ont testé des moyens pour le bot d’arrêter les discours abusifs, comme orienter la conversation vers un nouveau sujet et appeler l’utilisateur en Nom.

Une autre direction de recherche intrigante est venue de la constatation que le bot avait tendance à orienter les utilisateurs des chemins de fer vers une voie de conversation, par exemple en forçant les utilisateurs à parler de films simplement parce que c’est un sujet dont le bot était doué pour parler. Et certains utilisateurs ont explicitement reproché à Chirpy de poser trop de questions. Ces observations ont conduit à une nouvelle question de recherche : comment les bots sociaux peuvent-ils encourager les utilisateurs à prendre plus d’initiatives conversationnelles, au lieu de laisser le bot réquisitionner la conversation comme un interrogateur ? « C’est une question sur laquelle nous n’aurions jamais été confrontés si nous ne l’avions pas vu se produire dans la vraie vie », déclare Paranjape.

La mission de Stanford HAI est de faire progresser la recherche, l’éducation, les politiques et les pratiques en matière d’IA pour améliorer la condition humaine. Apprendre encore plus.

ChatBot: Comment créer de meilleures conversations de chatbot

#Comment #créer #meilleures #conversations #