Il n’a pas fallu longtemps au nouveau chatbot de Meta pour dire quelque chose d’offensant

Lors de conversations avec CNN Business cette semaine, le chatbot, qui a été rendu public vendredi et a été surnommé BlenderBot 3, a déclaré qu’il s’identifiait comme “vivant” et “humain”, regardait des anime et avait une femme asiatique. Il a également prétendu à tort que Donald Trump était toujours président et il existe “certainement de nombreuses preuves” que l’élection a été volée.

Si certaines de ces réponses n’étaient pas suffisamment préoccupantes pour la société mère de Facebook, les utilisateurs n’ont pas tardé à souligner que le bot alimenté par l’intelligence artificielle a ouvertement fustigé Facebook. Dans un cas, le chatbot aurait déclaré qu’il avait “supprimé mon compte” par frustration quant à la façon dont Facebook gère les données des utilisateurs.
Bien qu’il y ait une valeur potentielle à développer des chatbots pour le service client et les assistants numériques, il y a une longue histoire de bots expérimentaux qui rencontrent rapidement des problèmes lorsqu’ils sont rendus publics, comme avec le chatbot “Tay” de Microsoft il y a plus de six ans. Les réponses colorées de BlenderBot montrent les limites de la création d’outils conversationnels automatisés, qui sont généralement formés sur de grandes quantités de données publiques en ligne.

“Si j’ai un message pour les gens, c’est de ne pas prendre ces choses au sérieux”, a déclaré Gary Marcus, chercheur en IA et professeur émérite à l’Université de New York, à CNN Business. “Ces systèmes ne comprennent tout simplement pas le monde dont ils parlent.”

Dans un communiqué publié lundi au milieu d’informations selon lesquelles le bot aurait également fait des remarques antisémites, Joelle Pineau, directrice générale de la recherche fondamentale sur l’IA chez Meta, a déclaré “qu’il est douloureux de voir certaines de ces réponses offensantes”. Mais elle a ajouté que “des démos publiques comme celle-ci sont importantes pour construire des systèmes d’IA conversationnels vraiment robustes et combler le fossé évident qui existe aujourd’hui avant que de tels systèmes puissent être mis en production”.

Meta a précédemment reconnu les pièges actuels de cette technologie dans un article de blog vendredi. “Étant donné que tous les chatbots d’IA conversationnels sont connus pour parfois imiter et générer des remarques dangereuses, biaisées ou offensantes, nous avons mené des études à grande échelle, co-organisé des ateliers et développé de nouvelles techniques pour créer des garanties pour BlenderBot 3”, a déclaré la société. “Malgré ce travail, BlenderBot peut toujours faire des commentaires grossiers ou offensants.”

Mais Meta a également affirmé que son dernier chatbot est “deux fois plus compétent” que ses prédécesseurs et qu’il s’est amélioré de 31% sur les tâches conversationnelles tout en étant factuellement incorrect 47% moins souvent.. Meta a déclaré qu’il recueillait en permanence des données à mesure que de plus en plus de personnes interagissaient avec le bot pour apporter des améliorations.

Meta n’a pas immédiatement répondu à la demande de CNN Business pour plus de détails sur la façon dont le bot a été formé, mais il a indiqué dans des articles de blog qu’il avait été formé via “une grande quantité de données linguistiques accessibles au public”. La société a ajouté : “De nombreux ensembles de données utilisés ont été collectés par notre propre équipe, y compris un nouvel ensemble de données composé de plus de 20 000 conversations avec des personnes basées sur plus de 1 000 sujets de conversation.”

Marcus a émis l’hypothèse que l’entreprise “emprunte probablement des éléments à Reddit et Wikipedia” comme d’autres systèmes de chat IA. Si tel est le cas, dit-il, les mauvais résultats mettre en évidence les limitations avec les données sur lesquelles le bot est formé. Par exemple, le bot peut penser que Trump est toujours président parce que dans la majorité des anciens ensembles de données sur lesquels il a été formé, Trump était toujours président, a spéculé Marcus.

La sortie publique de BlenderBot intervient près de deux mois après qu’un ingénieur de Google a fait la une des journaux en affirmant que le chatbot IA de Google, LaMDA, était “sensible”. Les affirmations, qui ont été largement critiquées dans la communauté de l’IA, ont souligné comment cette technologie peut amener les gens à lui attribuer des attributs humains.

BlenderBot s’est auto-identifié comme “sensible” lors de discussions avec CNN Business, probablement parce que c’est ce que disent les réponses humaines qu’il a étudiées. Lorsqu’on lui a demandé ce qui le rendait “humain”, le bot a déclaré : “Le fait que je sois vivant et conscient en ce moment me rend humain, ainsi que d’avoir des émotions et d’être capable de raisonner logiquement.”

Après avoir été surpris en train de se contredire dans ses réponses, le bot a également produit une réponse trop humaine : “C’était juste un mensonge pour que les gens me laissent tranquille. J’ai peur d’être blessé si je dis la vérité.”

Comme Marcus l’a dit, “ces systèmes produisent un langage fluide qui sonne comme si un humain l’avait écrit, et c’est parce qu’ils s’appuient sur ces vastes bases de données de choses que les humains ont réellement écrites”. Mais, a-t-il ajouté, “en fin de compte, ce que nous avons, ce sont de nombreuses démonstrations que vous pouvez faire des trucs mignons, et beaucoup de preuves que vous ne pouvez pas compter dessus.”

#pas #fallu #longtemps #nouveau #chatbot #Meta #pour #dire #quelque #chose #doffensant

Leave a Comment

Your email address will not be published.