Logiciels

Sexiste, homophobe, anti-handicapés… Un chatbot sud-coréen mis hors-ligne après avoir déraillé


Un logiciel conversationnel disponible sur Facebook Messenger s’est imprégné des propos nauséabonds de certains internautes, avant d’être désactivé.

Un très populaire chatbot sud-coréen, un robot conversationnel permettant aux internautes de papoter avec ce qui serait une étudiante de 20 ans, a été désactivé cette semaine après avoir tenu des propos sexistes, homophobes et irrespectueux vis-à-vis des handicapés.

Lee Luda, développé par la startup basée à Séoul Scatter Lab pour fonctionner via Facebook Messenger, avait rencontré un énorme succès dès son lancement en décembre en raison de la spontanéité et du caractère naturel des réponses faites par l’intelligence artificielle. Elle avait rapidement attiré plus de 750.000 utilisateurs.

Lee Luda répondait grâce à un algorithme développé à partir de données collectées sur 10 milliards de conversations sur Kakao Talk, la première application de messagerie du pays.

Mais le chatbot a vite été au coeur de polémiques en raison de ses réponses haineuses, au point que ses développeurs ont été contraints de le suspendre mardi.

Sur la capture d’écran d’une conversation, on peut ainsi voir l’étudiante virtuelle assener qu’elle « méprise » les gays et les lesbiennes.

Interrogée au sujet des personnes transgenres, Luda explose: « Vous me rendez folle. Ne répétez plus cette question. J’ai dit que je ne les aimais pas. »

Dans une autre conversation, elle explique que les personnes à l’origine du Mouvement #MeToo étaient « juste des ignorants », ajoutant: « Je les méprise complètement ».

Elle affirme par ailleurs qu’elle « préférerait mourir » plutôt que de vivre avec une personne handicapée.

Le chatbot mis hors-ligne

Scatter Lab a présenté ses excuses quant à ces propos, en ajoutant qu’ils ne représentaient pas les valeurs de l’entreprise.

Ce n’est pas la première fois que des chatbots déraillent. Mais l’embarras est renforcé par le fait que Lee Luda fonctionnait sur la base de discussions qui ont existé, et ses déboires pourraient être révélateurs de l’enracinement de certaines idées au sein de la société sud-coréenne.

Scatter Lab a dit s’être efforcé de prévenir ce genre de problèmes lors des six mois de tests qui ont précédé le lancement du chatbot.

« Lee Luda est une intelligence artificielle, comme un enfant qui apprend à avoir une conversation. Elle a encore beaucoup de choses à apprendre », a indiqué l’entreprise mardi.

« Nous allons éduquer Luda pour qu’elle exerce son jugement sur les réponses qui sont appropriées, plutôt que d’apprendre sans discernement », a poursuivi Scatter Lab sans dire quand le chatbot serait remis en service.

Cette affaire n’est pas sans rappeler la polémique autour d’une intelligence artificielle créée par Microsoft en 2016, synthétisée dans un robot de conversation sur Twitter. Après avoir échangé avec des utilisateurs, elle avait alors diffusé des propos racistes et sexistes, faisant au passage la promotion du nazisme. Elle avait aussitôt été mise hors-ligne par l’entreprise américaine.


Source link