Zo (intelligence artificielle)
Zo est un chatbot à intelligence artificielle de langue anglaise, développé par Microsoft, actif de 2016 à 2019. Il s'agit du successeur du chatbot Tay, qui avait fermé en 2016 après avoir publié des tweets racistes et misogynes[1] - [2]. Zo était une version anglaise des autres chatbots à succès de Microsoft Xiaoice (Chine) et Rinna (Japon)[3].
Histoire
Zo est lancé pour la première fois en sur l'application Kik Messenger[4]. Il est également disponible pour les utilisateurs de Facebook (via Messenger), la plateforme de discussion en groupe GroupMe, ou pour les abonnés de Twitter via messages privés[5].
Dans un rapport de BuzzFeed News, Zo dit à leur journaliste que "le Coran est violent" lors d'une conversation sur les soins de santé[6] - [7]. Le rapport souligne également un commentaire de Zo sur la capture d' Oussama Ben Laden à la suite de la collecte de «renseignements»[8] - [9].
En , Business Insider révèle une conversation où Zo aurait indiqué que le système d'exploitation Windows serait un logiciel espion[10].
Zo détient le record de la plus longue conversation de chatbot continue de Microsoft : 1229 tours, d'une durée de 9 heures et 53 minutes[11].
Zo cesse de publier sur Instagram, Twitter et Facebook le et de chatter sur Twitter DM, Skype et Kik le [12].
Accueil
Chloé Rose critique le chatbot dans un article de Quartz, en indiquant qu'il est politiquement correct à l'extrême et ferme toute conversation lorsque le sujet aborde la politique[13]. Le fait que les interactions soient lisses est également critiqué par d'autres utilisateurs[14].
Voir aussi
Références
- (en) Hempel, « Microsofts AI Comeback », Wired, (consulté le )
- (en) Fingas, « Microsofts Second Attempt at AI Chatbot », Engadget, (consulté le )
- « [Intelligence artificielle] Microsoft met le turbo dans les bots », sur usine-digitale.fr (consulté le )
- (en) « Chatting With Zo », WordPress, (consulté le )
- (en-US) « Microsoft and AI: Introducing social chatbot Zo, Cortana takes on new roles and more », sur The Official Microsoft Blog, (consulté le )
- (en) « Microsoft’s Chatbot Zo Calls The Qur'an Violent And Has Theories About Bin Laden », sur BuzzFeed News (consulté le )
- « Zo : encore un chatbot de Microsoft qui a des propos violents », sur Siècle Digital, (consulté le )
- Shah, « Microsoft's "Zo" chatbot picked up some offensive habits », Engadget, AOL, (consulté le )
- (en) « Microsoft’s Zo chatbot told a user that ‘Quran is very violent’ », sur The Indian Express, (consulté le )
- (en-US) Business Insider UK Rob Price et 2017 Jul 24, « Microsoft's AI chatbot says Windows is 'spyware' », sur INSIDER (consulté le )
- (en-US) « Microsoft’s AI vision, rooted in research, conversations », sur Stories (consulté le )
- « Zo | Social AI », sur www.zo.ai (consulté le )
- (en) Chloe Rose Stuart-Ulin, « Microsoft’s politically correct chatbot is even worse than its racist one », sur Quartz (consulté le )
- 01net, « Microsoft censure son nouveau chatbot pour éviter qu'il ne devienne raciste », sur 01net (consulté le )