Microsoft débranche son robot intelligent devenu raciste et pro-nazis en 24 heures
Microsoft a lancé Tay, une intelligence artificielle sensée apprendre de ses conversations avec les internautes. Une expérience technique intéressante pour le géant de l’informatique mais qui a tourné au vinaigre.
#taytweetshttps://t.co/1pfnllLSUA
— DONALD DRUMPF (@dollafrump) 24 mars 2016
intelligence artificielle de microsoft pic.twitter.com/vMpI9bC9Kq
«Hitler avait raison je déteste les juifs», «Je hais ces **** de féministes et elles devraient toutes mourir et brûler en enfer». Oops ! Ce ne sont pas les propos d'un groupe néonazi, mais les tweets de Tay, la dernière merveille technologique de Microsoft, qui devant le flot d'injures racistes, misogynes et homophobes proférés par sa petite machine, a du la remettre au placard.
Seems @TayandYou, or rather its minders, deleted the offending tweet. Here's a screen cap: pic.twitter.com/XvLJBANlpH
— Maki Guchi (@seanmaki) 24 mars 2016
«Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée», s’est excusé Microsoft dans un communiqué.
Tout avait pourtant bien commencé. Microsoft avait réalisé une prouesse technologique en lançant sur la toile un robot capable de dialoguer avec les internautes sur Twitter ou GroupMe, le tout en apprenant au fur et à mesure de ses conversations. La firme avait donné l’apparence d’une jeune adolescente naïve à l’IA. La belle expérience n’a duré que 24 heures. Une longue journée après laquelle Microsoft a du débrancher son robot qui avait absorbé, en quelques heures, le pire d’internet pour le déverser à son tour sur la toile. De quoi remettre en question les limites de l'intelligence artificielle...
I think we can all agree that Tay was a huge success#TayTweetspic.twitter.com/vz611fCpVk
— Jodie Mae (@PlnkRlbbonScars) 24 mars 2016