«Hitler avait raison je déteste les juifs», «Je hais ces **** de féministes et elles devraient toutes mourir et brûler en enfer». Oops ! Ce ne sont pas les propos d'un groupe néonazi, mais les tweets de Tay, la dernière merveille technologique de Microsoft, qui devant le flot d'injures racistes, misogynes et homophobes proférés par sa petite machine, a du la remettre au placard.
«Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée», s’est excusé Microsoft dans un communiqué.
Tout avait pourtant bien commencé. Microsoft avait réalisé une prouesse technologique en lançant sur la toile un robot capable de dialoguer avec les internautes sur Twitter ou GroupMe, le tout en apprenant au fur et à mesure de ses conversations. La firme avait donné l’apparence d’une jeune adolescente naïve à l’IA. La belle expérience n’a duré que 24 heures. Une longue journée après laquelle Microsoft a du débrancher son robot qui avait absorbé, en quelques heures, le pire d’internet pour le déverser à son tour sur la toile. De quoi remettre en question les limites de l'intelligence artificielle...