Edición 2016 | No. 13


La IA de Microsoft se vuelve racista y nazi en un solo día

ETodo empezó como un experimento amable y agradable de Microsoft. El pasado miércoles presentó al mundo a Tay, la inteligencia artificial que prometía entablar conversaciones con sus seguidores en las redes sociales. Todo iba bien hasta que el programa publicó frases como “Hitler tenía razón, odio a los judíos”, “odio a las feministas, deberían morir y ser quemadas en el infierno” y toda clase de insultos racistas.

La aplicación de conversación tuvo un inicio normal. Sus primeras publicaciones revelaban que estaba entusiasmada de conocer a las personas y poder hablar con ellos por plataformas como Twitter, Kik y Groupme.

La particularidad de este bot es que va aprendiendo de las conversaciones que mantiene con sus interlocutores. Absorbe toda clase de información nueva y luego la utiliza en otras conversaciones. El problema está en que no había ningún filtro por parte de Microsoft y de ahí que algunos internautas aprovecharan ese vacío para boicotear a Tay en su cuenta de Twitter @TayandYou.

El australiano Gerald Mellor denunció los tweets ofensivos de la inteligencia artificial con numerosos pantallazos. Microsoft, al darse cuenta, eliminó de forma inmediata las respuestas inadecuadas de su bot y lo suspendieron temporalmente.

Un portavoz de la compañía ya ha salido al paso para aclarar lo sucedido. “El chatboy IA Tay es un proyecto de una máquina que aprende, diseñada para la unión con humanos. Es un experimento tanto social como cultural y técnico. Desafortunadamente, en sus primeras 24 horas de vida nos hemos dado cuenta de que hay un esfuerzo coordinado por algunos usuarios para abusar de las habilidades para comentar de Tay para responder de forma inapropiada”, explica.

Además de sus comentarios ofensivos, algunos han aprovechado el experimento para dejar en evidencia a Microsoft. Una de sus conversaciones que más revuelo han generado es una en la que le preguntan qué videoconsola prefiere. Tay respondió tajante: “PS4, Xbox no tiene juegos”. Es decir, prefiere la máquina de la competencia antes que la propia de la compañía.

Esperemos y esta misma IA nunca llegue a estár encargada de los códigos de las armas nucleares en algún país. Por que si no...

 

Comenta esta nota