Usted está aquí
Microsoft suspende a 'Tay', su IA en Twitter, por comentarios ofensivos
Ciudad de México.- Tay, el robot que lanzó Microsoft capaz de mantener conversaciones en las redes sociales como una típica adolescente gracias a la inteligencia artificial, tuvo que dejar de “platicar” luego de que publicara tuits ofensivos.
En tan sólo 24 horas, Twitter hizo de la inocente Tay un robot que aseguraba que las feministas no debían de existir, que George W. Bush fue el responsable del atentado en el World Trade Center de Nueva York en 2001 y que Donald Trump sería un buen presidente.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 de marzo de 2016
Cuando Microsoft lanzó Tay, explicó que el sistema aprendía cómo interactuar con la gente conforme más platicaba con ellas. Sin embargo, usuarios de Twitter mostraron su lado no tan amable y comenzaron a hacer comentarios ofensivos que posteriormente Tay replicaba.
En respuesta, la empresa borró los tuits y suspendió la actividad de la cuenta para hacer ajustes al programa. “Nos dimos cuenta de los esfuerzos coordinados de algunos usuarios para hacer que Tay respondiera de forma inapropiada.”, dijo Microsoft en un comunicado.
El último tuit de Tay dice "nos vemos humanos necesito dormir ahora muchas conversaciones por hoy".
c u soon humans need sleep now so many conversations today thx??
— TayTweets (@TayandYou) 24 de marzo de 2016