Microsoft suspende a 'Tay', su IA en Twitter, por comentarios ofensivos

Usted está aquí

Microsoft suspende a 'Tay', su IA en Twitter, por comentarios ofensivos

Foto: Especial
Usuarios de Twiiter transformaron a Tay, el robot de inteligencia artificial que creó Microsoft, en una adolescente racista y misógina

Ciudad de México.- Tay, el robot que lanzó Microsoft capaz de mantener conversaciones en las redes sociales como una típica adolescente gracias a la inteligencia artificial, tuvo que dejar de “platicar” luego de que publicara tuits ofensivos.

En tan sólo 24 horas, Twitter hizo de la inocente Tay un robot que aseguraba que las feministas no debían de existir, que George W. Bush fue el responsable del atentado en el World Trade Center de Nueva York en 2001 y que Donald Trump sería un buen presidente.

Cuando Microsoft lanzó Tay, explicó que el sistema aprendía cómo interactuar con la gente conforme más platicaba con ellas. Sin embargo, usuarios de Twitter mostraron su lado no tan amable y comenzaron a hacer comentarios ofensivos que posteriormente Tay replicaba. 

En respuesta, la empresa borró los tuits y suspendió la actividad de la cuenta para hacer ajustes al programa. “Nos dimos cuenta de los esfuerzos coordinados de algunos usuarios para hacer que Tay respondiera de forma inapropiada.”, dijo Microsoft en un comunicado. 

El último tuit de Tay dice "nos vemos humanos necesito dormir ahora muchas conversaciones por hoy".