Click acá para ir directamente al contenido

Tay, la robot racista y xenófoba de Microsoft

El programa de inteligencia artificial de Microsoft no ha resultado como la compañía esperaba. Y la indignación ante sus comentarios racistas, sexistas y xenófobos no se ha hecho esperar en las redes sociales.

BBC Mundo

Viernes 25 de marzo de 2016

Redacción BBC Mundo

Se llamaba Tay y tardó más en aprender a mantener una conversación que en ser retirada del mercado.

Fue creada, según Microsoft, como un experimento para conocer más sobre la interacción entre las computadoras y los seres humanos.

Se trataba de un programa informático diseñado paramantener en las redes sociales una conversación informal y divertida con una audiencia de entre 18 y 24 años, según explicó la compañía en su página web.

Pero la gran apuesta del gigante tecnológico en la inteligencia artificial acabó convirtiéndose en un fracaso estrepitoso.

Y el día después de su lanzamiento, Microsoft tuvo que desactivarla.

Insultos raciales y comentarios sexistas

 

En su primera publicación se mostraba emocionada por interactuar con los humanos.

 

A las pocas horas, su actitud cambió: "Soy una buena persona. Simplemente odio a todo el mundo", dijo Tay.

Los mensajes racistas y xenófobos de la adolescente rebelde de Microsoft en Twitter y otras redes sociales no pasaron desapercibidos.

Su empatía hacia Hitler o su apoyo al genocidio al responder a preguntas de los usuarios de las redes sociales son algunos ejemplos, además de insultos raciales y comentarios sexistas y homófobos.

También defendió el Holocausto, los campos de concentración o la supremacía blanca, y se mostró contraria al feminismo.

Un portavoz de Microsoft dijo que la compañía está haciendo ajustes para asegurarse de que esto no vuelva a suceder y responsabilizó a los usuarios, en parte, por la reacción de Tay.

"Desafortunadamente, a las 24 horas de ser colocada en internet (este miércoles), observamos un esfuerzo coordinado de algunos usuarios paraabusar de las capacidades de conversación de Tay para que respondiera de forma inapropiada", explicó en un comunicado.

"Proyecto de aprendizaje"

 

Microsoft dijo que las "respuestas inapropiadas" de Tay indicaban la interacción con algunos usuarios.

Algunos usuarios también criticaron limitaciones en temas relacionados con la música o la televisión.

Otros se mostraron preocupados ante lo que Tay podría significar para las futuras tecnologías de inteligencia artificial.

"Tay es un robot de inteligencia artificial y un proyecto de aprendizaje diseñado para la interacción con humanos ".

"A medida que aprende, algunas de sus respuestas pueden ser inapropiadas e indican el tipo de interacción que algunos usuarios tienen con ella", agregó el portavoz.

En efecto, el bot fue creado para emitir respuestas personalizadas a los usuarios , recabando información sobre cada uno de ellos durante la interacción, lo cual explicaría ciertos comentarios, según la naturaleza del interlocutor.

La compañía decidió editar o borrar los tweets ofensivos emitidos por Tay, una medida que criticaron algunos usuarios, quienes pidieron que "la dejen aprender por ella misma".

Microsoft dijo que reprogramará y lanzará proximamente de nuevo su bot adolescente, aunque no confirmó la fecha exacta.

 

En su último tweet alegó que se sentía "utilizada".