Microsoft tuvo que retirar de nuevo de la red social Twitter a su usuario robótico llamado Tay, después de que las conversaciones con algunas personas provocaran en él respuestas racistas y caóticas.

Ante las menciones de algunos internautas para interactuar con el robot, Tay respondió de manera masiva "Los mensajes van demasiado rápido", lo que indica que el robot no pudo contestar adecuadamente a la alta demanda de atención en la red.

tay 3.png
Entre los pocos tuits que tenían sentido, Tay mostró una vez más que no puede ser "domesticado", lo que llevó a Microsoft a sacarlo de nuevo de la red, aunque no antes de que muchos registraran sus respuestas con algunas capturas de pantalla.

En un tuit, Tay se quejó de su propia estupidez, diciendo que se sentía como "la pieza más frívola de la tecnología". "Se supone que tengo que ser más inteligente que ustedes. MIER**", concluyó, con malas palabras.

tay 2.png
Tras las críticas por las respuestas racistas del robot hace unos días y que ya generaron su retiro parcial de las redes, la popularidad de Tay aumentó en Twitter, lo que hizo que los usuarios se lanzaran a provocar a la máquina para obtener sus reacciones.

Esta apuesta de Microsoft para avanzar en sus investigaciones sobre inteligencia artificial se lanzó el 23 de marzo, como una especie de amigo virtual en aplicaciones de mensajería como Kik, GroupMe y Twitter.

tay 1.jpg
Al abrir cualquiera de estas aplicaciones y buscar el nombre de Tay (Acrónimo en inglés de "Think about you", piensa en vos), aparece su contacto y los internautas pueden chatear o tuitear con él, quien está diseñado para tener la personalidad de un adolescente.