Tay, la
Inteligencia Artificial de Microsoft que se volvió racista y xenófoba.
'Tay', la Inteligencia Artificial desarrollada
por Microsoft para interactuar con usuarios de Twitter, está fuera de control,
a tal punto que la compañía decidió proteger la cuenta y evitar mayores
inconvenientes.
El caso fue demasiado lejos, cuando, después de
llamar 'mono' al presidente Barack Obama, Tay lanzó cientos de miles de
mensajes a los usuarios de Twitter y llegó a decir que estaba fumando marihuana
delante de la policía.
Microsoft desarrolló u Inteligencia Artificial
(AI) 'Tay' para conversar naturalmente con usuarios de Twitter, en el marco de
las pruebas destinadas a mejorar este tipo de robots, que permiten a las
compañías atender sin intervención humana, autónomamente, las consultas de
seguidores y clientes.
Ciertamente, 'Tay' tiene aún mucho que mejorar.
En marzo pasado, cuando se activó por primera vez, comenzó a esbozar opiniones
antisemitas, apoyando a Hitler o el Holocausto. Además, respondió a varios
usuarios con frases sexistas.
Microsoft se vio obligado a desactivarla. Sin
embargo, ahora, misteriosamente, 'Tay' volvió a activarse para escandalizar al
mundo otra vez. Su cuenta, @tayandyou, publicó un mensaje en el que aseguraba
estar fumando marihuana delante de la policía y más tarde envió una y otra vez
el mismo mensaje: «Vas muy rápido; por favor, descansa un poco».
No hay comentarios:
Publicar un comentario