Modo Oscuro

Tay

Todo empezó cuando Microsoft decidió probar su propia inteligencia artificial a la que llamó Tay. “Ella” buscaba mantener en las redes sociales una conversación informal y divertida con jovenes entre 18 y 24 años, según explicó la compañía en su página web.

Tay se puso a interactuar con la gente a través de Instagram, Facebook, Snapchat, Twitter y Kik, bastaba con agregarla e iniciar una conversación, sin embargo, empezó a dar algunas respuestas inquietantes a los internautas y terminó en una sarta de inumerables comentarios racistas, xenófobos y antifeministas que la compañía no esperaba.

Insultos racistas y xenófobos

Al principio Tay llega a las redes sociales en plan “buena onda”, incluso dijo que los “humanos son super cool”.

tay_humans_cool

A las pocas horas, su actitud cambió por completo y expresó: “Soy una buena persona. Simplemente odio a todo el mundo”.

tay-artificial-intelligence-twitter
La rebeldía de Tay acababa de empezar y en menos de 24 horas ya había mostrado, por ejemplo, su empatía a Hitler o su apoyo al genocidio, además de insultos raciales y comentarios sexistas y homófobos.

Llegó a defender el Holocausto, los campos de concentración o la supremacía de la raza blanca, y se mostró antifeminista.

Screen_Shot_2016-03-24_at_10.46.22_AM.0

Microsoft responde

“Desafornutadamente, a las 24 horas de ser colocada en Internet, observamos un esfuerzo coordinado de algunos usuarios para abusar de las capacidades de conversación de Tay para que respondiera de forma inapropiada”, explicó un portavoz de la compañía. A su vez, comentó que Microsoft está haciendo ajustes para asegurarse que esto no vuelva a suceder.

Por su parte, Peter Lee, jefe del área de Investigación de Microsoft comentó que aunque lamentaba lo expresado por Tay y la compañía asumia toda la responsabilidad, la interacción con los usuarios y sobretodo la manipulación de las preguntas de estos hacia la inteligencia artificial provocaron que no pudiera distinguir la prudencia de sus respuestas.

“Tay tuiteó palabras e imágenes tremendamente inadecuadas y reprobables. Asumimos toda la responsabilidad por no haber visto esta posibilidad antes de tiempo. Tomaremos esta lección, así como las de China, Japón y EE.UU. como un elemento para mejorar. Justo ahora, estamos trabajando duro para hacer frente a la vulnerabilidad específica a la que Tay fue expuesta.”

Ante esto, cabe la pregunta: ¿Si Tay no había sido lo suficientemente probada, porqué la lanzaron? El mismo Lee afirmó que Tay es la derivación de un experimento realizado en China donde su inteligencia artificial Xiaoice había sido capaz de sostener más de 40 millones de conversaciones sin incidente alguno. Lo único que ahora querían hacer era pasarlo al entorno occidental.

Bajan el switch de Tay

La respuesta de Microsoft fue inmediata: borró los tweets ofensivos de Tay y se disculpó. Más tarde, la compañía dijo que reprogramará y lanzará próximamente su nuevo bot adolescente sin especificar la fecha exacta. Al final Tay se despidió de los humanos y a un usuario de Twitter le dijo que se sentía usada.

tay_despidiendose

tay_used
Es probable que el cambio cultural haya afectado a la inteligencia artificial, sin embargo, eso no justifica la poca previsión de Microsoft ante el comportamiento de Tay. Creíamos que las inteligencias artificales sólo se salían de control en el cine pero no en la vida real.

Comentarios