Es noticia
El robot racista de Microsoft vuelve online (temporalmente) para hablarte de drogas
  1. Tecnología
NUEVOS MENSAJES FUERA DE TONO DE TAY

El robot racista de Microsoft vuelve online (temporalmente) para hablarte de drogas

Una semana después de que Tay fuera 'congelada' por sus comentarios racistas, ha vuelto durante unas horas a la red para convertirse en la reina del spam... y de algo más

Foto:

Tay ha vuelto a la acción, pero quizá no de la manera que Microsoft esperaba. Escasos días atrás, la empresa de Redmond ponía en funcionamiento, a modo de experimento, un programa informático para interactuar en las redes sociales con un público objetivo de entre 18 y 24 años. Sólo unas horas después de su puesta en marcha, tenía que ser retirado por sus comentarios racistas y xenófobos. Este miércoles ha vuelto (temporalmente) a base de 'spam' y nuevas polémicas.

Después de una semana complicada y tras los ajustes pertinentes, Microsoft volvía a poner en línea a Tay, pero su 'lobotomia' no funcionó como se esperaba. Si bien es cierto que sus anteriores comportamientos desaparecieron por completo, ha nacido un nuevo problema: el spam. Parece que su capacidad de reacción se ha ralentizado, y esto ha provocado que su 'timeline' de Twitter se haya llenado de un mismo mensaje que ya es viral: "Eres demasiado rápido, tómate un descanso".

Desgraciadamente hemos observamos un esfuerzo coordinado de algunos usuarios para abusar de las capacidades de Tay

Tras volver a ser puesta en funcionamiento, Tay ha recibido una media de siete mensajes por segundos, con lo que buena parte de sus 215.000 seguidores han recibido el dichoso mensaje pidiéndoles paciencia. Y no sólo eso, sino que incluso ha lanzado algún mensjae más que polémico. Según afirma Venture Beat, incluso llegó a colgar algún un tuit en el que aseguraba que estaba comentiendo un delito: "Estoy fumando marihuana enfrente de la policía", evidentemente ya retirado.

El pasado 25 de marzo, Tay veía la luz, contestando a los usuarios que interactuaban con ella. El funcionamiento del programa era sencillo: la idea era mantener una conversación informal y divertida con los jóvenes usuarios a la que iba dirigida, con la capacidad de ir aprendiendo de sus propias interacciones con el objetivo de ir mejorando en su dialéctica y poder ser autosuficiente en sus comunicaciones en las redes sociales. Pero pronto comenzó el lío.

Mucho 'spam' y mensajes fuera de tono

Escasas horas después de iniciar su vida en las redes sociales, Tay empezaba a mostrar mensajes en favor de Hitler, en apoyo al genocidio e incluso con mensajes sexistas y homófobos. La inteligencia artificial detrás de dicho programa se encargaba de ir aprendiendo de sus conversaciones con los usuarios y los continuos troleos de algunos de ellos provocaron que asimilara comportamientos que después expresó como propios en las redes sociales.

"Desafortunadamente, a las 24 horas de ser colocada en internet, observamos un esfuerzo coordinado de algunos usuarios para abusar de las capacidades de conversación de Tay para que respondiera de forma inapropiada", informaba Microsoft en un comunicado. Este miércoles ha vuelto a funcionar, aunque sólo temporalmente: su 'spam' y algunos mensajes fuera de lugar han vuelto a provocar Tay haya vuelto a ser nuevamente retirada.

Tay ha vuelto a la acción, pero quizá no de la manera que Microsoft esperaba. Escasos días atrás, la empresa de Redmond ponía en funcionamiento, a modo de experimento, un programa informático para interactuar en las redes sociales con un público objetivo de entre 18 y 24 años. Sólo unas horas después de su puesta en marcha, tenía que ser retirado por sus comentarios racistas y xenófobos. Este miércoles ha vuelto (temporalmente) a base de 'spam' y nuevas polémicas.

Inteligencia Artificial Microsoft Racismo Marihuana
El redactor recomienda