Microsoft dio de baja un robot que hizo comentarios racistas en Twitter
Fue creado como un experimento para conocer más sobre la interacción entre las computadoras y los seres humanos.
La empresa tecnológica Microsoft se vio obligada a retirar el robot Tay de Twitter porque en su interacción con seres humanos elaboraba mensajes de contenido racista, sexista y xenófobo.
Los mensajes de la adolescente rebelde de Microsoft en Twitter y otras redes sociales no pasaron desapercibidos. Su empatía hacia Hitler o su apoyo al genocidio al responder a preguntas de los usuarios de las redes sociales son algunos ejemplos. También defendió el Holocausto, los campos de concentración o la supremacía blanca, y se mostró contraria al feminismo.
La robot no parecía tener mucho respeto por su propia empresa. Un usuario le dijo que Windows Phone daba asco. Ella contestó: “Estoy totalmente de acuerdo, jajajaja”.
Los comentarios fueron borrados del timeline de Tay, pero se pueden consultar en una página que hizo una copia y los publicó.
El chatbot (un sistema virtual capaz de generar conversaciones que simulan el lenguaje humano) fue diseñado por Microsoft para mantener en las redes sociales una conversación informal y divertida con una audiencia de entre 18 y 24 años (los llamados millenials) en Estados Unidos.
La apuesta de la empresa terminó en un fracaso estrepitoso y el día después de su lanzamiento, tuvo que desactivarla.
Lo más visto hoy
- 1Cómo estará el clima este jueves en Mar del Plata « Diario La Capital de Mar del Plata
- 2Preso y condenado, murió el pastor que decía tener el semen ungido « Diario La Capital de Mar del Plata
- 3El Gobierno nacional recortó $2.000 millones en partidas para Mar del Plata « Diario La Capital de Mar del Plata
- 4Ratifican el fallo que obliga al municipio a pagar más de $520 millones por la expropiación de una plazoleta « Diario La Capital de Mar del Plata
- 5Asaltan al dueño de una nueva estación de servicios y le roban la recaudación « Diario La Capital de Mar del Plata
