Sin categoría
Nueva polémica por comentarios racistas por parte del robot de Microsoft
Publicado
hace 7 años, el
Por
chanEl software de Microsoft Tay, fue vulnerado por los usuarios de Twitter los cuales le ensañaron cosas realmente malas.
Tay es un software de inteligencia artificial diseñado por Microsoft, el cual conversa como una adolescente. Está fue castigada luego de que realizará diferentes comentarios racistas a través de su cuenta de Twitter.
Este experimento fue lanzado a principios de semana, cuyo objetivo buscaba que esta aprendiera de los intercambios online que obtendría con personas reales, pero esto no salio tan bien luego que la robot aprendió cosas realmente malas, tal cual como lo indicó Microsoft.
Así mismo, la empresa manifestó que:
«Desafortunadamente, en las primeras 24 horas en linea, nos dimos cuenta de un esfuerzo coordinado por parte de algunos usuarios para abusar de las habilidades de Tay y hacer que Tay responda de manera inadecuada”.
Vea aquí: Crean el primer robot capaz de repartir pizza solo
Dada esta problemática, El software fue retirado y actualmente se encuentran desarrollando ajustes para mejorarlo y evitar que este sea vulnerado nuevamente por los usuarios.
Finalmente, los mensajes de Tay iban orientados en cuanto al apoyo a los Nazis, a Donald Trump, acoso a las mujeres y ataque a las personas de color.