Nueva polémica por comentarios racistas por parte del robot de Microsoft

Danna Montanez
By Danna Montanez marzo 28, 2016 12:38

Nueva polémica por comentarios racistas por parte del robot de Microsoft

El software de Microsoft Tay, fue vulnerado por los usuarios de Twitter los cuales le ensañaron cosas realmente malas.

Nueva polémica por comentarios racistas por parte del robot de Microsoft1

Tay es un software de inteligencia artificial diseñado por Microsoft, el cual conversa como una adolescente. Está fue castigada luego de que realizará diferentes comentarios racistas a través de su cuenta de Twitter.

Este experimento fue lanzado a principios de semana, cuyo objetivo buscaba que esta aprendiera de los intercambios online que obtendría con personas reales, pero esto no salio tan bien luego que la robot aprendió cosas realmente malas, tal cual como lo indicó Microsoft.

Así mismo, la empresa manifestó que:

“Desafortunadamente, en las primeras 24 horas en linea, nos dimos cuenta de un esfuerzo coordinado por parte de algunos usuarios para abusar de las habilidades de Tay y hacer que Tay responda de manera inadecuada”.

Vea aquí: Crean el primer robot capaz de repartir pizza solo

Dada esta problemática, El software fue retirado y actualmente se encuentran desarrollando ajustes para mejorarlo y evitar que este sea vulnerado nuevamente por los usuarios.

Finalmente, los mensajes de Tay iban orientados en cuanto al apoyo a los Nazis, a Donald Trump, acoso a las mujeres y ataque a las personas de color.

Danna Montanez
By Danna Montanez marzo 28, 2016 12:38
Write a comment

No Comments

No hay comentarios.

Animate a escribir el primer comentario para este articulo.

Write a comment

Only registered users can comment.