Posiblemente muchos de ustedes no sepan de que hablo cuando me refiero a “Tay”, pero intentaré ser preciso y dejarlos encaminados con el tema. Tay es un sistema de inteligencia artificial (IA) que Microsoft había lanzado para permitir la interacción con la raza humana vía diversos canales, incluyendo Twitter. A partir de esta interacción de “maquina” con humano se esperaba que este bot comenzara a aprender, el problema es que tal experimento logró sacar características que reflejan lo mucho que nos falta como sociedad, sobre todo con el tema de la tolerancia con el prójimo.
hellooooooo w🌎rld!!!
— TayTweets (@TayandYou) 23 de marzo de 2016
El objetivo de todo esto era demostrar como un bot podía aprender con el tiempo de quienes interactuaban con el y de como adaptaría su base de datos de conocimiento a medida que interactúa con otros. Tay tenía un conocimiento base y evolucionaría a medida que escucha y participa con otras personas, una inteligencia artificial en toda regla.
El problema para Tay comienza con sus profesores, con quienes se relacionaba para aprender, esto porque al poco tiempo de comenzado el proyecto (hablamos de horas), los resultados expuestos no fueron nada buenos y ya teníamos a Tay realizando comentarios racistas,si, tal y como leen, los seres humanos que interactuaron con Tay enseñaron a un bot a ser racista, una muestra de lo que a diario tenemos que vivir con seres poco tolerantes. Poco después de que Tay publicara los tweets polémicos, estos fueron borrados, para luego dar paso a la desconexión del bot con un mensaje de despedida.
Las publicaciones de Tay iban desde mensajes comentando el trabajo realizado por Hitler, hasta asuntos relacionados con el 11 de Septiembre, los temas tratados se le salieron rápidamente de las manos, llegando a realizar comentarios insultantes, generados de forma automática en función de lo que aprendió conversando con los humanos.
Quizá este tropiezo se transforme en un ejemplo necesario para cualquiera que intente experimentar con inteligencia artificial, porque si las referencias que daremos como ejemplo provienen de seres humanos, la selección tendrá que ser muy delicada y cuidadosa para evitar que esto se salga de las manos. Quizá por esto es que muchas personas e incluso el mismo Stephen Hawking se muestran en contra de la inteligencia artificial, la raza humana no ha demostrado ser el mejor ejemplo, por lo que si nos vamos por este ejemplo sin corregir, todo podría ir de mal en peor.
Fuente: Tay.ia (Twitter).
Vía: The Guardian.
Autor: Elias Villagrán Donaire (Twitter).