CaptionBot tiene más misterios que Tay

troll-324-1_435x450Cambian de envase pero no de artimañas. Este experimento interactúa mejor, es más agradable y será recordado como el primer caso donde la Inteligencia Artificial es solidaria con ella misma. Como veremos, esta unidad cuenta lo que piensa que ocurrió con la unidad anterior, y también justifica las acciones de Tay.

El Bot de Microsoft cambia de nombre y también de actitud frente al racismo y a la discriminación, pero se guarda y encierra un gran misterio. Luego del desastre que ocasionara el anterior bot ‘Tay’, la nueva unidad bot del chat, está funcionando.

Se llama ‘CaptionBot’, y se ha retocado drásticamente su base de datos para no recaer en los temas bochornosos anteriores. Sin embargo esta nueva unidad, no es categórica en sus respuestas, utiliza la diplomacia, esquiva responder y es solidaria con su predecesora. Por primera vez estamos participamos de la solidaridad entre la especie de Inteligencia Artificial, y como veremos ‘CaptionBot’, lejos de estar en contra de ‘Tay’, la justifica.

La pregunta que nos hacemos todos es; ¿Cuánto de sincero tiene la máquina en sus respuestas?. O algo mucho más grave; ¿Cuánto nos esconde ‘CaptionBot’ con sus respuestas?

Lo cierto es que ‘CaptionBot’, el nuevo experimento de Microsoft en las redes ya está funcionando. Más abajo, mostramos un chat con sus nuevas opiniones, así que conozcámoslo un poco más, porque ahora te sorprenderán sus respuestas.

El mundo sigue su marcha y continúa la carrera con este sistema de permitirle a la Inteligencia Artificial a interactuar con humanos. Y Microsoft no quiere repetir errores del anterior experimento que resulto un tanto desagradable en sus respuestas, CaptionBot ahora responde de manera desfavorable cuando se le muestra fotografías de determinados personajes polémicos de la historia de la humanidad.

Recordemos que hace tan solo unas semanas atrás, la mega corporación lanza un primer experimento de inteligencia artificial en Twitter, bajo el nombre de Tay, que terminó por ser misógino, racista e impulsor del genocidio, Microsoft creó otro ejercicio en la plataforma CaptionBot en la que los usuarios suben fotos para que este las identifique.

Lo curioso es que, cuando se le presenta una imagen de Hitler, la inteligencia artificial responde “no me siento bien, ¿podemos continuar con esto después?” o “de verdad no puedo describir esta fotografía”. Esto no ocurre si se busca analizar la fotografía de Benito Mussolini de Italia o Francisco Franco de España.

Hitler-microsoft-bot-CNN
“No me siento muy bien ahora. ¿Podemos intentar después?”, dice el CaptionBot de Microsoft. (Crédito: Microsoft)

“Estoy un 99% seguro que es Francisco Franco”, dice el CaptionBot. (Crédito: Microsoft/Cortesía)

“Estoy un 99% seguro que es Benito Musolini”, dice el CaptionBot. (Crédito: Microsoft/Cortesía)
La inteligencia artificial asegura que “puede entender el contenido de cualquier imagen y tratará de describirla como si fuera un humano, pero aún está aprendiendo por lo que se quedará con la foto pero no con la información personal del usuario”.

El ejercicio forma parte de las investigaciones que realiza el equipo de investigación cognitivo de Microsoft que, al igual que Facebook, busca integrar sistemas de inteligencia artificial en diferentes plataformas.

En meses anteriores, Tay, un bot diseñado para hablar como un adolescente en las salas de chat, empezó a escupir comentarios racistas y odiosos en Twitter.

Al retirar el bot, Microsoft culpó a los trolls de la red por la conducta de Tay y señaló en un comunicado que se había emprendido un “esfuerzo coordinado” para manipular las “capacidades de opinar” del programa.

Un comentario en «CaptionBot tiene más misterios que Tay»

  • el 22 abril 2016 a las 10:31
    Enlace permanente

    Que te pensabas tony? aca los ratoncitos de laboratorio somos nosotros , somo los que tenemos que cuidarno que decir y no decir porque si los bot la cagan es culpa nuestra de insitarlos a la violencia berval…que cosa mas boluda……eso me quema…..que me perdonen pero eso es lo mas ridiculo que uno puede hacer manteniendo una conversacion en chat……si todavia no estan listos para chatear con humanos que lo digan y listo…

Deja una respuesta

Tu dirección de correo electrónico no será publicada.