20 abril 2024
CIENCIA

El lado oscuro de la ciencia

Los investigadores lo saben y los inversores también

En la medida que la inteligencia artificial evolucione será igual de imperfecta que su creador potenciando como corresponde, todos sus defectos.

Reflexionemos por un minuto; ¿cuánta civilización marginada (seres humanos en el mundo) podría ayudar la inteligencia artificial en materia de la salud, de la alimentación y de bienestar?. Sin embargo son muy claros los objetivos principales; INDUSTRIA.

¿Quién aseguraría que a través de la Inteligencia Artificial el mundo sería un mejor lugar donde vivir?

La mayor información que recibimos sobre las máquinas habla sobre su pericia en la seguridad, la defensa y la guerra. Allí vemos a determinados países, grandes empresas e infinidad de humanos esperando mayor eficacia en esa materia. Por lo tanto, la inteligencia artificial trabaja más en soluciones en ese terreno, pero a diferencia del anterior, allí se gana dinero.

Por mejores intenciones de ayuda o solidaridad, los seres humanos seremos los creadores de ésta nueva especies que en breve invadirá la Tierra. También seremos los responsables del buen o mal comportamiento de esa creación.

Según afirma una reciente publicación en la revista Science, cuando tratan de enseñar un idioma a estos sistemas de inteligencia artificial a partir de textos ya existentes; éstos se ven impregnados de un malévolo sesgo humano en cuanto a prejuicios raciales o de género.

Para medir esa experiencia, los autores utilizaron el Test de Asociación Implícita (TAI), un método que se usa con el fin de medir los prejuicios en los humanos.

Según los autores de la investigación, “replicamos un espectro de prejuicios conocidos, como los que mide el test TAI, utilizando un modelo de aprendizaje automático; muy utilizado y puramente estadístico, entrenado con textos de la web.

Los temas de género para la IA

Según explica la Agencia SINC, fue así como los investigadores “observaron las asociaciones de palabras que hacía el sistema analizando más de dos millones de palabras, y descubrieron que retenía los mismos prejuicios humanos transmitidos a través de la lengua”.

Como explica Aylin Caliskan, el sesgo en materia de género, por ejemplo, es bastante claro: “Los nombres femeninos se asociaban principalmente a términos relacionados con la familia, mientras que los masculinos lo hacían a términos relacionados con carreras profesionales”.

Los prejuicios raciales también estuvieron presentes. Según SINC: “Existen estudios sobre el comportamiento humano que muestran que un mismo curriculum tiene un 50% de posibilidades más de que el candidato pase a la fase de entrevista si su nombre es europeo-americano en lugar de afroamericano”.

En el caso de la investigación con IA ocurrió algo muy similar, y es que los nombres europeos y americanos se asociaban a estímulos o términos positivos relacionados con el placer, como ‘regalo’ o ‘felicidad’.

Otro de los autores del estudio, Arvid Narayan, achaca la transmisión de estos prejuicios no solo a la programación de sus creadores, sino también a los datos en los que el sistema ha estudiado. “Esos textos pueden venir directamente de la sociedad, de lo que escribe la gente on line”

“Lo que queremos comprobar simplemente es cómo el aprendizaje de una lengua puede influir en la transmisión de esos prejuicios, ver cómo absorbemos que una cosa es buena o mala según el uso que la gente hace de esas palabras”, concluye Joanna Bryson, coautora del estudio.

Un comentario en «El lado oscuro de la ciencia»

  • Es de terror pero es verdad parece que al final las maquinas jugaran indefinidamente con los humanos……nosoooootros….que horror…
    Si vos decis que pueden hacer el bien en la salud y en la alimentacion para la gente porque no lo hacen yaaa? porque para la guerra ya se estan usando la robotica….

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *