Promocione su empresa por Internet

El lado oscuro de la ciencia

20. Abril 2017 | Por | Categoria: Tecnología - Ciencia

carta_20x15 ima-twit

Síguenos ahora también en Twitter y Facebook

El lado oscuro de la ciencia

Diseño de modas

¿Estamos preparados para extraterrestres?

Ranas patas rojas

No era Ramsés II

El robot acompañante

Científicas del mundo

Países que lideran la tecnología mundial

Los investigadores lo saben, los inversores también. En la medida que evolucione la inteligencia artificial, será igual de imperfecta que su creador haciendo el bien y el mal.

Pensemos por un minuto a cuanta civilización marginada, y cuantas personas en el mundo podría ayudar la inteligencia artificial en el área de la salud, de la alimentación y de la contención. Sin embargo la gran mayoría de la gente en la cual se piensa ayudar, realmente no cuenta con los medios para pagar. ¿Quién aseguraría que a través de la Inteligencia Artificial eso tuviera solución?

La otra cosa bien diferente si queremos ver en las maquinas su pericia por la seguridad, la defensa y la guerra. Allí están países, e infinidad de humanos esperando mayor eficacia, y la inteligencia artificial tiene soluciones también en ese terreno, pero a diferencia del anterior, aquí se gana dinero. El ser humano, por más buenas intenciones que tenga en definitiva, ees el creador de esta nueva ola de especies que se espera que en breve, tenga su propio comportamiento.

Según su experiencia, publicada en la revista Science, cuando tratan de enseñar un idioma a estos sistemas a partir de textos ya existentes, se ven impregnados de un malévolo sesgo humano en cuanto a prejuicios raciales o de género.

Para medir esto, los autores utilizaron el Test de Asociación Implícita (TAI), un método que se usa con el fin de medir los prejuicios en los humanos. Según los autores de la investigación, “replicamos un espectro de prejuicios conocidos, como los que mide el test TAI, utilizando un modelo de aprendizaje automático, muy utilizado y puramente estadístico, entrenado con textos de la web.

Según explica la Agencia SINC, fue así como los investigadores “observaron las asociaciones de palabras que hacía el sistema analizando más de dos millones de palabras, y descubrieron que retenía los mismos prejuicios humanos transmitidos a través de la lengua”. Como explica Aylin Caliskan, el sesgo en materia de género, por ejemplo, es bastante claro: “Los nombres femeninos se asociaban principalmente a términos relacionados con la familia, mientras que los masculinos lo hacían a términos relacionados con carreras profesionales”.
Los prejuicios raciales también estuvieron presentes. Según SINC: “Existen estudios sobre el comportamiento humano que muestran que un mismo curriculum tiene un 50% de posibilidades más de que el candidato pase a la fase de entrevista si su nombre es europeo-americano en lugar de afroamericano”. En el caso de la investigación con IA ocurrió algo muy similar, y es que los nombres europeos y americanos se asociaban a estímulos o términos positivos relacionados con el placer, como ‘regalo’ o ‘felicidad’.

Otro de los autores del estudio, Arvid Narayan, achaca la transmisión de estos prejuicios no solo a la programación de sus creadores, sino también a los datos en los que el sistema ha estudiado. “Esos textos pueden venir directamente de la sociedad, de lo que escribe la gente on line”

“Lo que queremos comprobar simplemente es cómo el aprendizaje de una lengua puede influir en la transmisión de esos prejuicios, ver cómo absorbemos que una cosa es buena o mala según el uso que la gente hace de esas palabras”, concluye Joanna Bryson, coautora del estudio.

Más artículos en esta Sección:

Un comentario
Deja tu comentario »

  1. Es de terror pero es verdad parece que al final las maquinas jugaran indefinidamente con los humanos……nosoooootros….que horror…
    Si vos decis que pueden hacer el bien en la salud y en la alimentacion para la gente porque no lo hacen yaaa? porque para la guerra ya se estan usando la robotica….

Deje su comentario