Contenidos para blogs, sitios y boletines electrónicos

Expertos exigen prohibir soldados robot

23. noviembre 2017 | Por | Categoria: Tecnología - Ciencia

carta_20x15 ima-twit

Síguenos ahora también en Twitter y Facebook

Submarinos rusos lanzan 10 misiles de crucero contra el Estado Islámico en Siria

Las armas autómatas son empleadas para matar, científicos en Inteligencia Artificial de todo el mundo sugieren la prohibición de los robot asesinos.

Las campañas impulsadas por investigadores en inteligencia artificial (IA) de todo el mundo para promover la prohibición o al menos la regulación de las armas autónomas o robots asesinos han cosechado su primer éxito.

El lunes pasado las Naciones Unidas abrió en Ginebra sus primeras conversaciones oficiales para un tratado sobre el uso de armas autónomas y durante toda la semana pasada expertos de los países miembros y representantes de organizaciones internacionales, del mundo académico, la industria y la sociedad civil debatieron sobre las dimensiones tecnológicas, militares, éticas y legales de estas máquinas letales.

En paralelo, el investigador en IA Stuart Rusell, auspiciado por la organización que promueve la campaña Stop Killer Robots (parar los robots asesinos), presentó un cortometraje – Slaughterbots– que describe un futuro inquietante en el que las armas autónomas letales se han vuelto baratas y omnipresentes y seleccionan y disparan contra objetivos humanos sin la intervención de ninguna persona. Sus autores explican que el vídeo es ficción “pero representa un escenario que podría volverse demasiado real si no actuamos pronto”.

Es una alerta reiterada por científicos y líderes empresariales que trabajan con IA
Es una alerta reiterada por científicos y líderes empresariales que trabajan con IA. La semana pasada 122 de los principales investigadores en robótica e IA de Australia pidieron por carta al primer ministro del país, Malcolm Turnbull, que se pronuncie en contra de las armas autónomas letales y exija su prohibición en la cumbre anual sobre control de determinado armamento que la ONU celebra esta semana. Simultáneamente, otro centenar de expertos de Canadá hacía lo mismo con el primer ministro canadiense, Justin Trudeau.

Y ambas cartas seguían la estela de la firmada el pasado mes de agosto por 137 especialistas o fundadores de empresas de IA sobre la necesidad de regular desde ya el desarrollo de armas capaces de matar sin control humano.

“El tema de las armas autónomas y de la necesidad de enfocar la IA a aplicaciones socialmente buenas fue objeto de debate en varios paneles durante la conferencia más importante del sector, celebrada en Melbourne (Australia) este verano, y de ahí surgió la iniciativa de enviar una carta a la ONU alertando del peligro potencial de las armas letales autónomas”, explica el director del Instituto de Investigación en Inteligencia Artificial (IIIA-CSIC), Ramón López de Mántaras, que rubricó la carta junto a empresarios como Elon Musk (Tesla), Mustafa Suleyman (cofundador de DeepMind , adquirida por Google), Demis Hassabis (directora ejecutiva de Google) o Gary Marcus (Geometric Intelligence), entre otros.

López de Mántaras asegura que la oposición a los robots soldados y a las armas autónomas es mayoritaria entre los científicos que trabajan con IA, pero no unánime. Expertos como Ronald Arkin, del Instituto de Tecnología de Georgia (Atlanta), defienden que los robots soldados, los tanques no tripulados y los aviones autónomos permitirán salvar muchas vidas, de soldados y también de civiles, porque responderán a las acciones del campo de batalla más rápido y con mayor precisión.

López de Mántaras opina lo contrario: “Si hay algo que ahora frena los conflictos es la presión de los familiares y de la opinión pública contra la muerte de soldados, así que si no mueren soldados no habrá estas protestas y proliferarán los conflictos; será más probable que ciertos países entren en guerra y los que morirán serán los civiles”. Agrega que también hay consideraciones morales y éticas para no automatizar las guerras: “Es indigno delegar en una máquina la capacidad de matar”. Y sostiene que hay razones técnicas para asegurar que los sistemas de inteligencia artificial no serán capaces de respetar los principios básicos de todo conflicto armado: proporcionalidad en el uso de la fuerza, discriminación entre civiles, comba-tientes, heridos o rendidos, y reducción al máximo de los daños colaterales. “Si para los humanos ya es complicado evaluar cada situación para respetar esos principios, para los sistemas de visión artificial aún más”, comenta.

Vestidos de Fiesta – Novias – Madrinas – 15 años

Inteligencia Artificial y sus dioses

Sudamérica cambia para el vehículo eléctrico

Smartphone Google Pixel 2

¿Quién descubrió la teoría del Big Bang?

Encontraron un Arca de Noé en el Monte Ararat

Los diez avances tecnológicos para el 2010

Los nuevos super soldados

 

Más artículos en esta Sección:

Deje su comentario