hi

Altera a científicos el desarrollo de robots asesinos

Robots asesinos. The Korea Times reportó que el Instituto Avanzado de Ciencia y Tecnología (Kaist) de Corea estaría colaborando con un contratista de defensa para diseñar armas con inteligencia artificial, incluidos submarinos no tripulados y cuadricópteros armados. Esto llevó a una carta abierta firmada por 50 académicos, incluidos cuatro del Reino Unido, que indicaban que cesarían toda colaboración con la universidad. “Si se desarrollan, las armas autónomas serán la tercera revolución en la guerra”, dijeron. “Permitirán que la guerra se dispute más rápido y a una escala mayor que nunca. Ellos tienen el potencial de ser armas del terror. Los déspotas y los terroristas podrían usarlos contra poblaciones inocentes, eliminando cualquier restricción ética”.

Continúa The Times:

“Esta caja de Pandora será difícil de cerrar si se abre. Al igual que con otras tecnologías prohibidas en el pasado, como los rayos láser cegadores, podemos decidir simplemente no desarrollarlos”.

Noel Sharkey, de la Universidad de Sheffield, fue uno de los que firmó. Dijo que los expertos estaban preocupados porque esta era la primera vez que una institución civil parecía haberse involucrado en el desarrollo de armas autónomas. “Esta es una advertencia de gran parte de la comunidad académica de que no trabajaremos con ellos”.

El disparo de advertencia parece haber sido entendido. Shin Sung-chul, presidente de Kaist, envió una carta al profesor Sharkey diciendo: “Kaist no llevará a cabo ninguna actividad de investigación contraria a la dignidad humana, incluidas las armas autónomas que carecen de un control humano significativo”.

El profesor Starkey dijo que esto probablemente era, en el mejor de los casos, un revés temporal para los robots asesinos. Se sabe que Estados Unidos, China y Rusia están trabajando en ellos, y él está pidiendo una prohibición global acordada en las Naciones Unidas. Se involucró en la campaña hace una década después de leer documentos militares estadounidenses que detallaban sus planes de robots. “Como profesor de robótica, pensé que estos tipos estaban locos, era una visión de ciencia ficción de la tecnología”.

“Estas armas se están desarrollando rápidamente. Estados Unidos tiene aviones de combate autónomos, Rusia tiene tanques autónomos. Pero, ¿qué sucede cuando un enjambre de tanques de una persona se encuentra con otro? No es predecible. No tenemos manera de decir cómo estos dispositivos se relacionarán entre sí”.

Más que eso, el profesor Starkey cree que es imposible garantizar que un robot siga las reglas de la guerra.

“Puedes programar un robot, pero no para circunstancias imprevistas. Hay muchas circunstancias imprevistas en la guerra. Requiere intuición humana”.

Dio un ejemplo reciente: “Hubo una situación en la que los marinos estadounidenses en Irak atraparon a un grupo de insurgentes en un callejón y levantaron sus ametralladoras para matar, pero notaron que llevaban un ataúd. Matas a un grupo de insurgentes que llevan un ataúd a un funeral, creas una gran cantidad de dolor. Su respuesta fue quitarse los cascos, inclinar la cabeza y dejarlos ir. Un robot los habría matado a todos“.

El departamento de defensa de EU está desarrollando enjambres de drones autónomos y un informe de Harvard el año pasado señaló que los drones ya eran más baratos que muchas municiones. “Imagine un dron de bajo costo con el alcance de un ganso de Canadá, un ave que puede cubrir 1.500 millas en menos de 24 horas a una velocidad promedio de 60 millas por hora”, dijo. “¿Cómo respondería un grupo de combate de un portaaviones a un ataque de millones de drones explosivos kamikaze aéreos?”

 

 

 

 

 

 

 

 

 

 

 

-->