Leo con muchísimo interés el informe "Guerras robotizadas: la regulación de las armas robot" ("Robo Wars: The Regulation of Robotic Weapons") publicado) de Alex Leveringhauss y Gilles Giacca publicado por la Universidad de Oxford ( Descargar Robo-Wars).
Todos han oído hablar de los aviones no-tripulados, también llamados "drones" y del papel que están jugando, especialmente en Afghanistán e Irak, como armas de guerra. Estos drones salvan vidas (de un bando) y generan una asimetría total en el combate ya que el piloto que lanza los misiles sobre un blanco está a miles de kilómetros de distancia, cómodamente sentado en un sofá, y al terminar su jornada de trabajo se marcha a casa con sus hijos.
Por el momento, la mayoría de las empresas contratistas del sector de defensa se están concentrando en diseñar y producir robots no-letales, es decir, robots que pueden cumplir misiones de forma autónoma. Muchos de ellos pueden tener una enorme utilidad, por ejemplo, rastrear un terreno en busca de minas sin poner en riesgo la vida de seres humanos, otros podrían participar en operaciones de rescate encontrando personas atrapadas o perdidas.
Pero, los robots letales existen. Por ejemplo, el ejército de Corea del Sur tiene desplegados en la zona desmilitarizada con Corea del Norte robots de la marca Samsung SGR-A1 equipados con dos ametralladores y balas de goma. Estos robots están manejados por operadores pero pueden ser puestos en modo "automático" de tal manera que pueden identificar objetivos y disparar sin necesitar la autorización del operador.
Estos avances están llevando a los expertos a pedir una regulación legal internacional sobre este tipo de armas, un tema del que daba buena cuenta en este periódico hace dos meses Guillermo Altares (¿Sueñan los androides con batallas?) en un artículo que les recomiendo encarecidamente en el que se da cuenta de la campaña "Stop Killers Robots". El informe que aquí les dejo aporta una información muy útil para seguir la cuestión; contiene definiciones útiles y una buena discusión sobre cuestiones éticas y de legalidad.
No deja de ser una paradoja que reflexionemos sobre la legalidad de las armas o sobre qué constituye un uso "ético" de las armas: en último extremo, las armas no son las que causan las muertes, sino los operadores que las manejan. Sin embargo, el ser humano, en una de esas incréibles contradicciones que le caracteriza se esfuerza por acotar los usos legales y éticos de las armas, prohibir determinados tipos de armas o regular cuándo se pueden usar y cuándo no.
Todo esto nos deja un sabor bastante amargo: ¿podemos describir como "evolución" o "progreso" el hecho de que utilicemos de forma paralela nuestra inteligencia tanto para perfeccionar armas para matar como para perfeccionar las normas sobre cómo hacerlo? Si ustedes tienen una respuesta se lo agradecería. Yo confieso que no la tengo.
Y para aumentar su confusión les prometo una próxima entrada sobre algo mucho más preocupante: la capacidad de la inteligencia artificial de diseñar robotos que puedan aprender por sí mismos, sin necesidad de intervención humana, cómo matar mejor.
Hay 9 Comentarios
Desde el punto de vista del bando que use robots, se arriesgara menos gente. Desde el punto de vista del que enfrente robots estará en desventaja. Desde el punto de vista del muerto a balazos, sera lo mismo que lo sea por un robot que por un soldado? El problema no es que los robots maten sino que sigue habiendo guerras, solo cambian las armas.
Con respecto a las decisión de matar del robot en realidad no la tomara el mismo, sino los políticos que decidirán las condiciones bajo las que el robot apretara el gatillo, condiciones que serán transmitidas a los diseñadores del software que luego las pondrán en la maquina.
Tal vez sea mejor ser muerto por un robot y no por uno de esos llamados seres humanos del Estado Islamico
Publicado por: Gabriel | 17/12/2014 15:28:01
Don Jose Ignacio, hace Ud una pregunta de muy dificil contestacion, si a eso se lo puede llamar evolucion y progreso.El increible avanec tecnologico de las ultimas decadas no ha ido acompañado del mismo progreso en la evolucion humana y por eso la pregunta etica es de dificil solucion.Perfeccionamos la medicina y los medios para prevenir y curar enfermedades y a la vez se fabrican cada vez armas mas sofisticadas para matar. Es la contradicción del ser humano o el mito de la caja de Pandora en su caja hay todo lo bueno y lo malo de nosotros depende utilizar solo lo que nos mejora como especie y descartar lo que nos hace menos humanos entre ello la violencia y la guerra por eso decimos la ley de la selva. Un acuerdo internacional para regular esta nuevas armas quedara en agua de borrajas como la de la no proliferacion de armas atomicas y cada vez hay mas paises con acceso a ellas.
Si logramos cerrar la caja dejando dentro lo que nunca debio salir podriamos empezar de nuevo algo totalmente utopico pero sin utopia la vida no merece vivirse
Jose Luis Espargebra Meco desde Buenos Aires
Publicado por: jose luis espargebra meco | 17/12/2014 15:02:17
Precisamente esto es lo que advierte el científico ingles,
Stephen Hawking sobre la inteligencia artificial,
Publicado por: jose alo | 16/12/2014 22:36:49
Parece que se ponga en cuestión la utilidad de los robots y se simplifique a los que matan y cómo matan. Hoy en día sería muy difícil acceder a ciertos consumos diarios sin la colaboración de los robots. En la industria el automóvil son imprescindibles. Evitan la intoxicación de los operadores de pintura, por ejemplo. Además de abaratar costos en la construcción. Se utilizan robots para intervenciones quirúrgicas que salvan vidas. Son tantas las utilizaciones de los robots para fines pacíficos que los otros son una minoría.
Tengo que decir que los operadores de los drones no son los causantes de las muertes de las que se habla para luego marcharse a casa con sus hijos, tan tranquilos. Los operadores no actúan sin un mandato de un jefe de zona que autorice a disparar armas a distancia con los drones. El operador es un mero vehículo técnico que sabe cómo manejar el artefacto; sin la orden precisa del jefe de operaciones no hay acción.
Si le gusta la serie Homeland, verá en uno de sus episodios cómo los operadores actúan o rectifican la acción dependiendo de la orden recibida por su jefe. Y sí, es el progreso lo que nos lleva a investigar y desarrollar ciertos artefactos que puedan contrarrestar el terrorismo islamista o el que sea. Todavía depende del ejecutor que existan daños colaterales o no.
Publicado por: txarlibraun | 16/12/2014 20:42:06
¿ hay alguien de las cúpulas militares o de las altas esferas política y económica mundiales que no haya perdido el juicio y que tenga el valor suficiente para plantar cara a estas sinrazones?
Publicado por: nina | 15/12/2014 19:04:08
No entiendo porque un robot planificado para matar a quien quiere atacar-matar a quien planifico el robot, es mas asesino que quien trata de hacerlo...
Si vendria alguien a matar a un dirigente, y el guardaespaldas mata a ese alguien para defender al dirigente, tambien categorizaria Ud. a ese guardaespaldas como "asesino"?
Publicado por: haim barzel barzel | 15/12/2014 16:18:15
Bueno, lo normal desde que se invento el tirachinas y pasando por la ballesta. Nada nuevo bajo el sol.Si llegan los marcianos esperemos que este bien desarrollada. O que Occidente lleve la delantera a paises satrapas como Rusia, China o Arabia Saudi....porque el dia que perdamos la delantera nos comen crudos. Lo realmente nuevo serian las preocupaciones de Stephen Hawking sobre la inteligencia artificial, que dado el secuestro de la politica y el interes publico por los poderes economicos, lleva las de convertirse en realidad simplemente por burrosis cronica de la actual "clase" politica.
Publicado por: Israel | 15/12/2014 16:17:10
Interesante artículo.
El desarrollo de nueva tecnología no solo cambia la forma de vivir del ser humano, sino también, lógicamente, la forma de combatir, de hacer la guerra.
Ya desde hace mucho tiempo hay numerosos y sofisticados sistemas de armas inteligentes, unos en el mercado, otros es de suponer, que mantenidos en secreto, capaces de actuar por si solos, sin requerir personal, al identificar un determinado elemento, material o humano, elemento definido por la persona que lo ha programado como el enemigo.
La utilización de nueva tecnología, como a la que hace referencia el artículo, en la táctica militar, surgiendo conflictos tecnológicamente muy asimétricos, desde mi punto de vista, va a provocar que cuando se produzca un conflicto armado se amplié enormemente el Teatro de Operaciones, buscando tres objetivos: Primero, Aumentar lo máximo posible la dispersión, para reducir la acción del fuego. Segundo, aumentada dicha dispersión los combatientes buscaran cada vez más protegerse de ataques entre la población civil. Tercero, el mando deberá incluir dentro del Teatro de Operaciones como objetivos los centros de control de sofisticadas armas controladas a distancia, y valorar si es rentable o no su ataque.
Publicado por: ECO | 15/12/2014 13:06:32
Los robot asesinos ya están matando miles. Hay una cosa denominada trading automático que hace millones de operaciones de compra venta por segundo y que ningún ser humano es ya capaz de controlar. Y es letal. Diseñados para ganar dinero, ese dinero ya ha comprado a la mayoría absoluta del poder político en EEUU. ¿Hay alguien que puede programar estos robots para no ganar dinero? (lo de intentar regular alguna de esas cosas es de risa, porque no se puede y porque esos políticos cobran por impedirlo). El cambio climático, las cárceles privadas, la sanidad privada ya matan. No se dejarán de usar porque ofrecen ventajas frente a los operadores humanos. Para las armas, lo mismo: si ofrecen ventajas se usarán, porque los presupuestos públicos necesarios para su desarrollo serán votados por los políticos pagados por el dinero del trading automático.
Publicado por: Frydman | 15/12/2014 9:55:50