Tica Font, Directora del Instituto Catalán Internacional por la Paz
Hasta principios del 2000 los robots de uso militar eran simples adaptaciones de los robots civiles, no podemos decir que existiera un diseño de robot militar propiamente dicho. Cuando EEUU invade Irak en el 2003 los militares disponen de unos pocos vehículos no tripulados, drones, actualmente existen drones armados con misiles que pueden despegar, volar hasta un destino establecido, recargar combustible en vuelo y aterrizar sin la intervención humana, es decir que están programados para llevar a cabo estas tareas sin que un militar los esté comandando a distancia.
Los drones actuales están siendo utilizados para diversas tareas militares, espiar, obtener información, apoyar operaciones militares y disparar misiles contra presuntos terroristas. Las misiones que más debate generan estos drones en términos morales y de legalidad está siendo la de llevar a cabo asesinatos selectivos por parte de Estados Unidos en Pakistán, Afganistán, Yemen, Somalia o Líbano.
La industria y los centros de investigación robótica están trabajando en prototipos de robots con mayores capacidades autónomas, se especula que unos veinte o treinta años existirán robots que una vez activados pueden seleccionar y atacar objetivos sin la intervención humana, los llamados “robots autónomos letales” o “robots asesinos”.
Estas nuevas armas con capacidad de decir por si mismas si disparan o no, si matan o no, están generando un intenso debate. Por una parte se cuestiona si es posible o no, que los algoritmos de programación de los robots incluyan el cumplimiento del Derecho Internacional, el Derecho Internacional Humanitario o la Convención de Ginebra. En concreto se debaten tres principios jurídicos esenciales.
La responsabilidad, un robot es evidente que no tiene capacidad legal, moral o de cualquiera otro tipo y, por lo tanto, no puede ser responsable de sus acciones. Si hay un error o un acto de crimen de guerra ¿quién será el responsable? ¿El programador informático? ¿El fabricante?, ¿El militar? ¿El político que autoriza el despliegue? ¿Y sí es usado por un agente privado no estatal?
El principio de proporcionalidad exige que, antes de atacar, se debe evaluar el daño que pueda causarse a la población civil con respecto a la ventaja militar obtenida con la acción. La proporcionalidad es propia del discernimiento humano y se basa en conceptos como el sentido común, actuar de buena fe o que la orden sea razonable; para determinar si una ataque ha sido proporcional es necesario examinar si la persona que ha tomado la decisión de atacar estaba razonablemente bien informada de la situación, de las circunstancias o si ha hecho un uso razonable de la información disponible. La cuestión estriba en determinar si los robots pueden ser programados para replicar procesos psicológicos en los juicios de valor humanos necesarios para evaluar la proporcionalidad de una decisión.
El principio de distinción entre combatientes y otros actores como insurgentes, civiles, niños, mujeres ancianos, etc. El robot no solamente tiene que ser capaz de distinguir si el objetivo es combatiente o no, sino que también tiene que hacer un balance de intenciones. En los conflictos actuales no es fácil identificar a los combatientes, ya que a menudo no llevan uniforme o insignias distintivas y suelen mezclarse con la población civil.
Christof Heyns, relator especial sobre ejecuciones extrajudiciales, ante la muy plausible incapacidad de que se puedan programar robots para que cumplan las normas del derecho internacional, recomendó a los Estados de la Asamblea General de UN que establezcan una moratoria en el desarrollo de ciertos robots letales.
Human Rights Watch es más contundente, afirma que las armas totalmente autónomas serían incapaces de cumplir las normas del derecho internacional, por lo cual deben de ser declaradas ilegales y prohibir su desarrollo2. A tal efecto ha puesto en marcha, junto con otras organizaciones una campaña para su prohibición.
Hay 3 Comentarios
El avance de la electrónica, la robótica y los sistemas Arduino ha supuesto un cambio radical en la tecnología y en la capacidad de muchos sistemas electrónicos de dar respuestar automáticas o funcionar de forma autónoma para realizar diferentes tareas.
Así como esto se ha implementado en el ámbito laboral, también ha tenido sus aplicaciones en la guerra, y los robots o drones armados son una de estas aplicaciones.
Y desde luego supone un gran dilema quien se hace responsable de las acciones de estos robots, y por lo tanto de si su uso es moralmente adecuado.
Publicado por: Ricardo Perea | 20/08/2018 14:34:16
Le dejo un microcuento sobre la decadencia de nuestro mundo reflejado en su hermana, la luna, devastada y llena de heridas en forma de cráteres.
Pinchen mi nombre si les apetece leer.
Publicado por: Sony Sato | 05/02/2014 11:33:01
No les quepa (cava?) la menor duda ( dadu dadu da...) : Los haran, los programaran, los emplearan...( o mejor dicho se auto-emplearan...)
Nada mejor que un milico ( bajo anfetaminas de combate) detras del "Rover" para dirigir la GBU 24 sobre una boda afgana...
Excelente post : Gracias
PD : NO soy Sarah Connor
Publicado por: Robespute de Saint Pinard | 05/02/2014 10:20:27