Armas autónomas. Reflexión sobre riesgos desde la perspectiva del DIH
Autora: Marcela Roa Avella
Quienes deseen realizar una publicación deberán comunicarse a bitacoralegalenaccion@gmail.com
Armas autónomas. Reflexión sobre riesgos desde la perspectiva del DIH
Autora: Marcela Roa Avella
Marcela Roa Avella. Abogada, especialista en ciencias penales y criminológicas, magíster en derecho penal. Docente investigadora. Con experiencia y profunda pasión por la investigación en asuntos de género, violencia contra la mujer y contra la familia; al igual que las relaciones entre la Inteligencia Artificial y el derecho. Docente en pregrado y postgrado, en las cátedras de Criminología, Introducción al derecho, Teoría Jurídica, Justicia Restaurativa, DDHH, DIH. Coordinadora del Semillero “Género, grupos minoritarios y derecho. Editora de la Revista prolegómenos de la facultad de derecho de la Universidad Militar Nueva Granada.
En esta ponencia se analiza el desarrollo y uso de armas autónomas en conflictos armados; destacando sus implicaciones éticas, legales y operacionales. A partir de una revisión bibliográfica de fuentes especializadas, se presentan definiciones clave sobre los sistemas que emplean inteligencia artificial para seleccionar y atacar objetivos sin intervención humana. Se examina su evolución desde los primeros dispositivos semiautónomos hasta los actuales drones y vehículos no tripulados, resaltando las ventajas tecnológicas y los riesgos asociados, así como la falta de predictibilidad y el problema de la caja negra en la toma de decisiones automatizada.
Los resultados evidencian preocupaciones sobre la delegación de decisiones letales a sistemas de IA, por la posible violación del Derecho Internacional Humanitario (DIH) y la ausencia de responsabilidad clara en casos de fallos operacionales. Se discute la necesidad del control humano en estos sistemas para garantizar la proporcionalidad y distinción en el uso de la fuerza.
En conclusión, la ponencia resalta la urgencia de regulaciones internacionales más estrictas y un enfoque ético en el desarrollo de estas tecnologías, evitando su uso sin supervisión humana y asegurando el cumplimiento de principios fundamentales del DIH.
El avance tecnológico ha transformado radicalmente los conflictos armados, introduciendo sistemas de armas autónomas capaces de operar sin intervención humana en la selección y ataque de objetivos. Estas innovaciones han generado un intenso debate sobre sus implicaciones éticas, legales y operacionales, en especial en lo referente a la toma de decisiones letales por parte de máquinas y la falta de responsabilidad humana directa.
Esta ponencia se propone analizar el desarrollo, funcionamiento y riesgos de las armas autónomas, identificando sus impactos en el Derecho Internacional Humanitario (DIH) y la seguridad global. A través del estudio de su evolución, se examinan las ventajas estratégicas que ofrecen, tales como la rapidez de respuesta y la reducción del riesgo humano en combate, pero también las preocupaciones que se suscitan, derivadas principalmente de la imprevisibilidad de sus acciones y la posible violación de principios fundamentales del DIH, como la distinción y proporcionalidad.
Dada la creciente inversión de los Estados en estas tecnologías, es fundamental evaluar los límites éticos y legales de su implementación. El presente análisis busca aportar una visión crítica sobre la necesidad de regulaciones claras y precisas que garanticen el control humano en el uso de la fuerza, evitando escenarios de deshumanización en los conflictos bélicos.
Sin lugar a dudas la guerra es un fenómeno indeseable, que a pesar de ello parece resistirse a desaparecer de la sociedad humana. Más allá de las diversas motivaciones de los Estados para entrar en esas confrontaciones, es una verdad a todas luces, que la guerra lleva aparejado un negocio enorme y muy lucrativo. De acuerdo con Amnistía Internacional “Cada año se fabrican 12.000 millones de balas. Esa cantidad es casi suficiente para matar dos veces a todos los habitantes del mundo” (Amnistía Internacional , 2024). En el mismo sentido ha afirmado esta organización, que, a pesar de existir un tratado internacional sobre comercio de armas que busca mitigar transferencias internacionales de estas, ello no ha logrado disminuir este comercio, aumentando las posibilidades de que tales armas y municiones se utilicen para cometer violaciones al DIH. A lo anterior se suma que grandes exportadores de armas (teales como Rusia y Estados Unidos) no han ratificado el tratado, o algunos otros países habiéndolo ratificado, no lo cumplen (Amnistía Internacional , 2024).
En ese escenario, surgen preocupaciones por los desarrollos de nuevos tipos de armas, en especial las armas autónomas, a las que nos referiremos en esta ponencia. A efectos de precisar el significado este tipo de armas, es necesario mencionar algunas de las definiciones más divulgadas. En ese sentido,
El CICR ha señalado que “los sistemas de armas autónomas son todas las armas que seleccionan objetivos y les aplican la fuerza sin intervención humana.” (CICR, 2022)
Por su parte Javorsky/ tegmark se refieren a ellas como aquellas armas que remueven todo control humano en el uso de fuerza letal (Tegmark & Javorosky, 2019)
La Organización internacional Human Rights Watch, las define como las “que funcionan sin un control humano significativo, delegando las decisiones de vida o muerte en máquinas. La máquina, en lugar del operador humano, determinaría dónde, cuándo y contra qué fuerza se aplica” (Human Rights Watch, 2024)
Por su parte, es interesante la postura de Liron Shilo, (investigador de la U. Georgetown) quien propone una re-conceptualizacion de las armas autónomas, ya que considera que las máquinas impulsadas por IA, comúnmente denominadas sistemas de armas autónomos (AWS), como entidades altamente sofisticadas capaces de imitar al menos algunas capacidades humanas de toma de decisiones y ejecutar una variedad de tareas en consecuencia, sin ninguna intervención humana. Como tales, se las denominará entidades artificiales autónomas armadas (en adelante: “AAWE” o “entidades AA”). Específicamente hace énfasis en que las armas autónomas designadas para activamente iniciar y tomar decisiones letales (de vida o muerte),siendo más sistemas reactivos que defensivos (Shilo, 2018).
Los sistemas de armas autónomos más antiguos seleccionan y aplican fuerza a los objetivos basándose en el procesamiento de sensores en lugar de en la intervención humana. Algunos sistemas de armas autónomos han existido durante años, pero los tipos, la duración de la operación, el alcance geográfico y el entorno en el que operan dichos sistemas han sido limitados.
Las primeras armas automatizadas, o con cierto grado de autonomía se desarrollaron en las décadas de los 70´s y 80´s; la más remota parece ser la MARK 60 CAPTOR, una mina naval anti-submarina desarrollada por Estados Unidos, básicamente diseñada para actuar en aguas profundas en detección de submarinos hostiles (Truver, 2016) a través del Reliable Acoustic Path (RAP), esta mina identifica el objetivo, sale del caparazón y destruye el objetivo. Posteriormente en los 80´s se encuentra el AEGIS WEAPON SYSTEM, (Lockheed Martin, s/f) el cual es un sistema para detectar misiles dirigidos hacia un territorio, interceptarlos en el espacio y destruirlos antes de que logren alcanzar el objetivo. Este sistema puede ajustarse a modo automático para que dispare misiles defensivos, sin intervención humana. Hoy en día existen versiones más desarrolladas, semejantes a estos dos tipos de armas.
En los conflictos armados recientes se ha visto un mayor uso de tecnologías altamente automatizadas; el más difundido y conocido quizás es el uso de drones armados y pilotados de forma remota, utilizados principalmente por parte de EE. UU. Estos aviones de combate son capaces de numerosos procesos de vuelo automatizados sofisticados, incluidos vuelos totalmente automatizados despegue y aterrizaje, búsqueda de puntos de referencia GPS y mantenimiento de una órbita alrededor de un GPS, ubicación a una altitud designada, así como captura de imágenes automatizadas y capacidades de procesamiento de las mismas. Si bien estos sistemas están altamente automatizados, no se consideran totalmente autónomos porque todavía funcionan bajo condiciones humanas supervisión y control directo.
Sin embargo, en los últimos años, los avances tecnológicos han permitido el desarrollo de sistemas cada vez más autónomos, con mayor percepción visual, detección, previsión y planificación de movimiento, entre otros. Es indiscutible además, que muchos de los avances tecnológicos dejan entrever amplios beneficios tales como menores costos, menos errores humanos, mayor velocidad de reacción, lo que genera invaluables oportunidades de uso en actividades de inteligencia, vigilancia, detección, reconocimiento, detección, entre otros. Por ejemplo, los vehículos no tripulados, que usan IA pueden operar con mayor velocidad, ser usados en entornos hostiles en los que la presencia humana sería un alto factor de riesgo, o donde las comunicaciones tradicionales afectarían la actividad y las operaciones; aumentando las oportunidades de superar a los sistemas enemigos. En ese escenario, no es raro entonces que muchos estados, estén invirtiendo capital, tiempo y esfuerzo en el desarrollo de en el desarrollo de armas autónomas letales. Los recientes avances apuntan a una mayor duración en el despliegue, mejor acceso en áreas geográficas difíciles, mejor identificación de objetivos, entre otros.
La discusión aquí se enfoca en establecer que estamos en presencia de desarrollos de diversos sistemas de armas con diferentes tipos de autonomía, dentro de los que los sistemas letales de armas autónomas son las que generan mayor inquietud. Nos referimos a “sistemas de armas que, una vez activados, pueden seleccionar y atacar objetivos sin mayor intervención por un operador humano”, armas, que van desde los drones armados, ya mencionados hasta vehículos, sumergibles, torres centinela, sistemas de detección o despliegue de misiles, todas ellas con amplio uso de la IA.
Los avances tecnológicos están estimulando el desarrollo de sistemas de armas autónomos letales o "robots asesinos", que operarían sin un control humano significativo, delegando decisiones de vida o muerte a las máquinas. Estos sistemas de armas plantean graves problemas y preocupaciones éticos, morales, legales, de rendición de cuentas y de seguridad. Human Rights Watch es miembro fundador de la campaña Stop Killer Robots, “una coalición de la sociedad civil que pide un nuevo tratado internacional para prohibir y restringir los sistemas de armas autónomos”. (Human Rigths watch, 2010)
Habiendo ya establecido que la presencia de la IA en el desarrollo de armas, es una realidad que además avanza a pasos agigantados, es necesario indicar, porque ello es motivo de preocupación e inquietud por parte de diversas entidades internacionales, doctrinantes y expertos.
Debemos partir entonces de recordar brevemente a qué nos referimos cuando hablamos de la IA, y en ese sentido, (Rouhiainen, 2018, pág. 17) precisa que la Inteligencia Artificial o IA “es la capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar lo aprendido en la toma de decisiones tal como lo haría un ser humano”. Esa capacidad, permite que los dispositivos que la utilicen analicen grandes cantidades de datos y entreguen información valiosa para la toma de decisiones. La IA sido considerada por (Corvalán, 2018) como la revolución de las revoluciones, precisando que “su desarrollo actual y potencial, se debe a que logra igualar o superar ampliamente ciertas capacidades cognitivas, a partir de procesar más eficientemente los datos y la información en cada vez más actividades humanas.
En complemento a esta interpretación, (Miró Linares, 2018) estima que la IA no es solo el tratamiento de información, sino que se trata de diversas y múltiples técnicas avanzadas en el tratamiento matemático de datos, dentro de los que se incluye el Big Data, la minería de datos y el machine learning.
Para construir una Inteligencia Artificial que contribuya a su propia operación, esta debe ser alimentada mediante uno o varios de los diferentes tipos de aprendizaje automático, tales como los ya mencionados machine learning y el deep learning; (Rouhiainen, 2018, pág. 19) indica que el aprendizaje automático o machine learning busca que los dispositivos tengan la capacidad de aprender sin estar programados para ello, lo cual se logra mediante el uso de algoritmos que les permite aprender de los patrones de datos; y por otro lado, en cuanto al aprendizaje profundo o deep learning, éste se utiliza para la solución de problemas complejos y se crea a partir del uso por ejemplo, de redes neuronales organizadas de manera que pueden analizar y procesar la información de forma correcta.
Respecto a las formas de aprendizaje automático, conviene subrayar que éste se subdivide en aprendizaje supervisado que es aquel en el que se entrena el algoritmo utilizando preguntas o características y respuestas que funcionan como etiquetas, así, el algoritmo desarrolla la capacidad de hacer predicciones, conociendo las características. Por su parte en el aprendizaje no supervisado, solo se entregan al algoritmo las características, pero no las etiquetas; esto es, se pretende que agrupe datos, de acuerdo con las características compartidas por estos. A lo anterior, se unen los modelos de machine learning, dentro de los que se destacan tres modelos principales; los modelos lineales, los modelos de árbol y las redes neuronales. (Sandoval, 2018).
Es precisamente en el campo del denominado aprendizaje no supervisado anteriormente mencionado, donde surge uno de los conceptos más importantes, cual es el de la caja negra o el black box.
El investigador (Heaven, 2020) de MIT indica, para clarificar el término black box, que “el éxito del aprendizaje profundo se debe a su capacidad de adaptación: las mejores redes neuronales se ajustan y adaptan para crear otras mejores, y los resultados prácticos han superado la comprensión teórica. Es casi imposible entender los detalles de cómo funciona un modelo entrenado, lo que ha hecho que lleguen a comprarse con cajas negras” (1).
(Jamalzadeh, 2024) forma parte de un pequeño pero creciente grupo de investigadores que intentan mejorar la inteligencia artificial para que sea capaz de explicarse y ayudarnos a saber qué pasa dentro de la caja negra. El objetivo de la llamada IA interpretable o explicable (XAI, por sus siglas en inglés) consiste ayudar a las personas a comprender qué características de los datos tiene en cuenta una red neuronal, una información que permitiría determinar si el modelo resultante es preciso e imparcial. Una solución consiste en crear sistemas de aprendizaje automático que muestren su funcionamiento. Este enfoque se conoce como IA glassbox (caja de cristal), y es justo el contrario al de la caja negra. Los modelos glassbox suelen ser versiones muy simplificadas de una red neuronal en las que resulta más fácil rastrear cómo los diferentes datos afectan al modelo.
La claridad o transparencia de la IA, se relaciona con dos características deseables en estos algoritmos, la predictibilidad y la comprensibilidad (predictability and understandability), las implican que “estos sistemas deberían hacer aquello que se espera que hagan, y deberían hacerlo por razones entendibles (inteligibles)”. (Holland Michel, 2020) (2).
Así las cosas, construir armas autónomas que se desplieguen de manera segura, es un gran reto en la industria de la defensa. Es evidente que el entorno de la guerra y de los conflictos armados en general, se caracteriza por ser caótico, desordenado, y los sistemas autónomos deben ser capaces de actuar en él.
Adaptarse a las acciones inesperadas del enemigo, dificultades e interceptación de las comunicaciones, riesgos ambientales, la presencia de civiles en el marco de las confrontaciones; son retos a los que los sistemas autónomos deben estar preparados para responder, en el marco de la imprevisibilidad. En este tema, es importante tener en cuenta que, respecto de los sistemas de armas autónomas, la impredictibilidad operacional es inherente a los sistemas que han sido diseñados para manejar un amplio rango de inputs, en ambientes complejos y condiciones dinámicas”. A lo anterior, se suma que no es posible establecer de forma previa, cómo responderá el sistema de IA e ambientes caóticos o complejos, ya que aquel podrá buscar el cumplimiento del objetivo, en formas que a juicio del humano no parezcan lógicas o razonables. (Holland Michel, 2020)
Debido a que los sistemas de IA carecen de una inteligencia contextual amplia, (o sentido común, comparable al de los humanos), incluso los algoritmos relativamente sofisticados están sujetos a fallas si enfrentan situaciones fuera de sus parámetros de diseño previstos. La complejidad de los sistemas modernos intensifica este riesgo, ya que dificulta la anticipación de todos los posibles fallos o comportamientos emergentes que pueden ocurrir en un sistema cuando se pone en funcionamiento.
Debe tenerse en cuenta que los denominados sistemas de armas autónomos, tienen capacidad de usar la fuerza contra objetivos, sin intervención humana, si bien ésta se puede mantener en el encendido, activación o lanzamiento (según el tipo de arma del que se trate); lo cierto es que con posterioridad el sistema “inicia o desencadena un ataque en respuesta a la información del entorno recibida a través de sensores y sobre la base de un "perfil de objetivo" generalizado”. (Munir, 2022)
Una de las dificultades relacionadas con la predictibilidad, en el caso de sistemas de armas autónomos, se deriva entre otros, de dos aspectos fundamentales señalados por (Holland Michel, 2020), cuales son: la complejidad del ambiente y la calidad del dato. Al respecto el autor señala respecto del primero, que entre más complejo es el ambiente en el que el sistema es desplegado, más probable es que este se enfrente a inputs para los que no fue específicamente entrenado, lo que podría producir “comportamientos emergentes. Y, respecto del segundo precisa Holland, que la baja calidad de los datos que reciba el sistema, aumenta la dificulta en la predictibilidad del resultado; esto resulta especialmente relevante en el marco de la guerra, donde como ya se estableció previamente, las comunicaciones pueden estar degradadas, intervenidas, o falseadas.
Debido a que incluso los sistemas autónomos "inteligentes" deben ser pre-programados y solo tendrán capacidades altamente limitadas para aprender y adaptarse; en el mejor de los casos, será difícil o imposible diseñar sistemas capaces de lidiar con las opacidades y dificultades propias de la fricción de la guerra. Cuando consideramos las implicaciones de esto para la protección de civiles en conflictos armados, esto plantea diversas preguntas éticas y legales, particularmente en relación con el cumplimiento de los requisitos del DIH; en especial en cuanto al respecto a los principios de distinción, proporcionalidad y necesidad militar; y la dificultad de establecer responsabilidad y rendición de cuentas por el uso de la fuerza letal.
El Departamento de Defensa de los Estados Unidos, en directiva DoD Directive 3000.09, estableció ciertas reglas encaminadas a reducir al mínimo la eventualidad de consecuencias derivadas de fallos en los sistemas de armas autónomos y semiautónomos; especialmente aquellas que podrían conducir a enfrentamientos no deseados. Entre muchas disposiciones, en la mencionada directiva se indica que este tipo de sistemas deben ser diseñados de forma que permitan que, sus usuarios u operadores, mantengan un apropiado nivel de juicio humano en el uso de la fuerza. Igualmente, se precisa que aquel que deba autorizar el uso de este tipo de armas, tiene la carga de hacerlo con el debido cuidado y atendiendo a las leyes de la guerra y tratados aplicables, al igual que las diversas reglas de seguridad en el uso de armas. (Department of Defense. United states of America, 2023).
De lo anterior, se deriva lo que se ha denominado la necesidad del "humano en el circuito" (human in the loop) cuando se trata de la iniciación de fuerza letal. Lo anterior, se relaciona con el control humano en las armas autónomas o semi-autónomas, en términos de niveles de supervisión y control; en el marco de la discusión acerca de si debe o no delegarse la decisión letal en un sistema de armas autónomo; teniendo en cuenta las implicaciones morales y legales. (Sharkey, 2016)
El problema ético-legal que subyace, es establecer hasta donde puede ir la toma de decisiones automatizada con el uso de un arma o fuerza letal, o, si por el contrario, se puede prescindir de la toma de decisiones humana en el control directo sobre la iniciación de la fuerza letal por un sistema automatizado, la escogencia del objetivo, o inclusive en el “encendido” y uso del sistema de arma autónoma.
La decisión de mantener al humano en el circuito, o el avanzar hacia sistemas cada vez más autónomos e independiente, debe tener en cuenta las eventuales responsabilidades derivadas de la delegación de las responsabilidades de toma de decisiones humanas a un sistema autónomo diseñado para acabar con vidas humanas. Sin embargo, la simple presencia de un humano en el circuito, no garantiza la ausencia de dificultades ético-legales, ya que se requiere que el proceso de toma de decisión de muerte, o decisión de uso de fuerza letal, implique un proceso deliberativo, con información suficiente. Solo en la medida en que exista tal proceso (deliberación, análisis balance), se derivaría responsabilidad del tomador de la decisión; sin embargo, como ya se estableció anteriormente, el escenario de los conflictos armados limita el tiempo de debate previo a la decisión, al igual que entorpece el acceso a información actualizada, completa y precisa.
La ya muy famosa campaña de “stop killer robots”; recalca, entre otras, que el debate en torno a la autonomía en los sistemas de armas es un problema profundamente humano, entendiendo que la mera existencia de los llamados robots asesinos plantea nuevos escenarios en las relaciones entre seres humanos y tecnología, llegando al extremo complejo de entregar la toma de decisiones de vida o muerte a las máquinas. Lo anterior implica nuevas dinámicas que en últimas implican la pérdida del control humano sobre el uso de la fuerza, a la vez que, el ser humano termina siendo reducido a un dato, lo que implica su deshumanización (Stop Killer Robots, 2021) .
La campaña vuelve sobre una de las preocupaciones en torno al advenimiento de la IA en casi que todos los campos de la vida humana, y es que el uso ético de la IA implica partir de que la tecnología debe estar al servicio del ser humano, previniendo su instrumentalización. Lo anterior implica reconocer y no perder de vista que la tecnología es creada por humanos y para humanos. En ese sentido (Stop Killer Robots, 2021) plantea que deben tenerse en cuenta los límites entre lo que es aceptable y lo que es inaceptable.
Aterrizando lo anterior al asunto de las armas autónomas letales en el marco de la guerra, debe puntualizarse que para que la toma de una vida humana en conflicto armado sea considerada legal, debe conformarse a los requisitos del Derecho Internacional Humanitario (DIH). En particular, las partes en un conflicto armado tienen el deber de aplicar los principios de distinción y proporcionalidad.
Ha habido mucha discusión sobre la capacidad de los sistemas autónomos para ajustarse a estos principios. La propuesta más ambiciosa ha sido que deben programarse los sistemas de armas autónomas de tal manera que se ajusten al cuerpo del DIH, así como a las reglas específicas de enfrentamiento. Esto, se enfoca a la posibilidad de convertir las reglas del DIH a lenguaje de programación, para establecer qué acciones están prohibidas o permitidas en una situación dada. Se trata entonces de una especie de principio ético, que actuaría como un agente regulador que evitaría que el sistema de armas autónomas realice una acción que haya sido programada como prohibida bajo el DIH.
Sin embargo, la propuesta mencionada no parece tan sencilla de implementar en la realidad, ya que, si bien el DIH se compone de reglas y principios, su estructura no se asemeja a las de un juego o deporte, en el sentido de que aquellas requieren de un ejercicio amplio de interpretación y/o ponderación, en el marco de una situación dada. Por otra parte, la interpretación señalada estará mediada por el contexto, la cantidad y calidad de información disponible en el momento de toma de la decisión.
Así las cosas, en atención a la dificultad o quizás imposibilidad de convertir en reglas de programación las reglas del DIH, se ha hecho evidente que, en el denominado diseño ético de algoritmos, se invita a los diseñadores a mantener lo que se ha denominado el humano dentro del circuito, lo que, en palabras sencillas, es mantener la participación humana en la toma de la decisión.
Como lo expresa Sir Brian Burridge, comandante de la Real Fuerza Aérea Británica en Irak de 2003 a 2005: “Bajo la ley del conflicto armado, sigue existiendo la necesidad de evaluar la proporcionalidad y, dentro de esto, hay una expectativa de que el humano al final de la cadena de entrega haga la última evaluación al evaluar la situación utilizando un juicio racional. Los conflictos postmodernos nos confrontan [...] con espacios de batalla ambiguos y no lineales. Y así, no podemos sacar al humano, el comandante, el analista, aquellos que luchan con la ambigüedad, fuera del circuito. El debate sobre la inclusión del humano en el proceso va más allá de eso” (Asaro, 2013).
El desarrollo de armas autónomas representa un avance tecnológico significativo en el ámbito militar, pero también plantea serios desafíos éticos, legales y operacionales. A lo largo de este estudio, se ha evidenciado que la progresiva automatización de los sistemas de combate genera preocupaciones sobre la toma de decisiones letales sin intervención humana, lo que podría vulnerar principios fundamentales del Derecho Internacional Humanitario (DIH), como la distinción entre combatientes y civiles, la proporcionalidad en el uso de la fuerza y la necesidad militar.
Uno de los principales problemas identificados radica en la opacidad de los sistemas basados en inteligencia artificial, particularmente en lo que respecta al fenómeno de la "caja negra" (black box), que dificulta la comprensión y supervisión de las decisiones automatizadas. Además, la imprevisibilidad de estos sistemas en entornos de conflicto añade un riesgo considerable, pues su capacidad de adaptación puede derivar en respuestas inesperadas o desproporcionadas.
Ante este panorama, resulta imperativo establecer mecanismos de regulación y control que garanticen la supervisión humana en la operación de estas tecnologías. La comunidad internacional debe avanzar en la creación de normativas que limiten el uso indiscriminado de armas autónomas y aseguren su conformidad con los marcos jurídicos y éticos vigentes.
Amnistía Internacional . (15 de Abril de 2024). Amnistía Interncional. Obtenido de https://www.es.amnesty.org/en-que-estamos/temas/armas/
Shilo, L. (9 de Abril de 2018). When turing met grotius AI, indeterminism and responsibility. Obtenido de SSRN: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3280393
Human Rigths watch. (2010). Killer Robots . Recuperado el 28 de 10 de 2024, de https://www.hrw.org/topic/arms/killer-robots: https://www.hrw.org/topic/arms/killer-robots
Stop Killer Robots. (2021). Obtenido de https://www.stopkillerrobots.org/es/detener-robots-asesinos/hechos-sobre-armas-aut%C3%B3nomas/
Asaro, P. (2013). On banning autonomous weapon systems: human rights, automation, and the dehumanization of lethal decision-making. Cambridge University Press, 687-709. doi: https://doi.org/10.1017/S1816383112000768
CICR. (26 de Julio de 2022). Comité Internacional de la Cruz Roja. Obtenido de https://www.icrc.org/es/document/preguntas-y-respuestas-sobre-armas-autonomas
Tegmark, M., & Javorosky, E. (2019). Lethal autonomous weapons. The BMJ, 364.
Human Rights Watch. (3 de Enero de 2024). Human Rights Watch. Obtenido de https://www.hrw.org/news/2024/01/03/killer-robots-un-vote-should-spur-action-treaty
https://weaponsystems.net/system/449-Mark+60+CAPTOR. (s/f). Obtenido de https://weaponsystems.net/system/449-Mark+60+CAPTOR.
Truver, S. C. (20 de Diciembre de 2016). cimsec.org. Obtenido de https://cimsec.org/naval-mines-mining-innovating-face-benign-neglect/
Lockheed Martin. (s/f). Obtenido de https://www.lockheedmartin.com/en-us/products/aegis-combat-system.html
Rouhiainen, L. (2018). Inteligencia artificial. 101 cosas que debes saber hoy sobre nuestro futuri. españa: Alienta. Recuperado el 2024, de https://proassetspdlcom.cdnstatics2.com/usuaris/libros_contenido/arxius/40/39307_Inteligencia_artificial.pdf
Corvalán, J. G. (2018). Inteligencia artificial: retos, desafíos y oportunidades - Prometea: la primera inteligencia artificial de Latinoamérica al servicio de la Justicia. Revista de Investigações Constitucionais, 5(1), 295-316. Obtenido de https://www.redalyc.org/journal/5340/534057837015/534057837015.pdf
Miró Linares, F. (2018). Inteligencia Artificial y justicia penal: más allá de los resultados lesivos causados por robots. Revista de Derecho Penal y Criminología(20), 87-130. Obtenido de https://revistas.uned.es/index.php/RDPC/article/view/26446/20937
Sandoval, L. J. (Enero-Diciembre de 2018). Algoritmos de aprendizaje automático para análisis y predicción de datos. Revista Tecnológica(11), 36-40.
Heaven, W. D. (29 de january de 2020). MIT Technology Review. Obtenido de https://www.technologyreview.com/2020/01/29/304857/why-asking-an-ai-to-explain-itself-can-make-things-worse/
Jamalzadeh, E. (7 de August de 2024). Medium. Obtenido de https://medium.com/design-bootcamp/interpretable-models-and-explainability-techniques-176c66316e04
Department of Defense. United states of America. (25 de January de 2023). Obtenido de https://www.esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf
Sharkey, N. (2016). Staying in the loop: human supervisory conrol of weapons. Cambridge University Press, 23-38. Obtenido de https://www.cambridge.org/core/books/abs/autonomous-weapons-systems/staying-in-the-loop-human-supervisory-control-of-weapons/17B5B3B52E0038B3886E1AB96D7C8EDA
Munir, M. (3 de April de 2022). Autonomous weapons systems: takin the human ouy of the loop. SSRN.
Holland Michel, A. (2020). UNIDIR.ORG. Obtenido de https://unidir.org/files/2020-09/BlackBoxUnlocked.pdf
1 Traducción libre del original en inglés: The success of deep learning is due to tinkering: the best neural networks are tweaked and adapted to make better ones, and practical results have outpaced theoretical understanding. As a result, the details of how a trained model works are typically unknown. We have come to think of them as black boxes.
2 Traducción libre del original en inglés.