ASPECTOS JURÍDICOS DEL USO DE LA INTELIGENCIA ARTIFICIAL (IA) EN LA TOMA DE DECISIONES EN EL ÁMBITO MILITAR

Manuel Luis Pérez García

ASPECTOS JURÍDICOS DEL USO DE LA INTELIGENCIA ARTIFICIAL (IA) EN LA TOMA DE DECISIONES EN EL ÁMBITO MILITAR

Revista de Estudios Jurídicos, núm. 25, 2025

Universidad de Jaén

LEGAL ASPECTS OF THE USE OF ARTIFICIAL INTELLIGENCE (AI) IN MILITARY DECISION-MAKING

Manuel Luis Pérez García *

XXXVII Curso de Defensa Nacional (CESEDEN), España


Recibido: 01 agosto 2025

Aceptado: 04 agosto 2025

Resumen: La Inteligencia Artificial (IA) en el ámbito militar transforma la toma de decisiones estratégicas, operacionales y tácticas, aportando análisis masivo de datos, autonomía y velocidad, pero plantea riesgos éticos y jurídicos. La falta de regulación específica y la dificultad para atribuir responsabilidades exigen reforzar el control humano significativo y la rendición de cuentas. Organismos como la ONU, OTAN, UE y el CICR promueven principios para garantizar que el uso de la IA respete el Derecho Internacional Humanitario y la seguridad global.

Palabras clave: Inteligencia Artificial Militar; toma de decisiones; control humano significativo; armas autónomas; responsabilidad jurídica; Derecho Internacional Humanitario.

Abstract: Artificial Intelligence (AI) in the military transforms strategic, operational and tactical decision-making, providing massive data analysis, autonomy and speed, but poses ethical and legal risks. The lack of specific regulation and difficulty in assigning responsibilities calls for strengthening meaningful human control and accountability. Agencies such as the ONU, OTAN, UE and CIRC promote principles to ensure that the use of AI respects international humanitarian law and global security.

Keywords: Military Artificial Intelligence; decision making; significant human control; autonomous weapons; legal responsibility; international humanitarian law.

SUMARIO

I. Introducción. II. Inteligencia Artificial Militar (IAM): usos. III. Aspectos jurídico-militares de la IA: ONU, OTAN, UE y España. IV. Comité Internacional de la Cruz Roja. V. Desafíos. VI. Financiación. VII. Bibliografía.

Dedico este capítulo a la memoria y a las familias de los guardias civiles D. Miguel Ángel González Gómez y D. David Pérez Carracedo (9-II-2024 †).

I. INTRODUCCIÓN

La inteligencia artificial (IA, en adelante) ha supuesto una auténtica revolución en todos los órdenes.1 Muchas de nuestras actividades más cotidianas están realizadas por IA más o menos avanzada. En el ámbito decisional desde algunas de las más triviales a las de mayor complejidad e importancia. En todo tipo de organizaciones, la IA es una herramienta emergente que va más allá de la mera automatización, participando en mayor o menor medida en decisiones cruciales que hasta no hace tanto eran responsabilidad exclusiva de seres humanos.

A continuación, analizaremos algunos aspectos jurídicos del uso de la IA en la toma de decisiones en el ámbito militar. Abordando los usos de la IA militar, su incidencia en la toma de decisiones en los distintos niveles: estratégico-militar; operacional y táctico, con mención especial a los sistemas de armas autónomas. Tras ello, esbozaremos su marco normativo en el seno de la ONU, de la OTAN, de la UE y en nuestro país. Sin olvidar la eminente posición del Comité Internacional de la Cruz Roja en esta materia. Para finalizar con algunos de los retos que jurídicamente debemos afrontar a futuro fruto de la evolución de la IA en el ámbito bélico en general, y en su uso en la toma de decisiones en particular.

II. INTELIGENCIA ARTIFICIAL MILITAR (IAM): USOS

La irrupción de la IA se ha descrito por diversos autores, Pacholska (2022, p. 1) como la tercera revolución en los asuntos militares, tras la pólvora y las armas nucleares. Sin embargo, cabe destacar que mientras las dos primeras son armas, la IA más avanzada puede procesar ingentes cantidades de información y tomar decisiones de manera autónoma. En palabras de Harari (2024, p. 23), la IA pasa de ser una mera herramienta a ser un agente y advierte de sus peligros, no sólo para alterar el curso de la historia humana, sino la de todos los seres vivos.

La Cumbre REAIM (Responsible AI in the Military domain o Inteligencia Artificial Responsable en el Ámbito Militar) es una plataforma mundial de debate sobre la aplicación militar responsable de la IA. Según su declaración política sobre uso responsable de inteligencia artificial y autonomía en el ámbito militar de febrero de 2023, 2 por inteligencia artificial puede entenderse la capacidad de las máquinas para realizar tareas que de otro modo requieren inteligencia humana. 3 Esto podría abarcar, entre otras, reconocer patrones, aprender a partir de la experiencia, extraer conclusiones, formular predicciones o generar recomendaciones.

A nivel general, el actual debate sobre el impacto de la inteligencia artificial en la guerra (Pardo de Santayana y Gómez de Olea, 2024, p. 89)4 se divide en tres grandes posiciones: favorables, negacionistas y pragmáticos (Rodríguez Garat, 2024, p. 231). Estas escuelas de pensamiento no difieren en su reconocimiento de los recientes avances en el campo de la IA militar, sino en su visión del potencial de estos avances para ser utilizados en un entorno militar, de una manera que ventajas a quienes los adopten.

La geopolítica analiza las relaciones con la historia, la geografía, la tecnología y las ideologías dominantes, y se considera la ciencia que persigue la definición de la política nacional o internacional basándose en el estudio sistemático del escenario geográfico y de otros factores como los económicos, humanos y sociopolíticos. La geopolítica de la IA en general, y de su aplicación bélica en particular, va de la mano de la brutal carrera competitiva para ser líderes en IA entre las diferentes naciones. Y para nuestra desgracia, la UE a nivel tecnológico no va en cabeza. Sí, a nivel normativo general (no militar). Además, la evolución de la IA y la necesidad de centros de datos cada vez más potentes y capaces va acompañada de unas necesidades de electricidad cada vez mayores, lo que en varios países ha supuesto una potenciación de la energía nuclear para satisfacer la citada demanda.

Grosso modo, la IA militar tiene una aplicación principal en tres vertientes (Rickli & Mantellassi, 2023, p. 18): i) facilitador analítico: resultando ya imprescindible en operaciones militares en las que es necesario analizar ingentes cantidades de datos de múltiples fuentes, por ejemplo, en inteligencia o vigilancia y reconocimiento; ii) disruptor: como instrumento para producir y difundir desinformación y fake news5; y iii) multiplicador de fuerzas: dado que los sistemas de armas necesitan cada vez más tomar algunas decisiones de forma autónoma, y siendo clave la capacidad de hacerlo más rápido que los enemigos, la IA resulta imprescindible.

La Inteligencia Artificial en el ámbito militar o IAM tiene especificidades diferenciadoras. La principal son las posibles drásticas consecuencias de las decisiones que cabe adoptar en un conflicto bélico por sus potenciales efectos letales. Dentro de la IA se recogen muchas aplicaciones, sin ánimo de exhaustividad, como las siguientes: aprendizaje automático y aprendizaje profundo, visión artificial, procesamiento de lenguaje natural, razonamiento automatizado para la toma de decisiones, robótica, vehículos no tripulados, etc. (Pérez Martínez, 2024, p. 138).

Los países más avanzados en la actualidad en el uso de la IA con usos militares son potencias mundiales como Estados Unidos, China o Rusia; y algunas regionales, como Israel, Turquía o Irán. Como vemos, en el citado elenco se juntan democracias avanzadas con dictaduras o estados teocráticos. Ello pone de manifiesto las profundas diferencias en cuestiones políticas, éticas, económicas, y a nuestros efectos, las encontradas concepciones e incentivos a la hora de poder llegar a acuerdos en la aprobación de marcos normativos, especialmente de derecho necesario o vinculante.

Según la doctrina OTAN podemos señalar tres niveles en los que se desarrollan las operaciones militares, y en los que podemos a su vez dividir la toma de decisiones (Osoba, 2024)6: a) estratégico-militar; b) operacional y c) táctico.

La inteligencia artificial, al igual que la natural, es de doble uso. Lo mismo puede crear una obra de arte o un medicamento que un veneno o un arma biológica. Especialmente la inteligencia artificial creativa o superinteligencia supone el último reto de la humanidad. Tal cómo declaraba el último Premio Nobel de Física, el profesor Geoffrey Hinton de la Universidad de Toronto: “No tenemos experiencia sobre lo que es tener cosas más inteligentes que nosotros”.7

De todos los efectos que la IA puede tener en el mundo militar, uno de los más importantes sería su integración en el mando y control de las armas nucleares (o biológicas, entre otras). Mal utilizada, la IA en las operaciones nucleares podría suponer efectos catastróficos. Por otro, también podría reducir el riesgo nuclear al mejorar la alerta temprana y la detección y aumentar la resistencia de las capacidades de segundo ataque, lo que reforzaría su capacidad disuasoria. Los sistemas de toma de decisión deben tener en cuenta las fortalezas y las limitaciones de las personas y de los distintos sistemas de IA. Los sistemas binarios humano-máquina deben conjugar la precisión y velocidad de la automatización con la flexibilidad del juicio humano de manera que se evite el sesgo de la automatización y la delegación in toto del juicio humano a las máquinas. Sobremanera, cuando se trate de decisiones que impliquen uso de la fuerza y puedan suponer muertes o lesiones.

A pesar de sus numerosos beneficios, la implementación de la IA en la toma de decisiones militares no está exenta de inseguridades y desafíos. Uno de los principales riesgos es la dependencia excesiva de los sistemas automatizados. Si un sistema de IA falla o es pirateado, las consecuencias podrían ser desastrosas. Por esta razón, es crucial mantener siempre un equilibrio entre la autonomía de los sistemas y una adecuada supervisión humana en todas las fases: desde el proyecto y diseño hasta su efectiva implementación. Otro eventual problema es el sesgo algorítmico. Las decisiones de los sistemas de IA se basan en datos históricos, que podrían contener sesgos inherentes o ser incompletos.8 El entrenamiento de estos sistemas se haya mediatizado por su diseño y por la cantidad y calidad de los datos que los alimentan. Esto podría llevar a decisiones erróneas o injustas en contextos críticos y de alta demanda.

No faltan voces autorizadas que presagian que estos sistemas podrían fallar y llevar a cabo acciones imprevistas, superar al intelecto humano y, finalmente, volverse incontrolables. Y subrayan que, en el caso extremo de ciertos fallos o errores, que no estaríamos en condiciones de contenerlo una vez que surja. En el súmmum de la distopía, algunos sugieren la posibilidad de IA autoconsciente que incluso podría llegar a destruirnos o usarnos tal como nosotros utilizamos a los animales o a las cosas.

En la cúspide de los tres niveles de la cadena de mando, el estratégico-militar, Erskine y Miller (2024) incluso se llegan a plantear qué pasaría si las máquinas inteligentes determinarán si los estados entran en guerra. Aunque ello pueda ser materia de la ciencia ficción, o una especulación distópica a largo plazo, sin embargo, esta es una cuestión plausible en un futuro. Y señalan cuatro obstáculos o dificultades: 1) el desplazamiento del juicio humano en la toma de decisiones de recurso a la fuerza impulsada por la IA y las posibles implicaciones para la teoría de la disuasión y la escalada no intencionada de los conflictos; 2) las posibles implicaciones del sesgo de automatización; 3) la opacidad algorítmica y sus implicaciones para la legitimidad democrática e internacional; y por último: 4) la probabilidad de que los sistemas basados en IA agraven las patologías en la toma de decisiones de las organizaciones.

El Ejército Popular de Liberación de China utiliza la IA para mejorar el conocimiento del campo de batalla y la toma de decisiones. Incluso, según se ha publicado, los expertos militares chinos han debatido la idea de un «cerebro de mando» que utilice la IA para elaborar planes a nivel táctico y operativo. Según se ha sabido, científicos de la Academia China de Ciencias Militares han logrado convertir el modelo de IA (Llama 13B) diseñado por la empresa Meta de Mark Zuckerberg en una herramienta militar de toma de decisiones denominada «ChatBIT»9 que usa un modelo de lenguaje de gran tamaño (LLM).

En Ucrania, las grandes empresas de IA, principalmente estadounidenses, participan en varios sectores tecnológicos de vanguardia, civiles y militares. Gracias a las constelaciones de satélites de Starlink que garantizan la conexión exterior del país a pesar de la ofensiva de las tropas rusas, mientras que la nube de Amazon aloja los datos administrativos y económicos del país y Palantir utiliza su IA para procesar los datos generados y enviados por la flota de drones ucranianos con el fin de proponer soluciones de disparo a sus operadores. A modo de ejemplo, una empresa ucraniana, Swarmer, ha conseguido desarrollar enjambres de drones de combate potenciados con IA que llevan participando en el campo de batalla desde el comienzo de la primavera del año pasado.

Ambos bandos han desplegado un gran número de sistemas no tripulados, y los drones se han convertido en una parte indispensable de los combates en tierra, mar y aire. La combinación de IA, aplicaciones para teléfonos inteligentes, nuevos tipos de sensores e imágenes comerciales por satélite han acelerado el ciclo de selección de objetivos y ha obligado a las fuerzas de ambos bandos a dispersarse, esconderse, atrincherarse o desplazarse para sobrevivir. La banda ancha espacial ha ayudado a las fuerzas militares y a los civiles a mantenerse conectados.

Además de empresas privadas punteras, los distintos gobiernos toman acción. En los EE. UU., agencias gubernamentales como DARPA (Agencia de Proyectos de Investigación Avanzada de Defensa), IARPA (Agencia de Proyectos de Investigación Avanzada de Inteligencia) y CTTSO (Oficina de Apoyo Técnico para la Lucha contra el Terrorismo) son pioneras en estos avances. Están desarrollando herramientas y sistemas que combinan la intuición humana con el análisis objetivo de datos, ampliando los términos de cómo se toman las decisiones en los campos de batalla modernos.

Los Sistemas de Armas Autónomos Letales (SAAL),10 que utilizan tecnologías basadas en Inteligencia Artificial (IA) están adquiriendo un papel más preponderante (Pignatelli y Meca, 2023, p. 1305)11 en el campo de batalla (Marín Martínez, 2022, p. 217).12 Los sistemas de armas con IA se catalogan en una triple categorización dependiendo del diferente grado de participación humana (Cotino Hueso & Gómez de Ágreda, 2024, p. 276)13 (de mayor a menor):

  • Se denomina human in the loop (humano en el circuito) al medio en el que el ser humano juega un papel esencial en la toma de decisiones; decide el despliegue del sistema incluyendo qué y cuándo atacar;

  • El human on the loop (humano sobre el circuito) cuando la persona se limita a supervisar el funcionamiento del sistema, por si hay necesidad de desactivarlo;

  • En los sistemas human off the loop (humano fuera del circuito) el control humano desaparece por completo una vez puesto en marcha (Alvade Orzaiz y Campione, 2022, p. 201).14

Boutin (2023, pp. 141 al 143) plantea una panoplia de situaciones en que se producen unos resultados en los que la voluntad o negligencia humana interactúa con la IA para poder establecer la consiguiente responsabilidad (Marín Martínez, 2023, p. 86).15 Primer escenario, si un agente estatal se sirve de un sistema sobre el que mantiene un control directo y efectivo, el comportamiento de este que pudiera quebrantar el Derecho Internacional permite su atribución al Estado en cuyo nombre interviene. El segundo, en el que el funcionamiento de las armas se produce de modo automático una vez que han sido activadas por el operador, ciñendo el control humano a su utilización o limitando las posibilidades efectivas de que impida que alcance el resultado esperado. En este supuesto, no se haría responsable al operador que ve imposibilitado su control una vez activada, pero sería factible atribuir la responsabilidad a los órganos estatales con capacidades políticas o militares para autorizar su despliegue y empleo por ejercer un control indirecto. El tercer escenario, es el de sistemas semiautónomos, en los que el control y supervisión humanos es posible, pero de difícil ejercicio, lo que dificulta la exigencia de responsabilidad. El cuarto y último, el más extremo (human off the loop), la ausencia de una toma de decisión humana suscita enormes dificultades para vincular la responsabilidad sobre los hechos a un Estado, pero podría atribuirse la misma por una suerte de responsabilidad objetiva. Lo que no deja de poner de manifiesto las incertidumbres que ofrecen los relatados escenarios.

A nivel legal, cabe destacar las dificultades para la atribución de la responsabilidad de las acciones de un sistema autónomo: los fabricantes y/o desarrolladores, los operadores o los comandantes de la operación.

Para Gil (2022, p. 58) el concepto de control humano significativo (MHC) 16 ha venido a sustituir la clasificación human in/on/off the loop, poniendo el énfasis en que lo esencial no es tanto el momento de intervención, sino la calidad del control. Para poder calificarse como significativo, el control humano debe cumplir con las siguientes finalidades:

  • Evitar los fallos o errores del sistema que puedan dar como resultado un ataque a personas o bienes civiles o daños colaterales desproporcionados.

  • Garantizar las condiciones para la atribución de responsabilidad penal a un ser humano en caso de un uso ilícito.

  • Garantizar que sea un agente moral y no uno artificial, quien tome las decisiones que afectan a la vida, la integridad física y los bienes de las personas.

Todo ello exige partir del conocimiento de las limitaciones del sistema, lo que se enfrenta a los problemas de la opacidad de los algoritmos y su entrenamiento, sobre todo cuando se trata de modelos diseñados por empresas privadas, sobre los que existe una propiedad intelectual e industrial. Además, el MHC debe garantizarse durante todas las fases del proceso: en el desarrollado, el despliegue y el uso del sistema de armas.

Algunos de los ejemplos más conocidos son los sistemas: “Habsora” (Gray, 2024, p. 170),17 “Lavender” o “Where is Daddy?”, empleados por las Fuerzas de Defensa de Israel (IDF) para identificar y seleccionar objetivos durante el reciente conflicto en Gaza. Usando IA asignan una "puntuación de riesgo" que evalúe la probabilidad de que un individuo sea un miembro de Hamás o de la Yihad Islámica.

III. ASPECTOS JURÍDICO-MILITARES DE LA IA: ONU, OTAN, UE Y ESPAÑA

Además de unos evidentes efectos de tipo tecnológico, económico, industrial o ético, la IA tiene unas implicaciones jurídicas de indudable calado. El vigente derecho internacional humanitario18 (DIH, en adelante) debe integrarse en los sistemas de IA en todas sus vertientes. Por ello, y aunque carecemos de una regulación internacional específica en la materia, los sistemas de IA en defensa han de someterse al derecho preexistente que les sea de aplicación. No es ocioso recordar que el artículo 36 del Protocolo Adicional I a los Convenios de Ginebra del 12 de agosto de 1949 relativo a la protección de las víctimas de los conflictos armados internacionales, de 8 de junio de 1977, sobre “Armas nuevas” dispone que: «cuando una Alta Parte contratante estudie, desarrolle, adquiera o adopte una nueva arma, o nuevos medios o métodos de guerra, tendrá la obligación de determinar si su empleo, en ciertas condiciones o en todas las circunstancias, estaría prohibido por el presente Protocolo o por cualquier otra norma de derecho internacional aplicable a esa Alta Parte contratante».19

Desde los albores del DIH, los combatientes no deben elegir sus medios y métodos de guerra de manera ilimitada. Están sometidos a prohibiciones y restricciones y a las pertinentes consecuencias jurídicas en caso de las eventuales violaciones de estas.

El oportuno análisis de la legalidad de las nuevas armas, medios y métodos de guerra nuevos no es, ni mucho menos, una idea novedosa. El primer instrumento internacional que hace referencia a la evaluación jurídica de las nuevas tecnologías militares es la Declaración de San Petersburgo, adoptada en 1868 por una Comisión Militar Internacional. La Declaración aborda el desarrollo de futuras armas de la siguiente manera: «Las Partes contratantes o adherentes se reservan entenderse ulteriormente todas las veces que se formule una propuesta precisa con miras a perfeccionamientos venideros, que la ciencia podría aportar al armamento de las tropas, a fin de mantener los principios que han planteado y de conciliar las necesidades de la guerra con las leyes de la humanidad».

La competencia de la Corte Penal Internacional se circunscribe a los crímenes más graves de trascendencia para la comunidad internacional en su conjunto. La Corte tiene competencia respecto de los siguientes crímenes: a) El crimen de genocidio; b) Los crímenes de lesa humanidad; c) Los crímenes de guerra; y d) El crimen de agresión. El vigente Estatuto de la Corte penal Internacional20 castiga como crímenes de guerra,21 ciertos delitos de mera actividad ataques contra la población civil; en su artículo 8, 2.b), iv): «lanzar un ataque intencionalmente, a sabiendas de que causará pérdidas incidentales de vidas, lesiones a civiles o daños a bienes de carácter civil […] que serían manifiestamente excesivos en relación con la ventaja militar», y en su artículo 8. 2, b), xx): «prohibición de usar armas que causen efectos indiscriminados... a condición de que el arma o método en cuestión haya sido completamente prohibido e incluido en un anexo que todavía no existe».

En el marco del derecho penal internacional se descarta que el uso de un sistema de armamento totalmente autónomo eluda la responsabilidad humana, si dicho sistema daña a un ser humano o a una propiedad. Según el artículo 8 bis del Estatuto de Roma, está claro que un sistema de IA -independientemente de su nivel de inteligencia y/o de desarrollo- no puede considerarse responsable per se de un acto de agresión. Los sistemas de armas con softwares de IA altamente desarrollados no tienen capacidad penal en el contexto del Estatuto de Roma lo que significa que el autor de un posible acto/delito de agresión del que haya que responsabilizar será el productor o usuario (Sari & Celik, 2021, p. 14).

Es de obligada cita la «Declaración de Bletchley»,22 de noviembre de 2023, firmada por un total de 28 países (entre los que podemos mencionar a los Estados Unidos de América, China, la Unión Europea, Reino Unido, Japón, India, Brasil y España). El compromiso, aunque es de naturaleza no vinculante y posee un carácter principal, sí que ha unido por primera vez a Estados Unidos y a China, los dos países líderes, en un pacto mundial: «Estamos decididos a trabajar juntos de manera inclusiva para asegurar una IA humano-céntrica, fiable y responsable que sea segura», dice expresamente, y añade que: «existe un potencial para un daño serio, incluso catastrófico, deliberado o accidental, derivado de las capacidades más significativas de estos modelos de IA. Visto el ritmo rápido e incierto de cambio de la IA, y en el contexto de la aceleración de inversión en tecnología, afirmamos que profundizar en nuestro conocimiento de estos riesgos potenciales y las acciones para afrontarlas es especialmente urgente».

En el ámbito de la Organización de las Naciones Unidas (ONU), la Carta de las Naciones Unidas, los principios humanitarios y los derechos humanos no son sugerencias: siguen siendo la base de cualquier aplicación militar de la IA. La Resolución aprobada por la Asamblea General de la ONU, el 24 de diciembre de 2024,23 79/239 intitulada: “La inteligencia artificial en el ámbito militar y sus implicaciones para la paz y la seguridad internacionales” alienta a los Estados a que desplieguen esfuerzos nacionales, regionales, subregionales y mundiales en relación con las oportunidades y los retos, incluso desde las perspectivas humanitaria, jurídica, de seguridad, tecnológica y ética, relacionados con la aplicación de la inteligencia artificial en el ámbito militar. La Resolución se hace eco de los debates que tienen lugar en la Comisión de Desarme de las Naciones Unidas sobre las recomendaciones relativas a los entendimientos comunes referidos a las tecnologías emergentes en el contexto de la seguridad internacional y en la Conferencia de Desarme, y los resultados de la reunión del Consejo de Seguridad de la ONU sobre inteligencia artificial: oportunidades y riesgos para la paz y la seguridad internacionales, celebrada el 18 de julio de 2023.

La OTAN, en la reunión de Ministros de Defensa del 22 de octubre de 2021, aprobó una Estrategia de Inteligencia Artificial que incorpora una regulación del uso militar de la IA mediante su sometimiento a seis principios generales de uso responsable: legalidad, responsabilidad y rendición de cuentas, inteligibilidad y trazabilidad, fiabilidad, gobernabilidad y mitigación del sesgo.

En la primavera de 2024, la OTAN publicó un vídeo promocional en el que se exponían aspectos de cómo la Alianza está pensando en el papel de la IA en la toma de decisiones. Según su visión es fundamental para una toma de decisiones precisa y oportuna, y vital para hacer frente a la complejidad de la guerra moderna. El 10 de julio de 2024 se publicó la revisión de la citada Estrategia. Sin alterar los principios, la OTAN afirmó que tomará medidas mensurables para integrar la IA, posibilitada por datos de calidad, en las capacidades aliadas apropiadas mediante compromisos en su Proceso de Planificación de la Defensa.

En nuestra Unión Europea, el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio, por el que se establecen normas armonizadas en materia de inteligencia artificial (Reglamento de IA) deja fuera de su ámbito de aplicación tanto los sistemas de IA que se introduzcan en el mercado, se pongan en servicio o se utilicen, con o sin modificación con fines militares, de defensa o de seguridad nacional, como el uso militar en la UE de los resultados de salida de un sistema de IA no introducido en el mercado, o que no se ponga en servicio en la UE (artículo 2.3). Sin embargo, la UE no permanece impasible ante los usos militares de la IA. A falta de una regulación expresa en el Derecho comunitario, la UE es uno de los principales actores que demanda un necesario instrumento normativo internacional. En septiembre de 2023 se crearon los grupos de trabajo sobre «IA confiable para la defensa» (Trustworthy AI for defence) en la Agencia de Defensa Europea (Lamas López & Peralta Gutiérrez, 2024, p. 81).24

En septiembre de 2024, el Consejo de Europa abrió a la firma el Convenio Marco sobre Inteligencia Artificial (IA),25 pionero acuerdo internacional y que se adopta con efectos jurídicos vinculantes. Sin embargo, éste no incluye previsiones en materia de seguridad o defensa.

En el caso de nuestro país, resulta de obligado estudio la Resolución 11197/2023, de 29 de junio, de la secretaría de Estado de Defensa, por la que se aprueba la Estrategia de desarrollo, implantación y uso de la Inteligencia Artificial en el Ministerio de Defensa.26 La Estrategia enumera los casos de uso iniciales de la IA en el ámbito militar en España (movilidad militar, inteligencia, guerra electrónica, autonomía en el comportamiento de sistemas no tripulados, apoyo logístico, conocimiento y vigilancia del entorno, ciberdefensa, análisis geoespacial, meteorológico y oceanográfico, gestión de la información y gestión del talento y la formación). E incluye de manera expresa el apoyo a la toma de decisiones. En concreto, priorizando el uso de la IA en la denominada nube de combate (donde cada plataforma contribuye a generar y recibir información), pero sin preterir las actividades de I+D+i y de formación en materia de IA al personal.27 Es importante resaltar la advertencia de que su empleo: estará condicionado a la clara e inequívoca posibilidad de identificar a la persona responsable del sistema”. El Protocolo no prevé inicialmente incorporar la IA al armamento letal, pero señala que estos casos de uso iniciales no impiden la incorporación, en un futuro más o menos lejano, de otros de interés para el Ministerio de Defensa.

No hemos de olvidar, que el Código Penal español (Ley Orgánica 10/1995, de 23 de noviembre), tipifica en el artículo 610, el uso de métodos de combate indiscriminados; castiga a quien realice u ordene realizar ataques indiscriminados o excesivos o haga objeto a la población civil en los artículos 611.1.º y 613.1.º; además castiga otras infracciones del ius in bello (artículo 614 CP).

Las Reglas de enfrentamiento (RdE)28 no son parte ni del Derecho humanitario bélico en general ni del Derecho de los conflictos armados en particular. Aunque ni aparecen mencionadas expresamente en las Convenciones de La Haya, ni en las de Ginebra, ni en sus Protocolos Adicionales y tampoco han sido objeto de un tratado internacional específico. Sin embargo, su utilización ha ido aumentando progresivamente tanto a nivel internacional y supranacional: la ONU, la OTAN o la Unión Europea, como a nivel nacional. Las RdE pueden completar un buen marco regulatorio, porque son una combinación de consideraciones políticas, militares; pero también legales. Esto se refiere en particular al nivel de autonomía de los sistemas de IA y a la forma de control humano significativo sobre ellos, pero, entre otras cuestiones, también abarca los niveles aceptables de previsibilidad y error de los sistemas de IA.

IV. COMITÉ INTERNACIONAL DE LA CRUZ ROJA

El Comité Internacional de la Cruz Roja (CICR) es un centro de gran autoridad en esta materia. Hay dos grandes –y distintas– áreas de aplicación de la IA y el aprendizaje automático en las que el CICR tiene un interés particular: en primer lugar, su uso en la conducción de la guerra o en otras situaciones de violencia; y segundo, su utilización en la acción humanitaria para asistir y proteger a las víctimas de los conflictos armados. Claro ejemplo, éste último, de las bondades del uso de la IA.

Como idea-fuerza, la CICR ha mostrado su frontal rechazo al desarrollo de armamento basado en sistemas de IA sustituyan las decisiones humanas críticas sobre el uso de la fuerza que son consustanciales a los conflictos armados por procesos que queden controlados por sensores, programas y máquinas.29

Durante la última década, los debates jurídicos y políticos sobre la aplicación de la inteligencia artificial (IA) se han centrado en los sistemas de armas autónomos. Sin embargo, en los últimos años se ha ido tomando conciencia de que las aplicaciones militares de la IA son mucho más amplias.

El CICR y la Cátedra Suiza de Derecho Internacional Humanitario (DIH) de la Academia de Derecho Internacional Humanitario y Derechos Humanos de Ginebra ha abordado las aplicaciones militares de los sistemas de apoyo a la toma de decisiones.30 El uso de estos sistemas plantea nuevas cuestiones sobre la comprensibilidad y previsibilidad de sus resultados, la velocidad a la que funcionan y los obstáculos a la capacidad humana para evaluar eficazmente la precisión de sus resultados. En consecuencia, el uso de las capacidades de IA DSS tiene el potencial de reducir el juicio humano que interviene en la toma de decisiones militares sobre el uso de la fuerza en conflictos armados, lo que plantea cuestiones jurídicas (pero también humanitarias y éticas). Preservar el juicio humano en la toma de decisiones militares sobre el uso de la fuerza en los conflictos armados es crucial para reducir los riesgos humanitarios y facilitar el cumplimiento del DIH. Algunos enfoques pueden ayudar a abordar los retos técnicos existentes (por ejemplo, la previsibilidad, la previsibilidad, la comprensibilidad y la parcialidad), mientras que otros pueden contribuir a mejorar la capacidad de los decisores humanos mitigando el sesgo de la automatización y exigiendo que su uso se restrinja a tareas y contextos para los que hayan sido probados de forma específica y rigurosa. Se aboga por imponer ciertas restricciones al uso de sistemas de ayuda a la decisión con IA en el uso de la fuerza (Shahi, 2024, p. 1119).31

V. CONCLUSIONES

Como se acaba de exponer, las consideraciones legales que rodean la IA en la toma de decisiones en el ámbito militar son diversas y complejas. A medida que las tecnologías de IA continúan evolucionando, resulta aún más imprescindible abordar estos desafíos mediante marcos normativos sólidos. Garantizando en todo momento la rendición de cuentas y el cumplimiento de la legislación internacional y nacional para mantener la legalidad, la integridad y la humanidad de las operaciones militares.

La IA y sus aplicaciones militares están poniendo a prueba el ordenamiento jurídico existente. Nos movemos en una zona de indudable inseguridad jurídica motivada por la inexistencia de un corpus normativo obligatorio por las reservas de muchos Estados a establecer instrumentos jurídicos vinculantes y por el escasísimo caudal jurisprudencial o consultivo en la materia. Sin embargo, ello no puede ser óbice para eludir el control legal de la IA militar y la exigencia de responsabilidades, en su caso, en sus diferentes vertientes. El Derecho internacional humanitario, el Derecho penal militar y el Derecho operativo.

A nuestros efectos, el ciclo de toma de decisiones, incluso en el supuesto de decisiones que puedan ser trasladables in toto a sistemas de inteligencia artificial no pueden orillar la responsabilidad humana. Instituciones tradicionales como la autoría mediata,

Incluso en el supuesto de máxima delegación. Se delega la tarea, pero no la responsabilidad. En conexión con lo anterior, debe reforzarse la función jurídica de asesoramiento en el ámbito de las fuerzas armadas. En los tres niveles de decisión: estratégico, operacional y táctico.

Los desafíos jurídicos podemos sistematizarlos en los siguientes grupos:

- Sistema de fuentes: Resulta imprescindible avanzar hacia normas internacionales obligatorias, de ius cogens que limiten y ordenen la IA en los distintos usos militares.32 También de normativas nacionales o supranacionales de la misma naturaleza (i.e. UE o CdE). Desarrollar directrices y marcos jurídicos específicos para el uso de la IA en contextos militares. Garantizando aborden cuestiones como la necesaria supervisión humana, la rendición de cuentas y la exigencia de responsabilidades y el uso responsable de los sistemas autónomos de armas. Garantizando en todo momento que las aplicaciones militares de IA se someten a Derecho, incluidas las normas que rigen el uso de la fuerza o los derechos humanos.

Mientras ello sucede, habrá que conformarse con los instrumentos de derecho indicativo en esta materia. También, y como consecuencia de su irrupción reciente, carecemos de costumbres internacionales o Derecho internacional consuetudinario consolidado en esta materia, esto es, el procedimiento espontáneo de elaboración de derecho internacional resultante del comportamiento de los Estados. También, y no por este orden, mediante una exigente labor de interpretación y adaptación del corpus normativo existente que no fue pergeñado teniendo en cuenta la inteligencia artificial, tal y como se ha señalado ut supra.

- Ejecución y coerción: No es descartable que más pronto que tarde, tanto la Corte Penal Internacional como eventuales Tribunales internacionales ad hoc para Oriente Próximo o Ucrania, entre otros, o nacionales, hayan de lidiar con la exigencia de responsabilidades en las que se hayan usado sistemas de IA para la toma de decisiones, dotados de una mayor o menor autonomía. Aunque la crisis del DIH “analógico o clásico” (Aldave Orzaiz, 2022, p. 201)33 en los últimos conflictos no son el mejor augurio para acotar el uso de la IA militar, especialmente en sistemas de armas letales.

- Elemento subjetivo: Conectado con el punto anterior, y como elemento subjetivo, el ordenamiento jurídico internacional, supranacional y nacional, tanto de derecho internacional humanitario o de derecho penal (nacional e internacional) es un régimen eminentemente antropocéntrico. Sólo los seres humanos pueden ser responsables y no cabe eludir la responsabilidad por la intermediación, el complemento e incluso la dejación de funciones a sistemas totalmente autónomos.

Junto a la responsabilidad personal, también se puede acudir a la responsabilidad internacional de los Estados. Ésta es una pieza fundamental en el derecho internacional público y surge como sistema aplicable al incumplimiento de las obligaciones internacionales de los Estados y las consecuencias que derivan de dichas violaciones. Sin embargo, no se trata de una responsabilidad objetiva. Será, preciso establecer un nexo causal entre el resultado y la (in)actividad estatal.

VI. FINANCIACIÓN

El presente trabajo es el resultado del proyecto de investigación subvencionado por la Secretaria General de Política y Defensa (SEGENPOL) del Ministerio de Defensa con el n. 130-192480 (convocatoria 2024).

VII. BIBLIOGRAFÍA

Aldave Orzaiz, A. (2022). Drones, terrorismo e inteligencia artificial: Una aproximación a la crisis del paradigma normativo de la guerra. En R. Campione (Coord.), Al borde del abismo. Guerra, tecnología y Derecho. Tirant lo Blanch.

Boutin, B. (2023). State responsibility in relation to military applications of artificial intelligence. Leiden Journal of International Law, 36(1), 133-150. https://doi.org/10.1017/S0922156522000607

Cotino Hueso, L., & Gómez de Ágreda, A. (2024). Criterios éticos de derecho internacional humanitario en el uso de sistemas militares dotados de inteligencia artificial. Novum Jus, 18(1), 249–283. https://doi.org/10.14718/NovumJus.2024.18.1.9

Erskine, T., & Miller, S. E. (2024). AI and the decision to go to war: Future risks and opportunities. Australian Journal of International Affairs, 78(2), 135–147. https://doi.org/10.1080/10357718.2024.2349598

Garat González, J. M. (2024). La inteligencia artificial como factor de transformación de las operaciones militares en el nivel operacional. Boletín IEEE, 33. https://www.defensa.gob.es/ceseden/-/bolet%C3%ADn-del-ieee-33

Gil Gil, A. (2022). Sistemas autónomos de armas letales. Problemática jurídica y posición española. En AA.VV., Estudios de Derecho Militar, 5.

Gray, C. H. (2024). Military AI, sacred violence and war in the Middle East. Teknokultura. Revista de Cultura Digital y Movimientos Sociales, 22(2), 167-177. https://doi.org/10.5209/tekn.93507

Greipl, A., et al. (2024). Expert consultation report on AI and related technologies in the military: Decision-making on the use of force in armed conflicts. International Committee of the Red Cross. https://www.icrc.org/en/publication/expert-consultation-report-artificial-intelligence-and-related-technologies-military

Harari, Y. N. (2024). Nexus: Una breve historia de las redes de información desde la edad de piedra hasta la IA. Editorial Debate.

Lamas López, F., & Peralta Gutiérrez, A. (2024). Contexto legal en la UE para el uso militar de la inteligencia artificial. Revista General de Marina, 286(1), 71-82. https://bibliotecavirtual.defensa.gob.es/BVMDefensa/es/publicaciones/listar_articulos.do?idNumero=171215

Marín Martínez, A. P. (2022). Sistemas de armas autónomos letales y responsabilidad jurídica internacional: Algunas reflexiones sobre la guerra en Ucrania. Revista Española de Derecho Militar, 118, 215-246. https://bibliotecavirtual.defensa.gob.es/BVMDefensa/es/catalogo_imagenes/grupo.do?path=353395

Marín Martínez, A. P. (2023). Los sistemas de armas autónomos letales y el Derecho Internacional Humanitario en la guerra de Ucrania. Relaciones Internacionales, 53, 71-90. https://doi.org/10.15366/relacionesinternacionales2023.53.004

Osoba, O. (2024). A complex-systems view of military decision making: Anticipating the future of war: AI, automated systems, and resort-to-force decision making. Australian Journal of International Affairs, 78, 237–246. https://doi.org/10.1080/10357718.2024.2333817

Pacholska, M. (2022). Military artificial intelligence and the principle of distinction: A state responsibility perspective. Israel Law Review. 56(1), 3-23. https://doi.org/10.1017/S0021223722000188

Pardo de Santayana y Gómez de Olea, J. M. (2024). La inteligencia artificial y la guerra de Ucrania. Cuadernos de Estrategia, 226, 87-104. https://dialnet.unirioja.es/descarga/articulo/9666375.pdf

Pérez Martínez, F. (2024). Inteligencia en el campo de batalla. Anales de la Real Academia de Doctores de España, 9(1), 131-142. https://www.rade.es/academico.php?item=1472

Pignatelli y Meca, F. (2023). Tratado sobre los crímenes de guerra en el Derecho español. Tirant lo Blanch.

Rickli, J., & Mantellassi, F. (2023). Artificial intelligence in warfare: Military uses of AI and their international security implications. En AA.VV., The AI wave in defence innovation: Assessing military artificial intelligence strategies, capabilities, and trajectories. Taylor & Francis. https://doi.org/10.4324/9781003218326-2

Rodríguez Garat, J. (2024). Tambores de guerra: Contra el desarme moral y militar de España. La Esfera de los Libros.

Rodríguez, J. M. (2025). La regulación de la inteligencia artificial y la responsabilidad de los Estados en su utilización militar. Revista UNISCI, 67, 53-86. https://doi.org/10.31439/UNISCI-220

Sánchez Sánchez, J. L. (2024). Inteligencia artificial en apoyo a la inteligencia militar: Eje fundamental del éxito o fracaso en la competición estratégica entre grandes potencias. Cuadernos de Estrategia, 226, 105-151. https://dialnet.unirioja.es/descarga/articulo/9666376.pdf

Sari, O., & Celik, S. (2021). Legal evaluation of the attacks caused by artificial intelligence-based lethal weapon systems within the context of Rome statute. Computer Law & Security Review, 42, 105564. https://doi.org/10.1016/j.clsr.2021.105564

Shahi, A. (2024). The regulation of AI-based weaponry under international humanitarian law. International Journal of Law Management & Humanities, 7(1), 1108-1121. https://doij.org/10.10000/IJLMH.116825

Notas

1 Nota bene: Para la redacción de este capítulo no se ha utilizado inteligencia artificial.

2 Las cumbres REAIM celebradas en 2023 en La Haya (Países Bajos) y Seúl (República de Corea) en 2024, con representantes de 57 y 121 Estados, respectivamente.

3 En este sentido, y a pesar de las múltiples definiciones existentes, la definición de IA de la Real Academia Española es la: «capacidad de realizar tareas comparables a las que realiza la mente humana».

4 Para el Coronel Pardo de Santayana (2024, p. 89) el desarrollo de la IA en el ámbito de la Defensa tiene sus propias características. Para su uso militar no es suficiente con los datos procedentes de internet, la mayor parte de estos datos tiene que venir de las propias capacidades militares, los sensores y la colaboración con empresas tecnológicas. Además, los jefes militares necesitan saber cómo utilizar estos datos con fines bélicos.

5 Que incluye la guerra cognitiva, una forma de guerra no convencional o híbrida que utiliza herramientas cibernéticas (con papel protagónico de la IA) para alterar los procesos cognitivos del enemigo, explotar los sesgos mentales y el pensamiento irreflexivo, y provocar distorsiones en su pensamiento para influir en la toma de decisiones y entorpecer sus acciones. Esta nueva forma de guerra va más allá de luchar por el flujo de información y se centra en controlar o alterar la forma en que la gente reacciona a la información.

6 Las instituciones militares de toma de decisiones son sistemas sociotécnicos. Presentan interacciones entre personas que aplican tecnologías para desempeñar funciones dentro de colectivos orientados a misiones. Sobre los efectos probables de la integración de la IA en la toma de decisiones militares véase Osoba, 2024.

7 Palabras pronunciadas en una rueda de prensa, el 8 de octubre de 2024.

8 Resultado, en muchos casos, de la participación humana en su diseño e implementación.

9 Lo que subraya la necesidad de regulaciones y medidas más estrictas sobre tecnologías de código abierto de uso civil en un mundo cada vez más interconectado, que pueden ser adaptadas en el ámbito castrense.

10 Lethal autonomous weapon systems (LAWS), en lengua inglesa.

11 Para Pignatelli (2023, p. 1305), general consejero togado y antiguo magistrado de la Sala de lo Militar de nuestro Tribunal Supremo, al analizar la segunda de las conductas incriminadas en el artículo 610 del Código Penal, la sanción del empleo de métodos o medios de combate “destinados a causar sufrimientos innecesarios o males superfluos”, considera que aunque al parecer y por el momento no existen armas totalmente autónomas, los rápidos avances tecnológicos, como la IA, nos acercan al momento en que sean operativas armas totalmente autónomas. La cuestión es si éstas pueden programarse o no para cumplir el Derecho internacional humanitario, aunque plantea sus dudas de que sin un control humano significativo puedan valorar adecuadamente situaciones complejas y cumplimentar las normas al respecto, especialmente los principios de distinción, precaución y proporcionalidad.

12 Sobre los SAAL que utilizan tecnologías asociadas con la inteligencia artificial y la robótica y su presencia en el campo operacional de la actual guerra en Ucrania véase Marín Martínez, 2022. Tomando como referencia el informe del Grupo General de Expertos sobre los SAAL de 2022, en el seno de la Convención sobre Prohibiciones o Restricciones del Empleo de Ciertas Armas Convencionales que puedan considerarse excesivamente nocivas o de efectos indiscriminados, cualquier acto ilegal de un Estado cometido en el uso de los SAAL implicaría la responsabilidad internacional de dicho Estado de acuerdo con el derecho internacional, ibidem.

13 Siguiendo a Cotino Hueso & Gómez de Ágreda (2024, p. 276) en el uso militar de sistemas autónomos basados en IA ha de mencionarse la “doctrina del doble efecto” que supone que es moralmente permisible la muerte no intencional pero previsible de no combatientes, siempre y cuando se cumpla el principio de proporcionalidad. Algunos sistemas autónomos pueden seleccionar y atacar objetivos de no combatientes, sin intervención humana directa, como objetivo estadísticamente inevitable, lo que constituye una muerte que no es ni colateral ni intencionada.

14 Para Alvade Orzaiz y Campione (2022, p. 201) los sistemas de armas autónomos con IA capaz de conferir a la máquina capacidades hasta ahora reservadas a la naturaleza humana, amenazan con marginar o expulsar al ser humano de la cadena de acción y decisión, con todo lo que ello conlleva desde el punto de vista de asignación de responsabilidades.

15 En el caso de la Federación Rusa en la invasión de Ucrania, el conflicto ha provocado utilización indiscriminada de los SAAL contra objetivos básicos de supervivencia civil, como infraestructuras críticas de electricidad y abastecimiento de agua, así como complejos residenciales, vulnerando los principios de distinción, humanidad y proporcionalidad del DIH. La problemática surge de un deficiente desarrollo del derecho internacional en el ciberespacio, ya que la responsabilidad jurídica internacional ha sido desarrollada para el mundo analógico y existen graves dificultades para su aplicación práctica a los SAAL. En Marín Martínez (2023, p. 86).

16 Meaningful Human Control.

17 Gray hace una crítica acerada al uso de Habsora (Evangelio) por el ejército israelí, un programa de selección de objetivos diseñado para aumentar el número de objetivos potenciales basado en datos de vigilancia (drones, satélites, cámaras terrestres, cámaras corporales), comunicaciones interceptadas, movimientos observados, análisis humanos y, probablemente, redes sociales.

18 El DIH es el conjunto de normas que, por razones humanitarias, trata de limitar los efectos de los conflictos armados. Protege a las personas que no participan o que ya no participan en los combates y limita los medios y métodos de hacer la guerra. El DIH suele denominarse también «derecho de los conflictos armados» o «derecho de la guerra» (Gray, 2024, p. 170).

19 Artículo 1, párrafo 2 [cláusula de Martens] del citado Protocolo: «En los casos no previstos en el presente Protocolo o en otros acuerdos internacionales, las personas civiles y los combatientes quedan bajo la protección y el imperio de los principios del derecho de gentes derivados de los usos establecidos, de los principios de humanidad y de los dictados de la conciencia pública». Disposición inspirada por el jurista ruso Martens, de ahí su denominación, y consagrada en el preámbulo del Convenio IV de La Haya sobre leyes y usos de la guerra terrestre de 1899.

20 Instrumento de Ratificación del Estatuto de Roma de la Corte Penal Internacional, hecho en Roma el 17 de julio de 1998.

21 A los efectos del Estatuto, se entiende por "crímenes de guerra": a) Infracciones graves de los Convenios de Ginebra de 12 de agosto de 1949, a saber, cualquiera de los siguientes actos contra personas o bienes protegidos por las disposiciones del Convenio de Ginebra pertinente.

22 Toma el nombre del lugar de celebración de la reunión internacional durante los días 1 y 2 de noviembre de 2023, en el histórico enclave de Bletchley Park (Reino Unido), conocido por ser el lugar donde se descifraron los códigos de la máquina Enigma alemana durante la Segunda Guerra Mundial. Situado a 80 km. de Londres, alberga una mansión de época Victoriana que fue el antiguo Cuartel General de Comunicaciones del Gobierno y la Escuela de Cifrado (GC&CS).

23 Sobre la base del informe de la Primera Comisión (A/79/408, párr. 114)].

24 Estos grupos, que darán sus frutos en los años venideros, son consecuencia del primer marco regulador para la IA del Parlamento Europeo: Propuesta de reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas sobre inteligencia artificial (Ley IA) y se modifican determinados actos legislativos de la Unión. COM/2021/206 final, 2021. En Lamas López y Peralta Gutiérrez (2024, p. 81),

25 El convenio marco fue adoptado por el Comité de Ministros del Consejo del Consejo de Europa el 17 de mayo de 2024. Los 46 Estados miembros del Consejo de Europa, la Unión Europea y 11 Estados no miembros (Argentina, Australia, Canadá, Costa Rica, Estados Unidos de América, Israel, Japón, México, Perú, la Santa Sede y Uruguay) negociaron el tratado.

26 BOD nº 131, de 6 de julio de 2023.

27 Más recientemente, y en el BOE de 14 de octubre de 2024, se publicó la adjudicación de un contrato del Ministerio de Defensa de asistencia técnica de ingeniería para la realización de un estudio tecnológico prospectivo sobre la automatización del proceso de decisión por medio de Inteligencia Artificial.

28 Rules of Engagement (ROEs), en lengua inglesa.

29 Posición del CICR sobre los sistemas de armas autónomos, Ginebra, 12 de mayo de 2021. Se puede consultar en: https://www.icrc.org/es/document/posicion-del-cicr-sobre-los-sistemas-de-armas-autonomos

30 Véase Greipl, et al. (2024). La sección 1ª desarrolla el marco conceptual. En la sección 2ª se analizan los principales impulsores de la aplicación militar de la IA en la toma de decisiones sobre el uso de la fuerza, y ofrece ejemplos de desarrollos y usos actuales de aplicaciones. La sección 3ª explora algunos de los riesgos que plantea el uso de la IA desde el punto de vista del cumplimiento del DIH y de las posibles repercusiones en las personas afectadas por conflictos armados. La sección 4ª contiene una evaluación inicial de las formas de mitigar estos riesgos. La sección 5ª resume las principales conclusiones y propone posibles pasos a seguir.

31 En el mismo sentido, para Shahi (2024. p. 1119) es necesaria una cooperación internacional en torno a la IA y las armas autónomas, en lugar de padecer su uso desenfrenado. Aboga por la estandarización de los principios de uso garantizando el despliegue responsable de armas de aprendizaje automático por parte de todos los combatientes.

32 La IA militar sirve para aumentar las capacidades militares, también en su capacidad destructiva. No le son de aplicación las Leyes de la Robótica del escritor Isaac Asimov. Primera Ley: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño; Segunda Ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley; Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

33 «Si estamos de acuerdo en que la sociedad necesita que la guerra esté reglada para contener los efectos destructivos de la misma, entonces lo que se precisa es convocar una reflexión sobre el futuro de las leyes de la guerra, no su funeral» (Aldave Orzaiz, 2022, p. 201).

Notas de autor

* Doctor en Derecho

Información adicional

Cómo citar : Pérez García, M. L. (2025). Aspectos jurídicos del uso de la inteligencia artificial (IA) en la toma de decisiones en el ámbito militar. Revista Estudios Jurídicos. Segunda Época, 25, e9825. https://doi.org/10.17561/rej.n25.9825

Secciones
Revista de Estudios Jurídicos
ISSN: 1576-124X

Num. 25
Año. 2025

ASPECTOS JURÍDICOS DEL USO DE LA INTELIGENCIA ARTIFICIAL (IA) EN LA TOMA DE DECISIONES EN EL ÁMBITO MILITAR

Manuel Luis Pérez García
XXXVII Curso de Defensa Nacional (CESEDEN),España
Contexto
Descargar
Todas