



CONFERENCIA INAUGURAL: INTELIGENCIA ARTIFICIAL Y DEFENSA
José María Millán Martínez
CONFERENCIA INAUGURAL: INTELIGENCIA ARTIFICIAL Y DEFENSA
Revista de Estudios Jurídicos, núm. 25, 2025
Universidad de Jaén
INAUGURAL CONFERENCE: ARTIFICIAL INTELLIGENCE AND DEFENCE
José María Millán Martínez *
Centro de Sistemas y Tecnologías de la Información y de las Comunicaciones del Ministerio de Defensa, España
Recibido: 01 agosto 2025
Aceptado: 04 agosto 2025
Resumen: En la conferencia inaugural, se expone la Inteligencia Artificial (IA) y su impacto en la Defensa. Considerando urgente establecer marcos éticos y jurídicos sólidos, pues la IA, pese a sus vastas aplicaciones militares, exige preservar la dignidad humana y el control efectivo del hombre. Anclándose en el humanismo occidental podremos guiar este progreso tecnológico en el ámbito del combate.
Palabras clave: Inteligencia Artificial (IA); Defensa; Ética Militar; Marco Jurídico y Control Humano.
Abstract: In the inaugural conference, Artificial Intelligence (AI) and its impact on Defense are laid out. I believe it's urgent to establish robust ethical and legal frameworks, because AI, despite its vast military applications, demands we preserve human dignity and maintain effective human control. By staying anchored in Western humanism, we can guide this technological progress in combat.
Keywords: Artificial Intelligence (AI); defense; military ethics; legal framework and human control.
SUMARIO
I. Introducción. II. El panorama de la Inteligencia Artificial y el ámbito de la Defensa. III. La ética y la moral en el marco de la Inteligencia Artificial. IV. Discusión jurídica en torno a la Inteligencia Artificial. V. Conclusión. VI. Financiación. VII. Bibliografía.
I. INTRODUCCIÓN
Me corresponde la labor de abrir y enmarcar este seminario, para lo cual querría compartir algunas reflexiones sobre la tecnología digital, y en concreto, la Inteligencia Artificial, y la ética militar; procuraré que sirvan para la discusión posterior y no cansarles demasiado.
Reflexionar (sobre la ética militar) empieza a ser tarea difícil, porque como sociedad nos hemos alejado voluntariamente de introspecciones; la nuestra es una era de “cultura post filosófica”, como la definió la profesora (Camps, 2017).
Pero la ética, como veremos, es ineludible para que el soldado conserve su esencia en el próximo combate, en el que estará acompañado por la Inteligencia Artificial.
Además, cualquier reflexión (también la ética) se dirige a comprender al hombre y este ejercicio nos ayuda a entender la tecnología, “ya que la comprensión del cerebro humano arroja luz sobre la naturaleza de la inteligencia artificial”, como apuntaba Manuel Castells hace más de veinticinco años (Castells, 1998, p. 108).
Permítanme presentar brevemente la cuestión: qué ha cambiado para que se multipliquen los estudios de la implicación de la tecnología digital en nuestras vidas.
Siempre se han necesitado orientaciones morales sobre el uso de las nuevas herramientas; de la misma manera que la invención del puñal precedió a la conciencia del imperativo categórico (“no matarás”1), el progreso exponencial de la Inteligencia Artificial plantea preguntas para las que urge encontrar respuestas, también en el cambiante ámbito militar.
La verdad es que asistimos entre estupefactos y perezosos al proceso de Transformación Digital, por el cual nos vamos adaptando a un tipo de sociedad nueva, que Manuel Castells denominó “sociedad red” a finales de siglo pasado. Este proceso, acelerado por la Inteligencia Artificial, supone un nuevo tipo social y económico, que según la socióloga norteamericana Shoshana Zuboff corresponde a un capitalismo de nuevo cuño, basado en la vigilancia que gracias a los datos personales que volcamos en la red, llevan a cabo las grandes corporaciones tecnológicas, reportándoles enormes beneficios (Zuboff, 2019).
El historiador israelí Yuval Harari (2024), uno de los pensadores que está comunicando más activamente los peligros de la Inteligencia Artificial, desarrolla la visión de Castells con tonos ocres: para él, la humanidad gana un poder enorme al construir grandes redes de cooperación, pero la forma en que se construyen éstas nos predispone a usar el poder de manera imprudente […]. Nuestro problema, dice, “es un problema de red. En concreto, es un problema de información, [que] es el pegamento que mantiene unidas a las redes”.
Las tecnologías digitales, omnipresentes, se encuentran en el origen de esta situación y al mismo tiempo, exacerban ese problema; tienen unas características distintivas,2 de las que participa también la Inteligencia Artificial. Por un lado, su creciente potencia, que ha alimentado el mito del “solucionismo tecnológico”, que consiste en pensar que las tecnologías digitales pueden resolverlo todo, que nada les está vedado.3 Esta creencia en su poder ilimitado, particularmente acusada en el caso de la Inteligencia Artificial,4 nutre una imaginación colectiva que mezcla futuros distópicos de máquinas alcanzando la singularidad, con las posibilidades reales de la tecnología.
Admitamos que hoy, por la omnipotencia y la omnipresencia de lo digital, es difícil distinguir entre lo real y lo virtual, llegándose a admitir sin mayor reparo el término Realidad Virtual, paradigma de oxímoron. Este asunto no es baladí: si no está clara la diferencia entre una persona y una máquina, el individuo importará poco y la justicia y el estado de derecho significarán cada vez menos.
Otra característica de las tecnologías digitales es que son al mismo tiempo, intuitivas y anti intuitivas. El usuario medio las maneja con facilidad: nos venden (y no por poco dinero) un teléfono móvil con más potencia de cómputo y capacidad de almacenamiento que un ordenador de sobremesa y sin un simple marbete informativo. Y a pesar de ello, por ser intuitivas, somos capaces de usar ese terminal sobre la marcha y personalizarlo con nuestra información.
Pero son también anti-intuitivas: como el terminal no funcione y el error no se resuelva apagando y encendiendo de nuevo, tendremos que recurrir a una legión de expertos para salir del atolladero.
La Inteligencia Artificial (generativa) participa de estas características. Al ser intuitiva en su empleo, ha gozado de la aceptación de millones de usuarios en un cortísimo plazo de asimilación; pero su funcionamiento es completamente anti-intuitivo, lo que está originando los movimientos que exigen una Inteligencia Artificial explicable.
El “algoritmo”, elemento que permite a la Inteligencia Artificial hacer mágicamente lo que efectivamente hace, esconde su secreto reservado a los iniciados. De ahí el poder que están acumulando los detentadores del misterio. Y esto desata nuestra imaginación, que dibuja un futuro oscuro, frío, azul, en el que dudamos si el poseedor del todopoderoso algoritmo, convertido en objeto de adoración, es una persona o una máquina.
A decir de muchos, la Inteligencia Artificial definirá nuestro siglo; al menos lo está haciendo en el primer cuarto de la centuria. El CEO de Google Sundar Pichai afirmaba en abril de 2023 que “[la Inteligencia Artificial] va a ser comparable al descubrimiento del fuego”.5 El ritmo acelerado de progreso de esta tecnología va confirmando lo que podría parecer la exageración interesada del responsable de una empresa cuyo negocio son sus datos: sus datos de ustedes, me refiero, que para la Inteligencia Artificial son como el oxígeno para los seres vivos.
Aunque haya voces bien informadas, como algún profesor del MIT, que alertan de una posible burbuja parecida a la de las puntocom,6 no se puede negar que la Inteligencia Artificial haya penetrado con fuerza en muchos ámbitos, como en la investigación científica, el diagnóstico médico, o la robotización de la industria. Incluso en la política: En 2017, Roman Zaripov, un joven especialista en marketing creó Alisa, un asistente con inteligencia artificial.7 “Ella misma” fundamentó en varios puntos su precandidatura a la presidencia de Rusia; no es el único caso de robots políticos.8
Cabría reflexionar sobre la posibilidad de que los algoritmos alcancen un poder político y económico efectivos. Harari asegura que pronto les concederemos personalidad jurídica, de manera que “podrían entonces poseer un fondo de capital riesgo sin tener que obedecer los dictados de ningún patrón humano” (Harari, 2017, p. 121).
En otras palabras, es probable que debamos modificar nuestra percepción de la Inteligencia Artificial como una herramienta cuyo uso pueda ser más o menos peligroso, porque se ha convertido en un agente efectivo, con un grado de autonomía decisoria inédito en un artefacto, a lo que cabría añadir la capacidad que tienen las tecnologías de la información de interactuar en el mundo físico (Harari, 2024, p. 138).
Para advertir de sus riesgos, no es preciso acudir a futuros apocalípticos, poco probables, que además nos distraen de los peligros reales que se nos avecinan (Harari, 2024, p. 138). En este sentido, la Declaración de Bletchley,9 a la que se adhirieron en noviembre de 2023, cerca de 30 gobiernos, reconocía que “existe la posibilidad de que se produzcan daños graves, incluso catastróficos, deliberados o no, derivados de las capacidades de estos modelos de Inteligencia Artificial”. Me permito añadir que algunos son inminentes, pero poco comentados, como el consumo energético10 o de recursos hídricos requeridos por los grandes modelos de Inteligencia Artificial.11
En este contexto, las Fuerzas Armadas sienten la necesidad de impregnar de sentido ético las soluciones de Inteligencia Artificial, pero dentro de un proceso superior, el de la Transformación Digital, en el que el factor humano es central, porque solamente el hombre puede aplicar ética y legalidad a la tecnología, sea cual sea.
Como veremos, la tecnología y su aplicación de acuerdo con códigos morales son inseparables en nuestra cultura occidental, por lo que la propuesta de estudiar el derecho y la Inteligencia Artificial (que a decir de algunos tiene mucho de artificial y menos de inteligencia12), es especialmente sugerente por necesaria.
II. EL PANORAMA DE LA INTELIGENCIA ARTIFICIAL Y EL ÁMBITO DE LA DEFENSA
La Inteligencia Artificial se ha incorporado a muchos procesos del conflicto; a los anteriores a la batalla y a los presentes en el combate. Veamos algunos casos:
La Inteligencia Artificial puede modificar radicalmente el cálculo de la disuasión nuclear.13 Una analogía con el ajedrez ayudará a comprender este hecho. Basándose en su enorme profundidad de cálculo, las máquinas proponen en este juego movimientos aparentemente irracionales porque conllevan sacrificios de pieza incomprensibles, pero que se demuestran finalmente rentables muchas jugadas después; de manera similar, en la competición de la disuasión nuclear, la Inteligencia Artificial ofrece opciones finalmente viables, pero que ningún humano adoptaría, porque las pérdidas iniciales son humanamente inasumibles.
La Inteligencia Artificial generativa, por otro lado, tiene ya aplicaciones en la gestión de crisis (Corchado, 2024). Hay sistemas desarrollados por BBVA Research que han analizado los flujos migratorios en curso, la guerra entre Rusia y Ucrania, o el conflicto armado entre Israel y Hamas,14gracias a su capacidad de procesar información en cualquier formato (textos, imágenes o videos), procedente de medios de comunicación, facilitando el análisis de las crisis en tiempo real y por también la prevención de conflictos.
En el ámbito de la logística operativa hay ya desarrollos en uso, que combinan diferentes tecnologías relacionadas, como machine learning, realidad virtual y aumentada, o el Big Data, y llevan a cabo tareas de mantenimiento predictivo sobre sistemas físicos.
La Inteligencia Artificial va a ser imprescindible en la configuración del ámbito espacial15 y en las operaciones militares en el ámbito cognitivo, facilitando, por ejemplo, las campañas de desinformación generando patrañas16 en cualquier formato, texto o imágenes; potenciando las aplicaciones de inteligencia orientadas a encontrar elementos específicos en grandes cantidades de documentos, o simplemente, mediante la traducción de información de inteligencia extranjera, etc.; en el ciberespacio, donde la Inteligencia Artificial ya está proporcionando herramientas de análisis de comportamiento de las redes que permiten la adopción de medidas preventivas.
En el campo de la ciberseguridad, sin embargo, conviene advertir que el acceso a la Inteligencia Artificial generativa va a aumentar el riesgo asumido por las organizaciones, que se verán obligadas a proporcionar seguridad a las plataformas y a los datos, para reducir los riesgos derivados de accesos no autorizados, controlar los efectos de sus alucinaciones, y mitigar los resultados erróneos; disminuir la posibilidad de envenenamiento de los datos; asegurar la inyección de prompts, o evitar la pérdida de datos. Se calcula que, en 2025, la Inteligencia Artificial generativa obligará a aumentar en un 15%, las inversiones en ciberseguridad, por las propias plataformas y por la criticidad de los datos.17
En los entornos tradicionales de las operaciones militares, la aplicación de la Inteligencia Artificial es especialmente eficiente cuando trata procesos fácilmente automatizables por estar muy depurados y usar grandes cantidades de datos. Es el caso del targeting o de las acciones en el espectro electromagnético. Otro aspecto táctico potenciado por la Inteligencia Artificial es el despliegue distribuido de puestos de mando, una exigencia a la vista de la experiencia de la guerra de Ucrania.
Por supuesto, los sistemas de recomendación tendrán un campo de aplicación cada vez mayor en el apoyo a la toma de decisiones, y abre el debate de su empleo, su fiabilidad, el sesgo, la confianza que se puede depositar en ellos, etc.
La Inteligencia Artificial define una nueva relación hombre – máquina en el combate, mediante la integración de sistemas tripulados y autónomos en las operaciones militares. Es la robotización del campo de batalla18 que disminuirá la intervención humana en espacios contaminados, nos evitará tareas repetitivas o se hará cargo de muchas actividades peligrosas para el combatiente, como la desactivación de explosivos.19 Este es un aspecto muy relevante para los ejércitos occidentales, cuya capacidad de generación de efectivos es cada vez más reducida.
Otro aspecto de la robotización que estamos viendo en la guerra de Ucrania, es el empleo de enjambres de drones20: mediante su uso cooperativo gracias a la Inteligencia Artificial, llevan a cabo un variado conjunto de misiones, de vigilancia y control, ataque, o como munición inteligente (Acuña, 2012).
Hemos omitido conscientemente los sistemas letales autónomos, porque la Estrategia de desarrollo y uso de la Inteligencia Artificial del Ministerio de Defensa los aparta explícitamente de la panoplia española.
En muchos de los casos de uso sobresale una cuestión, crucial para el soldado, que debe ser consciente de que necesita un armazón ético para mantener la esencia de la profesión militar, asegurando que sus actos en combate son moralmente aceptables y lícitos, independientemente de los medios que emplee en la batalla.
III. LA ÉTICA Y LA MORAL EN EL MARCO DE LA INTELIGENCIA ARTIFICIAL
Los términos moral y ética se pueden distinguir claramente, aunque se utilicen indistintamente en el lenguaje ordinario. La ética se mueve en un entorno reflexivo y teórico,21 en el que considera los actos libres del ser humano y les otorga una valoración; argumentos y razones, para concluir que son adecuados y valiosos o malos e inapropiados. La ética no prescribe la acción; solo orienta de forma mediata la conducta, al responder por qué puedo hacer algo.
La moral se conforma a través de principios que definen acciones concretas del individuo a partir de la reflexión ética. La moral preceptúa la acción, orienta de forma inmediata el comportamiento; responde qué hacer.
La aceptación racional de los códigos de conducta es condición de la moral, mientras que la razón filosófica, la justificación teórica de por qué hay moral y por qué debe haberla, es motivo de la ética (Cortina Aracil, 2012).
Por ejemplo, en nuestro Ejército de Tierra hay una serie de valores y principios, codificados en forma de Decálogo (como el del Cadete), Ideario (el de los Paracaidistas), o Credo (el de la Legión); son normas de comportamiento moral apoyadas en argumentos de una ética que podríamos llamar militar.
Estos códigos son imprescindibles para sostener la tendencia natural que tiene el soldado hacia la trascendencia, motivada por el carácter sacrificial de nuestra vocación. Tengan en cuenta que la nuestra es una profesión que obliga a comprometer la vida, a ponerla en riesgo, y esto solo se soporta si se aspira traspasar los límites de la experiencia presente.
Por este motivo, la vida militar no casa con una ética de mínimos, con el relativismo o con la “modernidad líquida” que definió (Bauman, 2003). El militar requiere un código moral fuerte, adecuado a la gravedad del combate. De ahí que la redacción de decálogos, idearios o credos pueda parecer hiperbólica si se leen en la quietud del salón de casa, pero no lo sea en absoluto cuando se acude a ellos en el caos de la batalla.22
La eficacia de un ejército y su beneficio para la sociedad se mide por su capacidad para prevalecer en el combate. Ante esta necesidad, cabe preguntarse si puede ganarse la guerra solo con el espíritu. Efectivamente, en el proceso de ganar batallas se han enfrentado siempre dos perspectivas aparentemente contrapuestas, pero interdependientes y que, en mi opinión, son como el haz y el envés de una misma realidad.
Por un lado, la técnica, gracias a la cual se gestionan los recursos materiales y las condiciones físicas del combate ordenándolos hacia la victoria. La Inteligencia Artificial pertenece a este grupo.
Por otra parte, el pensamiento, que atesora los valores morales que definen la calidad humana y el carácter de un ejército, su idiosincrasia; este ámbito intangible custodia el código de conducta moral de la institución que aplica a cada uno de nosotros.
Los niveles de complejidad y perfección de la Inteligencia Artificial multiplican la tentación de ganar la guerra solamente con la mitad material, porque, como decíamos antes, la mentalidad contemporánea ha sintetizado sus posibilidades aparentemente infinitas en una especie de fe secular (La Parra, 2021).
Esto refuerza la tendencia de desvincular la capacidad técnica de las virtudes humanas, cuando la experiencia nos muestra, con impertinente insistencia, que la fuerza moral se extiende inmediata y sin brechas a la técnica, de manera que ambas se confunden en un todo orgánico.
La fusión entre técnica y pensamiento es una necesidad, porque el compromiso de la profesión militar con la sociedad alcanza a la persona del militar íntegramente: es reprochable que un soldado muestre incapacidad técnica para el combate, pero sería además peligroso que careciera de sentido del bien y del mal.
Insisto en que esta competición entre las dos mitades: la técnica, lo material; y el pensamiento, la voluntad moral, es contraproducente, porque el soldado, a través de la voluntad (como digo, propia del pensamiento), necesita integrarlas antes del combate. En realidad, todo esto recuerda la esencia humana: es material y espiritual al mismo tiempo, pero andamos dirigidos por el espíritu.
En definitiva, los ejércitos, que manejan la tecnología más compleja para alcanzar su objetivo esencial (ganar la guerra), deben fundamentarse en un sillar ético-moral. Como recordaba el filósofo francés Jean Guitton (2019), “cuanto más técnica se hace la guerra, más claramente se nos presenta que es el pensamiento el que la gobierna”.
Pero las instituciones no son éticas o morales por sí mismas; si queremos que sean virtuosas, deben promocionar la virtud de sus componentes, incentivando el libre ejercicio de los valores inscritos en los códigos morales; tampoco la tecnología es buena o mala por sí misma; es la virtud de quienes la diseñan de quienes las empleen lo que cuenta. Y si hemos sido capaces de crear un agente efectivo a partir de una herramienta, toca entonces aplicar los límites que la razón imponga, orientados a preservar la dignidad del hombre, es decir su libertad.
Son muchas las iniciativas orientadas al uso ético de las nuevas tecnologías y en concreto, de la inteligencia artificial.23 Todas coinciden básicamente, en la preocupación por el posible uso inapropiado de esta tecnología, en pedir un marco regulatorio24 y en proponer códigos de conducta basados en principios como la explicabilidad, la fiabilidad, la transparencia, la responsabilidad, la autonomía restringida y la centralidad del papel humano.
En el Ministerio de Defensa se inició una reflexión ética liderada por el Centro Superior de Estudios de la Defensa Nacional, que se tuvo en cuenta en la Estrategia para el uso de la Inteligencia Artificial de nuestro Departamento, documento que refleja la visión estratégica que tiene el Ministerio de Defensa sobre el uso de esta tecnología para orientar los procesos de obtención, desarrollo, empleo operativo, etc.25
IV. DISCUSIÓN JURÍDICA EN TORNO A LA INTELIGENCIA ARTIFICIAL
Efectivamente, una de las consecuencias directas de estas consideraciones éticas es la discusión jurídica, porque el Derecho moderará la interacción entre el individuo y la máquina, y entre los individuos potenciados por la tecnología, plasmando en normas la relación entre el ser y el deber ser (Martínez Bahena, 2012, p. 827). Permítanme unos apuntes finales, atrevidos por no ser en absoluto experto en esta materia; insisto en que pretendo iniciar el debate que se desarrollará durante el seminario.
Como habrán deducido de lo escuchado hasta ahora, toda gira en mi opinión, en torno al hombre, y qué papel queremos que interprete en un mundo cuyo adelanto se basa en la tecnología. Creo sinceramente que nuestra civilización occidental debe su progreso al humanismo, que ha permitido que el foco de la cultura occidental sea el ser humano, sus libertades y su bienestar. Este humanismo occidental se fundamenta en las tres tradiciones que tenemos en herencia.
Grecia nos enseñó el apego por la filosofía, lo que ayudó a sembrar en occidente la fuerza de la razón. Roma nos legó el imperio de la ley. Sin esta tradición, sin el Derecho Romano, no habría sido posible, por ejemplo, que naciese en la España del XVI la Escuela de Salamanca, que puso los cimientos entre otros, del Derecho Internacional, cuyos principios se esgrimen hoy en las discusiones sobre la legalidad de la Inteligencia Artificial.26
Pero ni Grecia ni Roma abolieron la esclavitud. Fue Cristo, el del Evangelio que culmina y perfecciona la antigüedad judía, quien devolvió al hombre la libertad perdida y definió su dignidad como creatura de Dios. La espiritualidad cristiana es la tercera tradición imprescindible para entender el humanismo occidental. Para admitir esta realidad no es preciso ser creyente.
Es este humanismo el que está siendo aparentemente superado por una tecnología capaz de reducir la realidad de la persona a datos que almacena y distribuye. Los algoritmos que elaboran codifican y gestionan esos datos, diseñados supuestamente para facilitar la vida del hombre, pueden llegar a ser autónomos y generar una subjetividad “electrónica” diferente de la humana (Valdivia Jiménez, 2020).
A este fin parece dirigirse la atribución de personalidad a la Inteligencia Artificial, superando su consideración de cosa; si se considera un agente, se asentará en el mundo jurídico sin control humano basándose en su aparente capacidad de expresar una voluntad propia y eficaz, alejada de la de sus creadores, como ya avanzó Harari en su Homo Deus.
El problema se complica si además se pretende dotar a la Inteligencia Artificial de un carácter ético,27por medio de unas reglas morales absolutas codificadas en el software del sistema, en lo que se denomina “ética de silicio”,28que serán de mayor o menor precisión en función de la complejidad de la programación, del tiempo de desarrollo, o del proceso de implantación,29y que garantizarían aparentemente, la seguridad humana. Pero ¿quién se arroga la competencia para definir el código? ¿Será éste universal, o dependerá de la tradición cultural de cada uno? ¿Se mantiene o se va modificando fruto del proceso de aprendizaje de la máquina?
Estas moral machines abren la discusión sobre la posibilidad real de establecer una regulación que obligue a todos; un conjunto mínimo de requerimientos morales; un procedimiento de monitorización y evaluación y la aceptación de instancias independientes que vigilen el cumplimiento de lo legislado con la suficiente fuerza coercitiva. ¿Se imaginan que esas instancias acaban siendo otro algoritmo?
Otra línea de pensamiento consiste en impedir que la Inteligencia Artificial sustituya las decisiones humanas cuando éstas deban basarse en juicios éticos. Y es que la operación autónoma de la Inteligencia Artificial plantea preocupaciones jurídicas fundamentales, porque no se conoce con exactitud la posibilidad real de imponer límites en el desarrollo, en la implantación y en la utilización de estos sistemas, razón por la cual su funcionamiento y resultados son, de momento, impredecibles y, en consecuencia, no es fácil asegurar la aplicación de las normas jurídicas del Derecho Internacional Humanitario y el respeto a los derechos humanos.
Por todo esto, es imprescindible situar en el centro de la discusión las responsabilidades y obligaciones de los seres humanos en el uso de esta técnica, en cualquier ámbito y más en el militar.
Es el individuo quien debe comprender en su justa medida las obligaciones derivadas, por ejemplo, del principio de distinción, que tiene reflejo en el artículo 111 de las Reales Ordenanzas para las Fuerzas Armadas, o el de proporcionalidad, establecidos en la utilización de armas durante los conflictos armados; la atribución y la responsabilidad, y el “control humano significativo” en el uso de las tecnociencias.
También es preciso considerar los casos de uso en los que la Inteligencia Artificial forma parte de un sistema de armas y, por tanto, puede ser un medio de combate. Esto abriría la posibilidad de discutir la limitación de su empleo por los Estados, bien porque su capacidad destructiva pueda producir «un daño mayor al que sería inevitable para alcanzar objetivos militares legítimos», porque causen males superfluos o sufrimientos innecesarios o porque sus efectos sean indiscriminados.
Cabe así mismo determinar hasta qué punto los algoritmos imponen a los sistemas de armas limitaciones en sus efectos, para que no causen daños colaterales a la población civil y mantengan el necesario equilibro entre la necesidad militar y las consideraciones de humanidad.
Como se puede observar, la armonización de la Inteligencia Artificial y el ámbito de su regulación jurídica constituye un reto, porque, como certeramente apuntó en su momento Ramón Valdivia, actual Obispo Auxiliar de Sevilla, la Inteligencia Artificial trata de desprenderse de los elementos que puedan limitarla, como puedan ser una excesiva eticidad o la rigidez normativa (Valdivia Jiménez, 2020).
V. CONCLUSIÓN
Explicaba Ortega que el lugar auténtico del ser humano no es la naturaleza, sino una realidad transformada gracias a la técnica, una sobrenaturaleza que se convierte en elemento central de la constitución del hombre. Si el resto del reino animal se adapta al medio, el hombre adapta el medio a su necesidad primordial, que es la de ser feliz (por eso necesita el WiFi y una vez conectado, calentarse, comer, conocer, amar, etc.).
En esencia, la digital es una tecnología de control, porque se aplica fundamentalmente para gobernar procesos transformadores de otras tecnologías no digitales. Si gracias a la técnica el hombre crea sobrenaturalezas, la tecnología digital es una sobretecnología.
Es una envoltura que ha modificado nuestro trato intuitivo con la realidad material, sustituida por información prediseñada para facilitarnos la vida aparentemente, porque como apunta la profesora del MIT, Sherry Turkle (2012), “lo que la tecnología permite no siempre es lo que alimenta el espíritu humano”. Estamos hiperconectados, pero solos.
Ortega sostenía que “la moral es […] la exactitud aplicada a la valoración ética de las acciones humanas”. Hoy reina la exactitud gracias a la tecnología, pero es muy posible que la revolución que estamos viviendo sea la de la conexión de ésta con lo humano.
En el caso militar, esa conexión se produce en la dimensión moral que necesita el soldado para aplicar la Inteligencia Artificial en el combate. Para ello requiere una construcción ética previa que dé razón y sustento a la aplicación de los códigos morales a la nueva realidad. Frente al uso de estas tecnologías poderosas, que más allá de la labor transformadora de la realidad han creado una realidad distinta, el soldado requiere un código de valores robusto que siga defendiendo la dignidad humana.
El riesgo es que la rapidez de estos cambios nos hurte la perspectiva; para evitarlo, conviene recordar las preguntas del sentido, de dónde veníamos y adónde nos dirigíamos, justo cuando la tecnología pugna por convertirse en una nueva construcción social.
En ella, la ubicuidad de Internet y las herramientas de gestión de la información que hoy están en nuestros bolsillos, han hecho alcanzable la idea del conocimiento universal: por primera vez en la historia de la Humanidad, todos los cerebros del mundo pueden estar conectados; la información fluye a la velocidad de la luz y alcanza todos los rincones del planeta, haciendo posible que todos compartamos el mismo conocimiento, aunque no sabría decir si éste es el conocimiento universal o simplemente, que todos accedemos al único que se nos ofrece.
Elevar a la Inteligencia Artificial a la categoría de persona supone rebajar la dignidad humana o, directamente, negarla de plano. Y esa dignidad, sea como imagen de Dios (para los creyentes) o como reflejo de la libertad de persona única y por tanto distinta (para los no creyentes), es aplicable a cualquier individuo, tenga o no acceso al arcano del algoritmo.
El desarrollo de los sistemas de Inteligencia Artificial y sus capacidades nos impulsan a pedir un código de conducta moral centrado en el ser humano y devolver a occidente el humanismo olvidado, para recordar que el progreso debe orientarse al corazón del hombre. Si vaciamos éste de belleza, de amor, de verdad, de felicidad, rellenaremos el vacío con utopías de superhombres o intentaremos reprogramar la Humanidad (López Moratalla, 2019, p. 38). Pero las utopías no caben en el caos del combate La batalla no admite fantasías. Muchas gracias por su atención.
VI. FINANCIACIÓN
El presente trabajo es el resultado del proyecto de investigación subvencionado por la Secretaria General de Política y Defensa (SEGENPOL) del Ministerio de Defensa con el n. 130-192480 (convocatoria 2024).
VII. BIBLIOGRAFÍA
Acuña, D. (2012). Tecnologías asociadas a sistemas de enjambres de μUAV. Documentos de Seguridad y Defensa. CESEDEN.
Acemoglu, D. (2024). La inteligencia artificial puede ser un timo para revolucionar la economía. El Confidencial. https://www.elconfidencial.com/tecnologia/novaceno/2024-10-03/inteligencia-artificial-timo-revolucionar-economica_3975436/
Bauman, Z. (2003). La modernidad líquida. Fondo de Cultura Económica.
Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
Business Insider España. (2024). El CEO de Google: La IA va a tener un impacto comparable al descubrimiento del fuego. Business Insider España. https://www.businessinsider.es/pichai-ceo-google-ia-tendra-impacto-fuego-electricidad-1231608
Camps, V. (2017). Posverdad, la nueva sofística. En J. Ibáñez Fanés & M. Arias Maldonado (Coords.), En la era de la posverdad: 14 ensayos (pp. 91–100). Calambur.
Castells, M. (1998). La era de la información: Economía, sociedad y cultura. Volumen I de La sociedad red. Blackwell Publishers Inc.
Centro Superior de Estudios de la Defensa Nacional (CESEDEN). (2021). Usos militares de la inteligencia artificial, la automatización y la robótica (IAA&R). CESEDEN.
Corchado, J. M. (2024). Gestión de crisis mediante la utilización de IA. Cuadernos de Estrategia, 226, 161–188. Centro Superior de Estudios de la Defensa Nacional.
Cortina Aracil, I. (2012). Ganar batallas. Revista Atenea, V(39), 65–69.
Cortina Orts, A. (2024). ¿Ética o ideología de la inteligencia artificial? El eclipse de la razón comunicativa en una sociedad tecnologizada. Ediciones Paidós.
Gómez de Ágreda, Á. (2024). IA en la defensa de la República de Corea y de Japón. Cuadernos de Estrategia, 226. Centro Superior de Estudios de la Defensa Nacional.
González Quirós, J. L. (2006). La meditación de Ortega sobre la técnica y las tecnologías digitales. Revista de Estudios Orteguianos, 12–13, 95–111.
Gov.uk. (2023). The Bletchley Declaration by countries attending the AI Safety Summit. https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
Guitton, J. (2019). Pensamiento y guerra. Encuentro Editorial.
Harari, Y. N. (2017). Homo Deus: Breve historia del mañana. Homo Deus. (sociedaddistopica.com).
Harari, Y. N. (2024). Never summon a power you can’t control: Yuval Noah Harari on how AI could threaten democracy and divide the world. The Guardian. https://www.theguardian.com/technology/article/2024/aug/24/yuval-noah-harari-ai-book-extract-nexus
Kurzweil, R. (2005). The singularity is near: When humans transcend biology. Viking.
La Parra, J. R. (2021). Inteligencia Artificial: aproximación desde una teología amiga de la ciencia. Revista Comprendre, 23(1), 49–75.
Lisi, M. (2024). La IA en el espacio: un catalizador para los cambios geopolíticos en la economía espacial. Cuadernos de Estrategia, 226. Centro Superior de Estudios de la Defensa Nacional.
Loss, R., & Johnson, J. (2019). Will Artificial Intelligence Imperil Nuclear Deterrence? War on the Rocks. https://warontherocks.com/2019/09/will-artificial-intelligence-imperil-nuclear-deterrence/
López Moratalla, N. (2019). Inteligencia Artificial ¿Conciencia Artificial? Ideas y libros.
Martínez Bahena, G. C. (2012). La inteligencia artificial y su aplicación al campo del Derecho. Alegatos, (82), 827. https://www.corteidh.or.cr/tablas/r30570.pdf
Moliner González, J. A. (2018, 13 de agosto). ¿Qué es la ética militar? Documento marco del IEEE (16/2018).
Monasterio Astobiza, A. (2019). Ética para máquinas: Similitudes y diferencias entre la moral artificial y la moral humana. ILEMATA, Revista Internacional de Éticas Aplicadas, (30), 129–147.
Nurock, V. (2020). ¿Puede prestar cuidados la Inteligencia Artificial? Revista Complutense de Relaciones Laborales. https://revistas.ucm.es/index.php/CRLA/article/view/70880/4564456554807
Ortiz, Á., & Rodrigo, T. (2024). Análisis de la geopolítica mundial mediante inteligencia artificial (IA) y big data. Cuadernos de Estrategia, 226, 61–86. Centro Superior de Estudios de la Defensa Nacional.
Plaza López, J. A. (2017). Lecciones de ética para máquinas que ‘piensan’ y toman decisiones. El País Retina. https://elpais.com/retina/2017/12/19/innovacion/1513661054_305253.html
Shakespeare, W. (1602). Ricardo III.
Stanford University. (2021). The One Hundred Year Study on Artificial Intelligence (AI100): 2021 Study Panel Report. Stanford University. http://ai100.stanford.edu/2021-report
Turkle, S. (2012). Conectados pero solos. El Mundo (Yo Dona). https://www.elmundo.es/yodona/blogs/yd_t/2012/04/04/sherry-turkle-conectados-pero-solos.html
Valdivia Jiménez, R. D. (2020). Ética e inteligencia artificial. Una discusión jurídica.
Wallach, W., & Allen, C. (2009). Moral Machine. Teaching Robots Right from Wrong. Oxford University Press.
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. Profile Books.
Notas
1
Citado por Cortina Orts, 2024.
3
El informe de 2001 de la Universidad de Stanford sobre la repercusión de la Inteligencia Artificial en la sociedad expone los peligros más apremiantes, entre ellos el “solucionismo tecnológico”, que ve a la IA como la panacea, sin considerar que la toma de decisiones automatizada puede acarrear peligros o replicar, exacerbar e incluso magnificar el sesgo que desearíamos remediara. Ver “The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report”. Stanford University, Stanford, CA, September 2021. Doc: http://ai100.stanford.edu/2021-report (consultado en mayo de 2022) y https://ai100.stanford.edu/sites/g/files/sbiybj18871/files/media/file/AI100Report_MT_10.pdf
4
La Inteligencia Artificial fuerte busca replicar e incluso superar la inteligencia humana planteando la llegada de un momento histórico de inflexión conocido como “singularidad”; para los transhumanistas tecnocientíficos, tales máquinas no solo podrán simular o imitar la inteligencia humana, sino que serán verdaderamente inteligentes.
5
https://www.businessinsider.es/pichai-ceo-google-ia-tendra-impacto-fuego-electricidad-1231608 (consultado en septiembre de 2024).
6
Declaraciones de Daron Acemoglu, profesor de economía del MIT. https://www.elconfidencial.com/tecnologia/novaceno/2024-10-03/inteligencia-artificial-timorevolucionar-economica_3975436/
7
https://www.milenio.com/estilo/en-rusia-inteligencia-artificial-se-postula-para-presidente (consultado en mayo de 2022).
8
Además de Alisa, la Inteligencia Artificial denominada Sam se postuló como primer ministro en Nueva Zelanda, y la IA Matsuda Michihito se presentó a la alcaldía de un distrito de Tokio, Japón. https://www.eleconomista.es/opinion-blogs/noticias/11190767/04/21/Politicos-Artificiales-Pueden-losrobots-hacerlo-mejor-que-nuestros-gobernantes-actuales.html (consultado en mayo de 2022).
10
https://cliatec.com/energia-nuclear-suministrar-energia-centros-de-datos/.
12
DSI (2019). “Intelligence artificielle: vers une revolution militaire?”, Hors-série 65, Avril-Mai, Défense & sécurité internationale.
13
Rafael Loss and Joseph Johnson, “Will Artificial Intelligence Imperil Nuclear Deterrence?”, War on the Rocks, September 2019, https://warontherocks.com/2019/09/will-artificial-intelligence-imperilnuclear-deterrence/
15
Lisi, 2024.
16
”Patraña”, según la RAE, es una invención urdida con propósito de engañar.
17
Fuente: Predicts 2024: AI & Cybersecurity — Turning Disruption Into an Opportunity.
18
Por poner un ejemplo reciente, la República de Corea está desarrollando un sistema antiminas navales que utiliza submarinos no tripulados y sónares remolcados para la obtención masiva de datos de los fondos marinos. (Gómez de Ágreda, 2024).
19
Los norteamericanos han definido este tipo de actividades como 3D (Dull, Dangerous, Dirty).
https://www.bmt.org/insights/an-evolution-of-the-3-ds-of-robotics-the-6-ds-of-marine-autonomy/
20
https://youtu.be/3G1KBu6H6BM?si=liKBwl1wWQ03b6-W
21
Moliner González, 2018, p. 6.
22
Mañana en la batalla, piensa en mí, pedía a Ricardo III el espectro de su mujer en la obra homónima de Shakespeare.
23
Destacan el Comité Español de Ética en la investigación en el uso e implementación de la Inteligencia Artificial y la Partnership on AI, impulsada por Amazon, Apple, Google, IBM y Microsoft, consecuencia de un manifiesto firmado en julio de 2015 por un millar de expertos, entre otros Stephen Hawking, Steve Wozniak, Elon Musk, Noam Chomsky, o Demis Hassabis. https://partnershiponai.org/ (consultado en mayo de 2022).
Más cercana nos es la Declaración de Barcelona para el Uso Apropiado de la 10 de 11 Inteligencia Artificial, de 2017.
Por su parte, la reciente AI EU Act regula la inteligencia artificial para garantizar mejores condiciones de desarrollo y uso de esta tecnología. En abril de 2021, la Comisión propuso el primer marco regulador de la UE para la IA. Propone que los sistemas de IA que puedan utilizarse en distintas aplicaciones se analicen y clasifiquen según el riesgo que supongan para los usuarios. Los distintos niveles de peligro implicarán una mayor o menor regulación. La prioridad del Parlamento Europeo es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales. El Parlamento también quiere establecer una definición uniforme y tecnológicamente neutra de la IA, que pueda aplicarse a futuros sistemas de esta tecnología.
25
El CESEDEN ya publicó en 2021 el libro Usos militares de la inteligencia artificial, la automatización y la robótica (IAA&R), fruto del trabajo del Centro conjunto de desarrollo de conceptos.
26
A pesar de lo que expresen Chat GPT o la herramienta Gemini de Google; sesgadas por el corpus de datos que manejan, que se ajustan a la tradición anglosajona. Ninguno de las dos aplicaciones cita a la Escuela de Salamanca entre los orígenes del Derecho Internacional.
27
Wallach & Allen, 2009, p. 16.
29
Nurock, 2022.
Notas de autor
* Teniente General
Información adicional
Cómo citar
:
Millán Martínez, J. M. (2025). Conferencia inaugural: Inteligencia Artificial y defensa. Revista Estudios Jurídicos. Segunda Época, 25, e9830. https://doi.org/10.17561/rej.n25.9830