Inteligencia artificial en el Derecho Internacional, Naciones Unidas y Unión Europea

Zlata Drnas de Clément

Inteligencia artificial en el Derecho Internacional, Naciones Unidas y Unión Europea

Revista de Estudios Jurídicos, núm. 22, 2022

Universidad de Jaén

Artificial intelligence in International Law, United Nations and European Union

Zlata Drnas de Clément *

Universidad Nacional de Córdoba, Argentina

Universidad Católica de Córdoba, Argentina


Recibido: 10/febrero/2022

Aceptado: 23/febrero/2022

Resumen: Tras una breve conceptualización de “Inteligencia artificial”, hacemos referencia a los problemas que presenta su emergencia, las disciplinas en las que se enraíza y en las que impacta, para pasar a considerar su evolución en los ámbitos de las Naciones Unidas y la Unión Europea, espacios en los que mayor desarrollo normativo internacional manifiesta.

Palabras clave: “Inteligencia artificial”; Problemas; Disciplinas impactadas; Naciones Unidas; Unión Europea.

Abstract: After a brief conceptualization of "Artificial Intelligence", we refer to the problems that its emergence presents, the disciplines in which it is rooted and in which it impacts, and then we go on to consider its evolution in the fields of the United Nations and the European Union, spaces in which greater international regulatory development manifests.

Keywords: “Artificial intelligence”; Problems; Impacted disciplines; United Nations; European Union.

Sumario

I. Aspectos introductorios. II. Evolución del tratamiento de la IA en las Naciones Unidas. III. Evolución del tratamiento de la IA en la Unión Europea. IV. Breves reflexiones finales.

I. ASPECTOS INTRODUCTORIOS

El término “inteligencia artificial” (IA) se le adjudica a John McCarthy, de la Universidad de Stanford, por haberlo empleado en una conferencia llevada a cabo en 1956, a pesar de que la temática ya tuvo acercamientos desde la década de los ’40 (Leyva-Vázquez y Smarandache, 2018, p. 3).

Si bien no existe una definición única de IA, en general, es conceptualizada como un conjunto de Tecnologías de Información y Comunicaciones (TIC) avanzadas, consistentes en “máquinas capaces de imitar ciertas funcionalidades de la inteligencia humana, incluidas características tales como percepción, aprendizaje, razonamiento, resolución de problemas, interactuación con el lenguaje e incluso producción de trabajos creativos”. La enunciación ha sido propuesta por la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología de la UNESCO (COMEST, según sus siglas en inglés).1,2

Se trata de un conjunto de tecnologías a través de las cuales las máquinas inteligentes están adquiriendo la capacidad de aprender, mejorar y tomar decisiones calculadas de manera que les permiten realizar tareas que antes se pensaba que se basaban únicamente en la experiencia, la creatividad y el ingenio humanos (Zafar y Villeneuve, 2018). La IA consiste en general en una gama de capacidades cognitivas “similares a las humanas” realizadas por máquinas. Puede estar basado en software3 y / o integrado en hardware4 específico. Progresos recientes incluyen el desarrollo de algoritmos de aprendizaje maquinal que pueden mejorar automáticamente sin instrucciones de los humanos.

La IA presenta problemas en sí, como tal, ya que no cuenta con un lenguaje común, ni una metodología única o realmente interdisciplinar (Robles Carrillo, 2020). A ello se agrega que, material y teleológicamente, altera los parámetros básicos de organización humana y social, incluso cuando aún no se ha manifestado en toda su potencialidad.

Las tecnologías basadas en inteligencia artificial aún se encuentran en una etapa temprana de desarrollo,5 presentando riesgos e incertidumbres. Los mayores problemas giran en torno a la gobernabilidad,6 la responsabilidad7 y las cuestiones éticas.8

Debido a su profundo impacto social, muchas organizaciones y gobiernos están preocupados por las implicaciones éticas de la IA. Esto se ve en la gran cantidad de informes sobre IA y ética, así como en iniciativas regionales y nacionales que han ido articulando principios y valores para guiar el desarrollo y el uso de los sistemas de IA.

La idea de gobernanza práctica de la IA, como tecnología distribuida, se está extendiendo a numerosas instituciones, organizaciones y empresas privadas. Por lo tanto, un marco general de buena gobernanza para la IA requiere un enfoque pluralista, multidisciplinario, multicultural y de múltiples partes interesadas. Junto con una comprensión profesional de las tecnologías de IA, ahora se requiere una reflexión ética más profunda para abordar preguntas fundamentales sobre qué tipo de futuro cabe buscar para la humanidad.

En el ámbito internacional de los derechos humanos, se formó la base de la Declaración de Principios de Ginebra de la Cumbre Mundial sobre la Sociedad de la Información (CMSI) de 2003, que establece que “el uso de las TIC y la creación de contenido deben respetar los derechos humanos y las libertades fundamentales de otros, incluida la privacidad personal y el derecho a la libertad de pensamiento y de conciencia”.

Zoraiz Hussain (2021) hace presente que una de las más expandidas violaciones de derechos humanos vía IA es la que vulnera el “consentimiento individual” a través del uso de un algoritmo de inteligencia artificial que puede concebir o almacenar sus datos privados y luego venderlos a diferentes empresas. Recuerda que -recientemente- Facebook y Google fueron acusados de robo de datos privados. El problema es que no existe una normativa para ese tipo de delito, lo que constituye una laguna grave en materia de derechos humanos. Hussain ejemplifica el caso de Brittany Nicole Kaiser, joven ex directora de desarrollo comercial de “Cambridge Analytica” (empresa británica de consultoría política) que colapsó tras el descubrimiento del mal uso aplicado a datos de Facebook para influir en el referéndum del Brexit en el Reino Unido y en las elecciones presidenciales de Estados Unidos de 2016. Kaiser estuvo involucrada en la alimentación de información, distorsiones y violaciones de la privacidad de millones de cuentas de Facebook en todo el mundo. Afectó a casi 100 campañas electorales en más de 30 países en 5 continentes. Jugó con el intelecto de las personas, las dirigió silenciosamente, subliminalmente, violando su derecho a determinar libremente sus decisiones políticas.

Un creciente cuerpo técnico-doctrinal -en un todo acorde con la concepción de gobernanza del Derecho administrativo global9- examina la necesidad de hacer un uso de las tecnologías nuevas y emergentes más transparente y explicable como un medio para garantizar la rendición de cuentas por daños a los derechos humanos. Las organizaciones de derechos humanos deben priorizar el compromiso con los titulares de derechos, las poblaciones afectadas, la sociedad civil y otras partes interesadas relevantes para obtener una comprensión integral y matizada de las necesidades y los derechos de las personas potencialmente afectadas. Esto requiere un alcance proactivo, incluyendo consultas públicas cuando sea apropiado, poniendo a disposición canales de comunicación accesibles para las personas y comunidades afectadas. Las consultas públicas y la participación deben tener lugar antes de la finalización o implementación de un producto o servicio de IA, a fin de garantizar que sean significativas y abarquen compromisos con la sociedad civil, los defensores de los derechos humanos y los representantes de los usuarios finales marginados o subrepresentados. En algunos casos, cuando corresponda, las organizaciones de derechos humanos pueden optar por hacer públicos los resultados de estas consultas (Pizzi, Romanoff y Engelhardt, 2020, p. 145 y ss.).

Lorna McGregor señala que, si bien es una parte fundamental de la rendición de cuentas, un enfoque predominante en la tecnología puede darse en el diseño, en la rendición de cuentas para “gestionar” la tecnología en lugar de centrarse solo en una evaluación de las decisiones de gobernanza que los actores toman al integrar tecnologías nuevas y emergentes en sus disposiciones de decisión (Mc Gregor, 2018, p. 1085). El reconocimiento de las opciones de gobernanza que sustentan la introducción de tecnologías nuevas y emergentes a menudo se pasa por alto en los estudios y la práctica. Sin embargo, sin un reconocimiento explícito del papel que juega la tecnología en la gobernanza, los efectos disruptivos de la tecnología en la gobernanza (global) pueden ser subestimados o incluso ignorados. En esta respuesta, sostiene que, si la “cultura de la rendición de cuentas” es adaptarse a los desafíos que plantean las tecnologías nuevas y emergentes, el enfoque no solo sería tecnológico, también cuestionaría las decisiones de gobernanza que se toman dentro de las organizaciones, en particular las que tienen funciones públicas a nivel internacional y nacional. En sus conclusiones estima que se necesita estudiar los requerimientos de la responsabilidad tecnológica o algorítmica dentro de un marco de responsabilidad más amplio de la gobernanza y sus elecciones. Ubica las cuestiones de responsabilidad con los actores que emplean la tecnología como parte de una matriz de rendición de cuentas más dilatada que -a más de abordar la dinámica de poder global de las empresas de tecnología y las especificidades de cómo funcionan esas tecnologías- estudie las elecciones que los actores toman al incorporar tecnología desde una visión más profunda de responsabilidad, propia del Derecho administrativo global (DAG)10: transparencia,11 participación,12 consulta,13 revisabilidad,14 retroalimentación.15

Coincidentemente con la percepción de McGregor, se observa que la IA ha surgido rápidamente en el plano nacional e internacional en un contexto en el que el desarrollo sostenible ha sido el objetivo primordial de la comunidad internacional tanto desde la dimensión ambiental, económica como la social, especialmente desde los derechos humanos y el derecho al desarrollo receptado en la “Agenda 2030 para el Desarrollo Sostenible de las Naciones Unidas” (Res. 70/1 de la Asamblea General de las Naciones Unidas). Si bien las tecnologías de inteligencia artificial pueden respaldar avances en el logro de los Objetivos de Desarrollo Sostenible (ODS), también pueden tener consecuencias negativas que incrementen las desigualdades y afecten negativamente a las personas, las sociedades, las economías y el entorno humano.

Se ha señalado que la implementación de la IA deberá contar con el apoyo de una revisión multidisciplinaria para orientar a la IA en una dirección que respete los derechos humanos y la dignidad humana (Wei, 2021, pp. 3-4). Las estrategias de IA incluyen necesariamente marcos regulatorios y participación formal e informal de múltiples actores y redes sociales.

Las aplicaciones de IA no son neutrales en términos de valor. Han influido en las relaciones entre el hombre y la tecnología tanto de forma beneficiosa como perjudicial. En un ejemplo notable, la IA se utilizó para generar algunas de las primeras alertas sobre el brote de COVID-19 mediante el escaneo rutinario de cientos o miles de fuentes de datos gubernamentales y de medios en varios idiomas. Sin embargo, la evolución de la IA ha planteado nuevas preocupaciones y desafíos éticos. Los sistemas de IA pueden incorporar sesgos cognitivos con efecto psicológico que distorsionen la percepción de la realidad, debido a los datos sobre los que se los capacita, como así también a las elecciones que toman los desarrolladores de los sistemas al diseñar algoritmos de IA para interpretar estos datos. Por otra parte, los procesos de toma de decisiones basados en la IA no siempre son claramente explicables y predecibles, pudiendo ser difíciles de comprender y -aún más- de corregir.

Las implicaciones éticas de las tecnologías basadas en la IA desdibujan la frontera entre los sujetos humanos y los objetos tecnológicos, afectando a las categorías centrales de la ética: la percepción del actor, la responsabilidad y los marcos de valores. Además, la creciente autonomía de los sistemas de IA plantea la cuestión de quién debería asumir la responsabilidad ética y / o legal de los resultados basados en los sistemas de IA (Wei, 2021). Matthjis Maas (experto en riesgo existencial) analiza el impacto del desarrollo de la inteligencia artificial en el derecho internacional y en la gobernanza global. Considera las irrupciones globales que podría tener la IA, desequilibrando y modificando la entrada y salida de las relaciones políticas internacionales. Entiende que la IA puede cambiar la situación jurídica internacional tanto directa como indirectamente. Directamente, genera nuevas situaciones legales al crear nuevas personas jurídicas o al posibilitar nuevos comportamientos. Indirectamente, puede cambiar los incentivos o valores para los Estados que interactúan con el derecho internacional. Distingue tres tipos de impactos legales efectuados por cualquier tecnología suficientemente disruptiva como la IA. El primero es el desarrollo legal (cambio de elementos que lleva a la necesidad de un cambio legal para acomodar o abordar la nueva situación), el segundo es el desplazamiento legal (sustitución sistémica de la modalidad regulatoria; la “automatización” del derecho internacional) y el tercero es legal: destrucción (alteración sistémica de instalaciones clave; erosión) (Maas, 2019, 2021). Por su parte, Jacob Turner (2019) describe qué problemas legales o éticos podrían ser causados en el plano internacional por los recientes avances de la inteligencia artificial. Según Turner, la IA no se parece en nada a lo que conocemos, ya que es única en su tipo, debido a su capacidad de tomar decisiones por sí misma sin ninguna ayuda o supervisión externa. Se cuestiona sobre tres aspectos: *Responsabilidad: “¿Quién puede ser considerado responsable de las tareas o acciones que realiza la IA?”; *Derechos: “Si se considera que la IA es una personalidad inteligente, ¿qué derechos podría hacer valer?”; *Valores morales: "¿sobre qué bases éticas o morales la IA tomará sus decisiones?".

Estas dimensiones se vuelven especialmente sensibles en el ámbito del derecho de los conflictos armados. Dado que las armas de IA están diseñadas, fabricadas, programadas y empleadas por humanos, las consecuencias del uso de IA y responsabilidades legales derivadas deben atribuirse a ellos, no admitiéndose la justificación del “error”de los sistemas de IA como justificación para eludir responsabilidades, en tanto los riesgos de error de las maquinarias y sistemas puestos en acción son eventualidades que deben ser límite de acción al momento de la decisión de usarlas.

Si bien la doctrina no es uniforme, predomina la posición que la responsabilidad internacional de las consecuencias de un daño con IA es de los usuarios finales (operadores), independientemente de que en el plano privado ellos puedan accionar contra los diseñadores, programadores o fabricantes. En el caso de la plena autonomía de los sistemas de armas de IA sin ningún control humano, la doctrina se divide entre la prohibición total y la responsabilidad estatal a más de la penal individual.

La IA podría en breve tiempo reemplazar a los humanos, no habiendo normas ajustadas para situaciones a aplicar a las máquinas, como tampoco previsiones suficientes para la relación responsable hombre-máquina.

El amplio desarrollo de la IA con fines bélicos plantea amenazas para la humanidad, considerándose urgente la necesidad de revisar normas del derecho internacional humanitario y del derecho internacional de los derechos humanos para adecuarlos a los escenarios modernos.

Los sistemas de armas de alta tecnología, como el software de ciberataque y los drones armados, están empleando robots de combate de varios tipos. La IA permite incrementar significativamente la eficiencia y el efecto letal de las armas cinéticas modernas, a más de restringir -o incluso eliminar por completo- las intervenciones humanas en todos los aspectos del diseño de la estrategia, de la organización de la batalla y la implementación. El Comité Internacional de la Cruz Roja se cuestiona sobre si es admisible que ese tipo de armas se utilicen en futuros campos de batalla (Li y Xie, 2019).

El Primer Protocolo Adicional a los Convenios de Ginebra (PA I), relativo a la protección de las víctimas de conflictos armados internacionales, expresamente señala que “En todo conflicto armado, el derecho de las Partes en conflicto a elegir los métodos o medios de hacer la guerra no es ilimitado” (Art. 35.1). En su artículo 36, establece: “Cuando una Alta Parte contratante estudie, desarrolle, adquiera o adopte una nueva arma, o nuevos medios o métodos de guerra, tendrá la obligación de determinar si su empleo, en ciertas condiciones o en todas las circunstancias, estaría prohibido por el presente Protocolo o por cualquier otra norma de derecho internacional aplicable a esa Alta Parte contratante”. Es decir, los Estados, deben determinar si el arma, los medios o métodos bélicos que pretenden utilizar están prohibidos por el derecho internacional, tal el caso de las normas específicas contenidas en la Convención sobre Armas Químicas, la Convención sobre Armas Biológicas, la Convención sobre Ciertas Armas Convencionales, la Convención contra las Minas Antipersonal, la Convención sobre Municiones en Racimo, entre otras fuentes del derecho internacional.

El referido Protocolo además dispone: “Queda prohibido el empleo de armas, proyectiles, materias y métodos de hacer la guerra de tal índole que causen males superfluos o sufrimientos innecesarios” (Art. 35.2); “Queda prohibido el empleo de métodos o medios de hacer la guerra que hayan sido concebidos para causar, o de los que quepa prever que causen, daños extensos, duraderos y graves al medio ambiente natural” (Art. 35.3); “Se prohíben los ataques indiscriminados. Son ataques indiscriminados: a) los que no están dirigidos contra un objetivo militar concreto; b) los que emplean métodos o medios de combate que no pueden dirigirse contra un objetivo militar concreto; o c) los que emplean métodos o medios de combate cuyos efectos no sea posible limitar conforme a lo exigido por el presente Protocolo; y que, en consecuencia, en cualquiera de tales casos, pueden alcanzar indistintamente a objetivos militares y a personas civiles o a bienes de carácter civil” (Art. 51).

Todos estos aspectos deben ser ponderados antes de considerar a un arma de IA como lícita. A ello se agrega la obligación de respetar el principio general del Protocolo: “En los casos no previstos en el presente Protocolo o en otros acuerdos internacionales, las personas civiles y los combatientes quedan bajo la protección y el imperio de los principios del derecho de gentes derivados de los usos establecidos, de los principios de humanidad y de los dictados de la conciencia pública” (Art. 1.2), principio conocido como “Cláusula Martens”.

Aun cuando ciertas armas de IA pudieran ser consideradas de uso lícito, resulta imprescindible adoptar precauciones frente a eventuales errores humanos o de la propia IA. Así, cuando se emplean sistemas de armas de inteligencia artificial, los programadores y los usuarios finales tienen la obligación legal de tomar todas las medidas de “precaución” que garanticen dicho empleo de acuerdo con las reglas fundamentales del derecho internacional humanitario (Art. 57 PA I).

Thomas Burri (2019) por su parte, también desde el derecho internacional, recuerda que, hasta ahora, los internacionalistas, en general, se han centrado casi exclusivamente en los sistemas autónomos de armas, entendiendo que ese enfoque es demasiado estrecho y no hace justicia a la complejidad y el alcance de la IA, la que -en el plano internacional- es mucho más que las “armas” en sí. Recuerda que, si bien ante presiones de las ONG, ya desde 2013, en el Foro de la Convención sobre ciertas armas convencionales, se debate la prohibición de los sistemas autónomos de armas, otras áreas también requieren atención. Así, Burri abre el espectro y analiza cinco argumentos sobre las principales cuestiones de la inteligencia artificial y sus implicaciones para el derecho internacional en general: automatización,16 personalidad,17 sistemas de armas,18 control19 y estandarización,20 aspectos sobre los que considera que el DI debe adaptarse.

II. EVOLUCIÓN DEL TRATAMIENTO DE LA IA EN LAS NACIONES UNIDAS

La globalización, la transnacionalización, la multiplicidad de redes transfronterizas no reguladas, el incremento del uso de la IA en el ámbito público y privado nacional, internacional y transnacional a nivel planetario presentan un status de fragmentación, sin coordinación y con fuerte competencia. Si bien los Estados nacionales han visto debilitada su capacidad de regulación efectiva en la materia por variadas razones, la Organización de las Naciones Unidas (ONU) -junto con sus organismos especializados- ha buscado mantenerse activa en varios frentes, destacándose el Grupo de Grupo de Expertos ad hoc de la UNESCO sobre Ética de la IA y el Panel de alto nivel sobre cooperación digital de la Secretaría General de la Organización. La ONU está bien posicionada para aprovechar las iniciativas y ofrecer una vía multilateral creíble hacia usos éticos centrados en el ser humano y en la preservación de la paz (García, 2020).

Según la Encuesta de gobierno electrónico de las Naciones Unidas de 2018,21 los principales desarrollos tecnológicos en software y hardware han mejorado el avance de la IA y su impacto actual y potencial en la sociedad. El aumento de la recopilación y el uso de datos está magnificando el proceso de aprendizaje de las computadoras y mejorando la calidad de los sistemas de IA que dependen en medida decisiva de los datos. Por un lado, la IA promete ser un catalizador para acelerar el desarrollo y permitir que los países en desarrollo superen algunos obstáculos tradicionales hasta hoy no resueltos. Por otro lado, trae consigo desafíos tales como su impacto en la fuerza laboral, las implicaciones éticas de algunas de sus aplicaciones y la necesidad de desarrollo de capacidades que revisarían el tipo de educación requerido para la próxima generación.

El Secretario General de la ONU ha subrayado la necesidad de garantizar que la IA se convierta en una fuerza benefactora general sin distinciones.

El Mecanismo de Facilitación de Tecnología de las Naciones Unidas (TFM según su sigla en inglés) fue creado en Addis Abeba en 201522 para apoyar la implementación de los ODS y se lanzó con la Agenda 2030 sobre el Desarrollo Sostenible. Desde el principio, la División para los Objetivos de Desarrollo Sostenible DSDG / DESA se ha desempeñado como Secretaría del “Equipo de trabajo interinstitucional sobre ciencia, tecnología e innovación para los ODS” (IATT, según su sigla en inglés) y del “Grupo de representantes de alto nivel de la comunidad científica, sector privado y sociedad civil” designado por el Secretario General para apoyar al TFM. Ambos movilizan a expertos de dentro y fuera del sistema de las Naciones Unidas para promover los ODS a través de la ciencia, la tecnología y la innovación (CTI) en varios contextos. A ello se agrega el Foro anual de múltiples partes interesadas sobre ciencia, tecnología e innovación para los ODS (Foro CTI); y la Plataforma en línea TFM como puerta de entrada a la informaciónsobre iniciativas, mecanismos y programas de CTI existentes, sirviendo como una “ventanilla única” de información sobre ciencia, tecnología e innovación que puede contribuir a alcanzar los ODS, creando asociaciones y emparejamiento.

El TFM facilita la colaboración y las asociaciones de múltiples partes interesadas mediante el intercambio de información, experiencias, mejores prácticas, actividades conjuntas a nivel de país y asesoramiento sobre políticas para y entre los Estados miembros, la sociedad civil, el sector privado, la comunidad científica, las entidades de las Naciones Unidas y otras partes interesadas

Desde 2015 estos grupos han sido coordinados y apoyados por DESA / DSDG (2015-presente), PNUMA (2016-17) y UNCTAD (2018-presente). A lo largo de los años, la membresía de IATT ha aumentado hasta incluir 45 entidades de la ONU y más de 120 miembros activos, lo que constituye un nivel sin precedentes de cooperación en ciencia y tecnología en las Naciones Unidas.

El Informe del Alto Comisionado para los Derechos Humanos sobre el derecho a la privacidad en la era digital (A / HRC / 39/29) abordó el aumento de los datos de tecnologías impulsadas y formuló recomendaciones sobre medidas de protección de derechos.

La Convención de Naciones Unidas sobre la utilización de las comunicaciones electrónicas en los contratos internacionales (Derecho internacional privado), contiene disposiciones que pueden ser aplicables en el ámbito de la IA. Puede ser el caso, en particular, del artículo 12 en virtud del cual “No se negará validez ni fuerza ejecutoria a un contrato que se haya formado por la interacción entre un sistema automatizado de mensajes y una persona física, o por la interacción entre sistemas automatizados de mensajes, por la simple razón de que ninguna persona física haya revisado cada uno de los distintos actos realizados a través de los sistemas o el contrato resultante de tales actos ni haya intervenido en ellos” (Robles Carrillo, 2020, p. 2 y ss.).

En el espacio de las Naciones Unidas, numerosos organismos y agencias están trabajando sobre la aplicación de la IA en sectores y respecto de marcos normativos específicos y colaborando en el contexto de la AI for Good.23 Esta plataforma liderada por la Unión Internacional de Telecomunicaciones (UIT) es el buque insignia de la toma en consideración de la IA por parte de Naciones Unidas (Zhao, 2018). En la plataforma participan más de 37 agencias y organismos de la ONU y se promueve un diálogo global e inclusivo sobre IA, en especial, en conexión con los ODS. La primera cumbre se llevó a cabo en 2017. Las cumbres de 2018 y 2019, orientadas a la acción, dieron lugar a numerosos proyectos "AI for Good", entre ellos un Grupo Temático de IA para la salud, encabezado por la UIT y la Organización Mundial de la Salud, un Grupo Temático de la UIT sobre IA para la conducción autónoma y asistida, y un marco abierto para la colaboración en "AI Commons".24 Además, en el encuentro de 29 de mayo 2019 se actualizó el Compendio sobre Activities on Artificial Intelligence en el que se recogen pormenorizadamente las actividades realizadas en 36 ámbitos normativos o institucionales concretos para mejorar la respuesta a los desafíos globales, siguiendo así la Resolución de la Asamblea General de Naciones Unidas sobre el impacto del cambio tecnológico rápido en la consecución de los ODS y sus metas y la estrategia del Secretario General de las Naciones Unidas en materia de nuevas tecnologías. En 2020 se centró en las vías necesarias para alcanzar el involucramiento a escala global. En 2021 “Al for Good” abordó una serie de cuestiones sectoriales como educación, salud, ecosistemas, aprendizaje automático, entre otras.

El Centro de Inteligencia Artificial y Robótica de Naciones Unidas creado en 2016 se ha ubicado en el marco de Instituto Interregional de las Naciones Unidas para Investigaciones sobre la Delincuencia y la Justicia (UNICRI).

El informe denominado A United Nations system-wide strategic approach and road map for supporting capacity development on artificial intelligence 25 incide en la asociación de esa política con los ODS; propone un modelo de gobernanza multi-stakeholder; y atribuye el liderazgo a la UIT como marco institucional centralizador de la actividad en esta materia. Por otra parte, el Grupo de Alto Nivel sobre Cooperación Digital ha presentado una interesante propuesta de gobernanza ubicada dentro del sistema de Naciones Unidas, señalando que ha de ser: "inclusiva” de múltiples partes interesadas, “anticipatoria” de tecnologías e impactos de IA de rápido progreso, “receptiva” a la tecnología en rápida evolución y sus usos, y “reflexiva”, es decir, con revisión crítica y actualizada de sus principios de política.

A pesar de las estrategias, instituciones y cumbres, los logros de Naciones Unidas han sido parciales y cada vez más menos precisos a la hora de fijar programas y vías de acción en materia de IA, comenzando a teñirse -especialmente después de la adopción de la Agenda 2030- de declamaciones neomarxistas que, i. a., critican a la IA de ser instrumento de vigilancia de los pobres y excluidos para marginarlos, perseguirlos y engendrar mayores desigualdades, poniendo el acento en los aspectos negativos de la IA, sin considerar las ventajas que derivan para bienestar digital y sus potencialidades para los más postergados. Esa visión nebulosa que busca una igualdad e inclusión ajena a la idea de responsabilidad y propio esfuerzo -inexistente en el mundo de la naturaleza y no lograda en ninguna sociedad humana hasta la fecha- retarda y empobrece los aportes de las Naciones Unidas a la comprensión amplia de la IA y las posibilidades de una regulación universal general.

El 25 de noviembre de 2021, la 41ª sesión de la Conferencia General de la UNESCO adoptó la Declaración Universal sobre la Ética de la Inteligencia Artificial. El documento de 30 páginas es una recomendación no legalmente vinculante, pero desde la UNESCO esperan que se convierta en una referencia global para el desarrollo y uso ético de la IA. La Directora General de la UNESCO (Audrey Azoulay, reelegida como tal en la misma sesión de la Conferencia General), pide a los 193 Estados miembros que tomen todas las medidas necesarias para aplicar este marco ético. La Organización evaluará periódicamente su aplicación, pidiendo a los Estados que informen sobre sus progresos y prácticas en este ámbito. Estos resultados serán analizados por expertos y sometidos a debate público de forma transparente. La redacción del documento se inició a principios de 2020, habiendo participado grupos de expertos formados por representantes de Google, Facebook, Microsoft, las Universidades de Stanford y Nueva York, la Academia China de Ciencia y Tecnología, entre otros. En septiembre del año pasado, se presentó un primer borrador al que nos refiriéramos precedentemente y se abrió el plazo para que los países de la UNESCO presenten sus comentarios y observaciones sobre el texto, que ha seguido revisándose hasta la última conferencia general. Entre las claves de la Declaración se encuentra la acotación de principios básicos que atañen al desarrollo de algunas de las tecnologías más cuestionadas del momento, como los sistemas de reconocimiento facial, entendiendo que esos sistemas “no deberían ser utilizados con fines de vigilancia masiva o rendición de cuentas sociales”. En el caso de armas autónomas la subdirectora general de Ciencias Sociales y Humanas de la UNESCO, Gabriela Ramos, señaló en un comunicado que, aunque no se hace referencia explícita a los drones de uso militar ni al armamento autónomo letal, la recomendación establece normas básicas como el que “las decisiones de vida o muerte no deben ser tomadas por sistemas de inteligencia artificial” y especifica que en tales escenarios “la última palabra debe ser humana”. La recomendación también aborda ámbitos menos extremos, pero igualmente relevantes, como el potencial efecto de los sistemas de recomendación que emplean las plataformas de streaming como Netflix o Spotify en la diversidad cultural y lingüística. Un reciente informe de la Unión Europea26 señala que los criterios que emplean estos modelos para ofrecer nuevos contenidos “no son transparentes ni auditables” y probablemente basan sus decisiones en factores económicos que benefician a las plataformas. En este contexto, el documento de la UNESCO hace un llamamiento a los países para que trabajen en la mejor comprensión y evaluación tanto de los efectos positivos como de los potencialmente perjudiciales de los sistemas de recomendación. También propone límites para la relación humano-robot, especialmente cuando se trata de niños por las consecuencias negativas sobre su salud. Por otra parte, se subraya la necesidad de que los individuos estén en todo momento informados de si están tratando con uno de estos sistemas o son objeto de decisiones tomadas por ellos. Se pide también que se establezcan mecanismos para acceder a las razones que guían una decisión que afecta a los derechos o libertades de los usuarios, así como vías para impugnarla o solicitar una reevaluación. Asimismo, solicita la reducción del impacto ambiental de estos sistemas. Debe tenerse en cuenta que, de acuerdo con estudios publicados en la revista Nature Machine Intelligence (publicación mensual a partir de enero de 2019), entrenar un algoritmo de inteligencia artificial puede producir cerca de 300.000 kilos de dióxido de carbono, lo que equivale a 125 vuelos de ida y vuelta entre Nueva York y Pekín.

El documento que acaba de adoptar la UNESCO exige que los gobiernos eduquen a sus ciudadanos en los derechos digitales que pretende proteger. “Si educamos a una nueva generación de consumidores digitales conscientes de sus derechos y con las habilidades de pensamiento crítico necesarias para navegar la esfera digital, estaremos empoderándolos para que exijan a las grandes tecnológicas a rendir cuentas y estaremos exigiendo que la IA sea desarrollada de forma humana y ética”.

Hacia el futuro, se ha llegado a proponer el establecimiento de una “Organización Internacional de Inteligencia Artificial” (IAIO), sin embargo, incluso los proponentes de una organización de ese tipo, de tan amplio espectro, lo perciben poco viable a corto plazo27 y admiten que llegar a un consenso internacional sobre esta idea parece una posibilidad bastante remota a corto plazo. Entre otras modalidades consideradas figuran la creación de una “agencia especializada” de la ONU o un “órgano subsidiario” de la Asamblea General.

III. EVOLUCIÓN DEL TRATAMIENTO DE LA IA EN LA UNIÓN EUROPEA

Como parte de su labor para el mercado único digital, la Comisión Europea presentó en abril de 2018 una estrategia europea sobre IA en su Comunicación "Inteligencia Artificial para Europa". Los objetivos de la estrategia europea de IA anunciada en la comunicación se pueden resumir en:

  1. - Impulsar la capacidad tecnológica e industrial de la UE y la adopción de la IA en la economía de los sectores público y privado.

  2. - Prepararse para los cambios socioeconómicos provocados por la IA.

  3. - Asegurar un marco ético y legal adecuado.

Posteriormente, en diciembre de 2018, la Comisión Europea y los Estados miembros publicaron un “Plan Coordinado de Inteligencia Artificial”, sobre el desarrollo de la IA en la UE.

La Carta Ética Europea sobre el Uso de IA en Sistemas judiciales de enero de 2019 (Comisión Europea) describe cinco principios para orientar el uso ético de la IA específicamente en los sistemas judiciales, con un enfoque en el procesamiento de datos y decisiones. Los cinco principios básicos de la Carta son:

  1. - respeto de los derechos fundamentales;

  2. - no discriminación;

  3. - calidad y seguridad (fuentes certificadas e intangibles con modelos concebidos de forma multidisciplinar, de forma segura tecnológica);

  4. - transparencia, imparcialidad y equidad;

  5. - control del usuario (los usuarios como actores informados y con control de su elección).

En abril de 2019, la Comisión adoptó la Comunicación Generar confianza en la inteligencia artificial centrada en el ser humano y las Directrices éticas para una Inteligencia Artificial Confiable.

En febrero de 2020, la Comisión publicó el Libro Blanco sobre IA,28 en el que señala que la IA cambiará nuestras vidas, pues mejorará la atención sanitaria (por ejemplo, incrementando la precisión de los diagnósticos y permitiendo una mejor prevención de las enfermedades), aumentará la eficiencia de la agricultura, contribuirá a la mitigación del cambio climático y a la correspondiente adaptación, mejorará la eficiencia de los sistemas de producción a través de un mantenimiento predictivo, aumentará la seguridad de los europeos y nos aportará otros muchos cambios que de momento solo podemos intuir. Pero, al mismo tiempo reconoce que IA conlleva una serie de riesgos potenciales, como la opacidad en la toma de decisiones, la discriminación de distintos tipos, la intromisión en nuestras vidas privadas o su uso con fines delictivos. En un contexto de feroz competencia mundial, la Comisión entendió que se requería un enfoque europeo sólido basado en la Estrategia Europea para la IA presentada en abril de 2018.

En abril de 2021, la Comisión Europea propuso un conjunto de acciones para impulsar la excelencia en IA y reglas para garantizar que la tecnología sea confiable. La Comisión propuso nuevas reglas y acciones para convertir a Europa en el centro global para una inteligencia artificial confiable centrada en:

* la Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Consejo Económico y Social Europeo, al Comité de las Regiones sobre el fomento de un enfoque de la inteligencia artificial:

A través de los programas Europa Digital y Horizonte Europa, la Comisión prevé invertir mil millones de euros al año en IA. Movilizará inversiones adicionales del sector privado y de los Estados miembros para alcanzar un volumen de inversión anual de 20 000 millones de euros a lo largo de la década digital.29

* El Plan Digital coordinado con los Estados Miembros para 2030 incluye:

- “Habilidades”: a) contar con Especialistas en TIC: más de 20 millones con convergencia de género; b) Lograr que un mínimo de 80% de la población alcance habilidades digitales básicas.

- “Infraestructuras digitales seguras y sostenibles”: a) Conectividad: Gigabit para todos, 5G en todas partes; b) Semiconductores de vanguardia: doble participación de la UE en la producción mundial; c) Datos - Edge and Cloud: 10.000 nodos de borde altamente seguros y neutros para el clima; d) Computación: primera computadora con aceleración cuántica.

- “Transformación digital de empresas”: a) Aprovechamiento tecnológico por el 75% de las empresas de la UE (Cloud/AI/Big Data); b) Innovaciones mediante el incremento de la escala y la financiación para duplicar los unicornios (empresas que superan una valuación de mercado de mil millones de dólares y que aún no cotizan en la bolsa); c) Incorporación de usuarios tardíos (el 90% de las pymes alcanzan al menos un nivel básico de intensidad digital).

- “Digitalización de servicios públicos”: a) Servicios público clave con 100% en línea; b) E-Salud con 100% de ciudadanos con acceso a la historia clínica; c) Identidad digital.

El Plan propugna derechos y principios de la ciudadanía digital, entre ellos:

- Derechos digitales: Libertad de expresión, incluido el acceso a información diversa, confiable y transparente; Libertad para establecer y realizar negocios en línea; Protección de datos personales y privacidad; Protección de la creación intelectual de las personas en el espacio online.

-Principios digitales: Un entorno en línea seguro y confiable; Educación y habilidades digitales universales; Acceso a sistemas y dispositivos digitales respetuosos con el medio ambiente; Administración y servicios públicos digitales accesibles y centrados en el ser humano; Principios éticos para algoritmos centrados en el ser humano; Proteger y empoderar a los niños en el espacio en línea; Acceso a servicios de salud digitales.

La Comisión busca incluir este conjunto de principios y derechos digitales en una declaración interinstitucional formal.

* La Propuesta: Reglamento del Parlamento europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión de 21 de abril de 2021 (COM (2021) 206 final). La Comisión en esta propuesta presenta un marco reglamentario sobre inteligencia artificial con los siguientes objetivos específicos:

- Garantizar que los sistemas de IA introducidos y usados en el mercado de la UE sean seguros y respeten la legislación vigente en materia de derechos fundamentales y valores de la Unión.

- Garantizar la seguridad jurídica para facilitar la inversión e innovación en IA.

- Mejorar la gobernanza y la aplicación efectiva de la legislación vigente en materia de derechos fundamentales y los requisitos de seguridad aplicables a los sistemas de IA.

- Facilitar el desarrollo de un mercado único para hacer un uso legal, seguro y fiable de las aplicaciones de IA y evitar la fragmentación del mercado.

La base jurídica de la Propuesta es, en primer lugar, el artículo 114 del Tratado de Funcionamiento de la Unión Europea (TFUE), que trata de la adopción de medidas para garantizar el establecimiento y el funcionamiento del mercado interior con fundamento en la subsidiariedad y la proporcionalidad.

La Propuesta cuenta con el apoyo de distintos actores ya que el 19 de febrero de 2020 -el mismo día que se publicó el Libro Blanco sobre la inteligencia artificial- se inició una consulta pública en línea, que se prolongó hasta el 14 de junio de 202030. En total se recibieron 1215 contribuciones, de las cuales 352 procedieron de empresas u organizaciones o asociaciones comerciales, 406 de particulares (el 92% de ellos, de la UE), 152 de representantes de instituciones académicas o de investigación, y 73 de autoridades públicas. Asimismo, 160 encuestados representaban a la sociedad civil (en concreto, 9 organizaciones de consumidores, 129 organizaciones no gubernamentales y 22 sindicatos), y 72 se adscribieron a la categoría «Otros». De los 352 representantes de la empresa y la industria, 222 representaban a empresas y negocios. El 41,5% de estas microempresas, pequeñas y medianas empresas, mientras que el resto eran asociaciones comerciales.

En la Comisión Europea se ha señalado que "cuanto mayor es el riesgo que un uso específico de la IA pueda ocasionar en nuestras vidas, más estricta debe ser la norma". La Propuesta de Reglamento sobre inteligencia artificial que estamos refiriendo distingue cuatro categorías de IA en función del riesgo que puedan representar para los ciudadanos:

  1. - Riesgo mínimo: tecnologías que presentan un riesgo imperceptible o nulo para los ciudadanos, por lo tanto, deben ser de uso libre y las nuevas reglas no se les aplicarán. Por ejemplo, filtros de spam.

  2. - Riesgo limitado: requiere obligaciones de transparencia para que los ciudadanos sepan que están interactuando con una máquina, permitiéndoles tomar decisiones informadas. Por ejemplo, “chatbots” o “chatterbots” (aplicaciones de software que se utilizan para llevar a cabo una conversación de chat en línea a través de texto o de texto a voz, en lugar de proporcionar contacto directo con un agente humano en vivo).

  3. - Riesgo alto: requieren evaluación antes de ser comercializados y procedimientos legales en tanto pueden ser potencialmente dañinos y afectar negativamente a sus usuarios. Por ejemplo, reconocimiento facial y emocional,31 aplicaciones de clasificación de CVs.

  4. - Riesgo inaceptable: son los dejados fuera de los sistemas de IA por la Comisión Europea por representar una clara amenaza a la seguridad, los medios de vida y los derechos de las personas. Por ejemplo: técnicas subliminales o estímulo sensorial por debajo del umbral de percepción consciente de un individuo, puntuación social por parte de autoridades públicas.

Para Sarah Chander, asesora de políticas de European Digital Rights (EDR), la propuesta de la Comisión Europea "corre el riesgo de permitir una vigilancia realmente invasiva y sistemas de inteligencia artificial discriminatorios que, en cambio, deberían prohibirse por completo". Algunos de sus ejemplos incluyen tecnologías para desplegar drones en fronteras, aplicaciones para evaluar a los beneficiarios de servicios sociales, entre otros. Chander considera que muchos sistemas de IA "aumentarán inherentemente la discriminación debido a la naturaleza misma de su funcionamiento", por utilizar datos e información del pasado para aplicarlos al futuro, lo que podría reproducir prejuicios y discriminaciones ya existentes en la sociedad. En relación con el daño que podrían causar, Chander ha señalado que la Comisión ha pasado por alto un problema clave: la falta de oportunidades para que los ciudadanos se quejen, entendiendo que debe generarse una vía para que los ciudadanos potencialmente afectados puedan acudir a una autoridad para que se respeten sus derechos.

Mientras tanto, el Parlamento Europeo adoptó ha adoptado resoluciones sobre distintos aspectos de la IA y la robótica; en particular votó recientemente en contra de la vigilancia masiva en un informe no vinculante, oponiéndosea la vigilancia predictiva basada en el uso de IA, así como a cualquier procesamiento de datos biométricos que conduzca a una vigilancia masiva.

El reconocimiento facial por motivos de seguridad es uno de los temas más polémicos cuando se trata de la regulación de la IA. Un estudio reciente32 encargado por “Los Verdes” en el Parlamento Europeo muestra que, de los 27 Estados miembros, 11 ya utilizan IA con esos fines.33 Para la Comisión es un uso de alto riesgo, pero en el Parlamento Europeo, las opiniones están divididas entre la prohibición total o la excepcional regulada.

Se estima que una regulación excesiva rompe la posibilidad de que la tecnología avance. Al mismo tiempo, se considera que la UE debería encontrar un equilibrio entre los modelos de uso estatal de la IA como el fuertemente regulado de China y el de EE.UU. con directrices voluntarias desarrolladas junto con las grandes empresas de tecnología.

Durante la pandemia de la COVID-19, el teletrabajo se ha convertido en una realidad casi permanente. Los sindicatos han identificado que hay empresas que usan la IA para vigilar a sus empleados, introduciendoalgunos algoritmos para rastrear el trabajo y la forma en que los trabajadores están trabajando. Por ejemplo, cuánto tiempo están trabajando, cuántas veces han tocado el teclado, incluso algunos cuentan con trazados biométricos, llegando a constituir vigilancia indebida (De Filippis, 2021).

Para analizar el impacto futuro de la inteligencia artificial en la era digital en la economía de la Unión y en preparación a la propuesta legislativa de la Comisión, el Parlamento cuenta con una Comisión Especial de Inteligencia Artificial. Para alcanzar una IA que genere confianza, elimine cualquier tipo de sesgo y discriminación, contribuya al bien común al tiempo que asegure que las empresas y la industria prosperen y generen prosperidad económica.

El Parlamento aprobó el 20 de octubre de 2021 tres Informes34 que estudian cómo regular la inteligencia artificial para impulsar la innovación, el respeto de estándares éticos y la confianza en la tecnología. La Comisión Especial de IA del Parlamento Europeo ha reconocido la existencia de riesgos propios de la IA, siendo esa una de las razones por las que la Comisión Europea fue el primer organismo en proponer una regulación sobre IA en todo el mundo35,36.

La Comisión Europea y el Parlamento Europeo buscan un equilibrio que combine el progreso tecnológico con los derechos a la privacidad, los derechos a la libertad, los derechos a la libertad de expresión y una mayor seguridad.37 En ese ámbito se ha entendido que la IA es una tecnología que permite a las máquinas percibir, analizar y aprender del entorno. Gracias a esa información pueden predecir y tomar sus propias decisiones para alcanzar metas específicas. Hay muchas aplicaciones para la IA, por ejemplo, se puede utilizar con fines médicos (i. a. identificación de predisposiciones al Alzheimer, al Parkinson y a otras enfermedades como la demencia senil), agrícolas, ganaderos, control de trabajadores a distancia, etc. En la contracara, la IA tiene muchos riesgos. Por ejemplo, puede poner en peligro la privacidad de las personas, poner en riesgo los derechos humanos fundamentales, aumentar la discriminación, etc.

En lo que hace a la parte orgánica, además de las instituciones y órganos generales de la UE, se han establecido el Grupo Europeo de Ética en Ciencia y Nuevas Tecnologías; el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial; y la Alianza Europea para la IA.

Así, el Grupo Europeo de Ética en Ciencia y Nuevas Tecnologías elaboró la Declaración sobre Inteligencia Artificial, Robótica y Sistemas "Autónomos". La declaración propone un conjunto de principios éticos fundamentales, basados en los valores establecidos en los Tratados de la UE y la Carta de los Derechos Fundamentales de la UE, para guiar el desarrollo de la IA. Adopta un enfoque bastante diferente al de otros documentos similares, y enmarca sus principios en gran medida en términos de derechos humanos y principios democráticos. Los principios dentro de la declaración son:

  1. - respeto por la dignidad humana (límite al uso de algoritmos para afectar a las personas y derecho a saber y decidir si uno está interactuando con una máquina);

  2. - autonomía (posibilidad de determinar los propios estándares y vivir de acuerdo a ellos, posibilidad de intervenir en sistemas autónomos);

  3. - responsabilidad (la IA solo debe desarrollarse de manera que sirva al bien social);

  4. - justicia, equidad y solidaridad (igualdad de acceso a tecnologías y sus beneficios, así como recopilación y vigilancia de datos);

  5. - democracia (las decisiones sobre IA deben ser el resultado de un debate democrático, el pluralismo de valores y la diversidad de opiniones no deben verse comprometidas por las tecnologías);

  6. - estado de derecho y rendición de cuentas (derecho a reparación, responsabilidad);

  7. - seguridad, protección, integridad física y mental (seguridad física, seguridad emocional, especialmente en campos como la ciberseguridad y las finanzas);

  8. - protección de datos y privacidad (derecho a estar libre de tecnologías que influyen en el desarrollo personal y a estar libre de vigilancia);

  9. - sostenibilidad (respeto al medio ambiente).

La declaración concluye pidiendo un marco ético y legal común, reconocido internacionalmente, para el diseño, la producción, el uso y la gobernanza de la inteligencia artificial, la robótica y los sistemas "autónomos".38 Tal como lo señala Andrés Ortega (2021), las propuestas de la Comisión Europea para regular la IA, prohibiendo algunas aplicaciones y limitando otras, son ambiciosas y aspiran a tener un impacto global.

En esta sucesión de actos e iniciativas se aprecia una evolución significativa desde la preeminencia inicial de los componentes éticos en la progresiva articulación de un discurso en el que los aspectos éticos y jurídicos obran como dimensiones complementarias.

Sin embargo, hay voces críticas como la de Despina Travlou (Artificial Intelligence in Action Organization), quien observa que los Gobiernos nacionales y las organizaciones supranacionales, como la UE, están legislando, pero lo están haciendo de manera incoordinada, aleatoria, sin plan preelaborado. Señala que se requiere una acción global concertada, por entender que no se puede asumir un desafío global actuando individual o aisladamente.

IV. BREVES REFLEXIONES FINALES

La mayor parte de la literatura hace presente la volatilidad y perpetuo cambio -prácticamente inasibilidad- de la IA, por lo que estima que su regulación sólo puede asentarse en principios generales de protección y resguardo frente a la dinámica tecnológica expansiva incesante de los mismos.

El número de Estados que ha desarrollado o está elaborando estrategias o planes de acción en materia de IA es muy reducido, si bien su impacto es global y avasallante. Probablemente ello se deba a que son pocos los países con capacidad tecnológica y económica requerida para desarrollar esta tecnología.

La cooperación internacional en IA se está concretando con más facilidad en organizaciones o iniciativas regionales o interregionales de pocos miembros en las que están presentes países con significativo estado de desarrollo, como es el caso de la Unión Europea, el G7,39 la Organización para la Cooperación Económica y el Desarrollo (OCDE),40 el G20,41 entre otros.

La ONU tiene las bases institucionales adecuadas para poner en la mesa planetaria distintos puntos de vista e inquietudes y brindar un marco adecuado de cooperación estructurada y eficiente. Dado que la IA concierne a todas las sociedades humanas puede actuar como entidad moderadora frente a los actores influyentes, impulsando la equidad de oportunidades a nivel mundial y brindando un lugar legítimo, representativo y orientado para la cooperación internacional en materia de IA en los años venideros. Sin embargo, la intensa y extensa actividad desplegada en el marco de Naciones Unidas tiene un alcance marcadamente sectorial y fragmentado, atendiendo a temas específicos y sin que se haya abordado efectivamente el problema desde un enfoque integral y global más allá de las propuestas de algunos grupos de trabajo y la ambigua y aún no bien perfilada Agenda 2030, la que busca un nuevo orden mundial global, postnacional, de ciudadanía mundial, igualitario, inclusivo. Por ahora la estructura institucional no tiene la dinámica necesaria para lograr los objetivos de desarrollo sostenible a nombre de “los pueblos” (expresión difusa de la Agenda) en el plazo señalado.

Todos los entes universales y regionales interestatales -entre ellos el Consejo de Europa, la Organización de Estados Americanos42- promueven una IA centrada en el ser humano y la confianza pública, si bien admiten las dificultades que la naturaleza móvil, en perpetua innovación y desarrollo de la IA conlleva a la hora del establecimiento de un marco normativo general.

BIBLIOGRAFÍA

Burri, Th. (2019). International Law and Artificial Intelligence. Anuario Alemán de Derecho internacional 2017 (vol. 60, pp. 91-108). Berlín: Duncker & Humblot. https://doi.org/10.3790/gyil.60.1.91

CEPAL (2021). Tecnologías digitales para un nuevo futuro, publicación de las Naciones Unidas, LC/TS.2021/43, Santiago.

De Filippis, A. (2021). El Impacto de la Inteligencia Artificial. Euronews https://es.euronews.com/my-europe/2021/07/19/el-impacto-de-la-inteligencia-artificial

De Filippis, A. y Lázaro, A. (2021, 14 de octubre). La Unión Europea analiza los límites éticos de la Inteligencia Artificial. Euronews, https://es.euronews.com/2021/10/14/la-union-europea-analiza-los-limites-eticos-de-la-inteligencia-artificial

De Miguel Asensio, P. A. (2021). Propuesta de Reglamento sobre Inteligencia Artificial. La Ley Unión Europea, 92. https://eprints.ucm.es/id/eprint/65870/1/PADemiguelAsensio%20LaLey%20UE%20n%2092%2005.21.pdf

Drnas de Clément, Z. (2020). Paradigmas Ideológicos y la Concepción del Derecho Internacional. Córdoba: Advocatus.

Erdelyi, O. J. y Goldsmith, J. G. (2018). Regulating artificial intelligence: proposal for a global solution. AAAI/ACM Conference on Artificial Intelligence, Ethics and Society, New Orleans, 1–3 February 2018. http://www.aies-conference.com/2018/accepted-papers, https://doi.org/10.1145/3278721.3278731

EU. JOINT RESEARCH CENTRE (JRC), the European Commission’s science and knowledge service (2021). AI Watch. Defining AI 2.0. Luxemburgo: Publications Office of the European Union. https://publications.jrc.ec.europa.eu/repository/

EU. POLICY DEPARTMENT FOR STRUCTURAL AND COHESION POLICIES (2021). Artificial Intelligence and Urban Development. https://www.europarl.europa.eu/RegData/etudes/STUD/2021/690882/IPOL_STU(2021)90882_EN.pdf

Grandi, N. M. (2020). ¿Puede la Inteligencia Artificial ser un nuevo sujeto de derecho? Simposio Argentino de Informática y Derecho, p. 54 y ss. https://49jaiio.sadio.org.ar/pdfs/sid/SID-05.pdf

García, E. V. (2020, December 12). Multilateralism and Artificial Intelligence: What Role for the United Nations? SSRN Papers, pp.1-21. https://doi.org/10.2139/ssrn.3779866

Hidalgo Pérez, M. (2021, 25 de noviembre). La UNESCO saca adelante la Declaración Universal de la inteligencia artificial. Diario El País. https://elpais.com/tecnologia/2021-11-25/la-unesco-saca-adelante-la-declaracion-universal-de-la-inteligencia-artificial.html

Hussain, Z. (2021). Artificial Intelligence and Gaps in International Law. Topi: Department of Mechanical Engineering, Ghulam Ishaq Khan Institute of Engineering and Technology.

Leyva-Vázquez, M. y Smarandache, F. (2018). Inteligencia Artificial: retos, perspectivas y papel de la Neutrosofía. Revista Dilemas Contemporáneos: Educación, Política y Valores, VI(Edición Especial). https://dilemascontemporaneoseducacionpoliticayvalores.com/index.php/dilemas/article/view/645

Li, Q. y Xie, D. (2019). Legal regulation of AI weapons under international humanitarian las: A Chinese perspective. Humanitarian Law & Policy. https://blogs.icrc.org/law-and-policy/2019/05/02/

Maas, M. M. (2019). International Law Does Not Compute: Artificial Intelligence and The Development, Displacement or Destruction of the Global Legal Order. Melbourne Journal of International Law, 20(1), 29–56, http://classic.austlii.edu.au/au/journals/MelbJIL/2019/3.html

Maas, M. M. (2021). Artificial Intelligence Governance under Change Foundations, Facets, Frameworks [Tesis doctoral, Universidad de Copenhague]. https://doi.org/10.2139/ssrn.3833395

McGregor, L. (2018). Accountability for Governance Choices in Artificial Intelligence: Afterword to Eyal Benvenisti’s Foreword. European Journal of International Law, 29(4), 1079–1085. https://doi.org/10.1093/ejil/chy086

Ortega, A. (2021). Hacia un régimen europeo de control de la Inteligencia Artificial. Real Instituto Elcano, 52. https://www.realinstitutoelcano.org/analisis/hacia-un-regimen-europeo-de-control-de-la-inteligencia-artificial/

Pizzi, M., Romanoff, M. y Engelhardt, T. (2020). AI for humanitarian action: Human rights and ethics. Digital technologies and war. International Review of the Red Cross, 102(913), 145-180. https://doi.org/10.1017/S1816383121000011

Ragazzi, F. et al. (2022). Biometric and behavioral mass surveillance in EU Member States. https://www.greens-efa.eu/en/article/document/biometric-and-behavioural-mass-surveillance-in-eu-member-states

Robles Carrillo, M. (2020). La gobernanza de la inteligencia artificial: Contexto y parámetros generales. Revista Electrónica de Estudios Internacionales, 39. https://doi.org/10.17103/reei.39.07

Turner, J. (2019). Robot Rules: Regulating Artificial Intelligence. Palgrave Macmillan, Springer. https://doi.org/10.1007/978-3-319-96235-1

Vienna Acosta, A. (2018, 26 de enero). Addis-Abeba, le siège de l’Union africaine espionné par Pékin. Le Monde. https://www.lemonde.fr/afrique/article/2018/01/26/a-addis-abeba-le-siege-del-union-africaine-espionne-par-les-chinois_5247521_3212.html

Vienna Acosta, A. (2019). La Unión Africana estrecha relaciones con Huawei y define su lugar en la “cortina de acero digital”. Anuario de Relaciones Internacionales (edición del Instituto de Relaciones Internacionales- Sección África). https://www.iri.edu.ar/wp-content/uploads/2019/09/a2019africaarticuloVienna.pdf

Wei, L. (Dir.) (2021). Resource Guide on Artificial Intelligence. AI Strategies. New York: United Nations.

Zafar, A. y Villeneuve, S. (2018). Adopting AI in the Public Sector: Turning risks into opportunities through thoughtful design. https://brookfieldinstitute.ca/commentary/adopting-ai-in-the-public-sector/ [consultado el 18 de febrero de 2022].

Zhao, H. et al. (2018). Inteligencia artificial para el bien en el mundo. Ginebra: Unión Internacional de Telecomunicaciones. https://www.itu.int/en/itunews/Documents/2018/2018-01/2018_ITUNews01-es.pdf

NOTAS

1 La Comisión está compuesta por dieciocho destacados académicos de disciplinas científicas, jurídicas, filosóficas, culturales y políticas de diversas regiones del mundo, nombrados por el Director General de la UNESCO a título individual, junto con once miembros ex officio que representan los programas científicos internacionales de la UNESCO y comunidades científicas globales. La Comisión tiene el mandato de formular principios éticos que podrían proporcionar a los tomadores de decisiones criterios que se extiendan más allá de las consideraciones puramente económicas. COMEST trabaja en varias áreas, entre ellas la ética de las nanotecnologías junto con cuestiones nuevas y emergentes relacionadas en las tecnologías convergentes; cuestiones éticas relacionadas con las tecnologías de la sociedad de la información; ética científica; cuestiones de género en la ética de la ciencia y la tecnología, etc. (https://en.unesco.org/themes/ethics-science-and-technology/comest).

2 El parágrafo 2.a) del Anteproyecto de Recomendación sobre la Ética de la IA de la UNESCO (SHS/BIO/AHEG-AI/2020/4 REV 2, Doc. Final) expresa: “Los sistemas de IA son tecnologías de procesamiento de la información que incorporan modelos y algoritmos que producen una capacidad para aprender y realizar tareas cognitivas, dando lugar a resultados como la predicción y la adopción de decisiones en entornos reales y virtuales. Los sistemas de IA están diseñados para funcionar con una cierta autonomía, mediante la modelización y representación del conocimiento y la explotación de datos y el cálculo de correlaciones”. V. infra la Recomendación adoptada el 25 de noviembre de 2021.

3 La aplicación más utilizada es la del software como servicio, con soluciones como el correo electrónico, las videoconferencias, las aplicaciones de oficina, la gestión de relaciones con los clientes, la planificación de recursos, la automatización de los flujos de trabajo y la seguridad. Además, posibilita el uso de herramientas de apoyo al comercio electrónico, como robots conversacionales (chatbot) y mensajería, que amplían los canales de comunicación con los clientes. Por ejemplo, en 2019, los usos del software como servicio en América Latina y el Caribe constituían casi el 50% del mercado de la nube, seguido por usos de infraestructura como servicio (46%) y el 4,3% (plataforma) (GlobalData, 2020). La región América Latina y Caribe representa un 8% del tráfico global en la nube y se espera que ese tráfico crezca al 22% como promedio anual hasta 2023 (CEPAL, 2021, p. 5 y ss.). Hay que tener en cuenta que todo software actúa dentro de un hardware.

4 Tal el caso de sistemas capaces de capturar el entorno de un dron, de un coche, de un avión, etc., y actuar en consecuencia para brindar seguridad. Entre los hardwares más utilizados figuran: los procesadores Arrays sistólicos (limitados debido a su simplicidad), procesadores ASICs (capaces de ejecutar algoritmos más complejos), procesadores FPGA (trabajan con entradas varias al mismo tiempo e interconexión entre elementos), procesadores GPU (permiten cálculo vectorial de algoritmos), etc.

5 EU. POLICY DEPARTMENT FOR STRUCTURAL AND COHESION POLICIES, 2021, p. 18.

6 En distintos ámbitos, especialmente en el de la Unión Europea, para garantizar la gobernabilidad, se promueve la participación de todas las partes interesadas (gobernanza multipartes - multi-stakeholder) en todos los estadios de tránsito de la IA, al igual que su regulación normativa.

7 Gran número de teóricos considera que la responsabilidad principal de los sistemas de IA debe residir en aquellas instituciones que financian, desarrollan e implementan estos sistemas, debiendo la institución responsable de un sistema de IA darse a conocer al público en tanto responsable de las decisiones tomadas, haciendo conocer la procedencia de los datos y garantizando la calidad y relevancia de la entrada de datos en los algoritmos. Por otra parte, un sistema de IA debe implementarse solo después de una evaluación adecuada de sus propósitos y objetivos, sus beneficios y sus riesgos. V. Declaración Universal de IA (2018), ONG “The Public Voice”, coalición creada en 1996 por el Electronic Privacy Information Center (EPIC), que actúa en cooperación con la ICDPPC, la OCDE, la UNESCO y otras organizaciones internacionales (https://thepublicvoice.org/ai-universal-guidelines/). V. infra.

8 A más de considerar el comportamiento moral de los humanos cuando diseñan, fabrican, usan y tratan sistemas artificialmente inteligentes, ha surgido la llamada ética de las máquinas que abarca i. a. el riesgo existencial de la inteligencia artificial general, el problema del control de la IA, la roboética, etc.).

9 El Derecho administrativo global (DAG) no se preocupa por marcar las delimitaciones de autoridad entre lo “público” y lo “privado”, y sí se ocupa de una serie de exigencias aplicables a los procesos de gobernabilidad en diferentes ámbitos institucionales: transparencia, participación, toma de decisiones razonada y revisablidad.

10 V. nuestro trabajo Paradigmas Ideológicos y la Concepción del Derecho Internacional (2020), Advocatus, Córdoba, p.77 y ss.

11 La transparencia presenta varias dimensiones de percepción. Por un lado, las personas tienen derecho a conocer la base de una decisión de AI que les concierne, lo que incluye el acceso a los factores, la lógica y las técnicas que produjeron el resultado. Por otro lado, refiere a la motivación y a los objetivos de los decisores. Además, requiere que ninguna institución establezca o mantenga un sistema secreto de elaboración de perfiles, como tampoco un sistema de IA si el control humano ya no es posible sobre él (V. Declaración Universal de IA de la ONG “The Public Voice”, cit. supra en https://thepublicvoice.org/ai-universal-guidelines/). En otra dimensión, se sitúa la necesidad de llevar adelante auditorías. Las organizaciones humanitarias, de derechos humanos y de desarrollo deberían buscar garantizar que las herramientas de IA -ya sean desarrolladas internamente o por proveedores- se revisen externa e independientemente en forma de auditorías. La capacidad de auditoría es fundamental para garantizar la transparencia y la rendición de cuentas, al tiempo que permite la comprensión y el compromiso del público con estos sistemas. Los proveedores del sector privado generalmente se resisten a hacer que sus productos sean auditables, argumentando tanto la no viabilidad técnica como las preocupaciones sobre el secreto comercial. Asegurar y permitir la auditabilidad de los sistemas de IA, es del dominio de los reguladores gubernamentales y los desarrolladores del sector privado, correspondiendo prever situaciones y modalidades de auditoría. Por ejemplo, los donantes o implementadores podrían hacer de la auditabilidad un requisito previo para la elegibilidad de una subvención (Pizzi, Romanoff y Engelhardt, 2020, p. 177 y ss.).

12 Es esencial el involucramiento de distintos actores, abarcando la participación de organismos públicos, actores privados y organizaciones internacionales y transnacionales.

13 La consulta a la ciudadanía y, en particular a los consumidores, hace a la participación, a la transparencia, a la matización de percepciones, a un proceso inclusivo y multidisciplinario, entre otras ventajas Revisar esta oración. Por ejemplo, la UNESCO ha llevado a cabo entre junio y agosto de 2020 una consulta en línea sobre el primer borrador de la Recomendación sobre la ética de la inteligencia artificial elaborado por el Grupo Especial de Expertos asistido por la Secretaría General de Ciencias Sociales y Humanas y de la Sección de Bioética y Ética de la Ciencia (https://unesdoc.unesco.org/ark:/48223/pf0000373434_spa).

14 Por ejemplo, la consulta referida en nota anterior, tras la consideración de las observaciones, ameritó la revisión de la Recomendación citada de modo previo al envío del Anteproyecto de Recomendación en septiembre de 2020 a los Estados Miembros para que efectúen sus observaciones.

15 El feedback de los usuarios –usualmente por encuestas- es el canal de comunicación entre los consumidores, el producto y el equipo. Constituye una forma de mejorar tecnología, brindar personalizaciones, mejorar su experiencia de marca, a más de brindar la oportunidad de maximizar los beneficios que brinda un producto. Por otra parte, cuando los usuarios tienen el nivel adecuado de control sobre el sistema, es más probable que confíen en él, lo que es parte central de la gobernabilidad.

16 El sistema es autónomo en tanto utiliza inteligencia artificial para aprender de su entorno.

17 Una entidad artificialmente inteligente es una persona jurídica que se rige por la legislación nacional que “alberga” una inteligencia artificial. Shawn Bayern estableció por primera vez una sociedad de responsabilidad limitada para una entidad de IA según la ley de los Estados Unidos. Según Nicolás Mario Grandi (2020) se está vislumbrando la posibilidad de la creación de una nueva “persona electrónica” con derechos y obligaciones propios, es decir que la IA deje de ser un objeto de derecho para transformarse en sujeto.

18 Ese sistema ha sido designado por el premio Nobel Jody Williams como conjunto de robots asesinos en los conflictos armados y analiza su principal problemática: la falta de aptitud de tales armas para cumplir con el derecho internacional humanitario y con el derecho internacional de los derechos humanos.

19 El término “Control Inteligente” se utiliza para hacer referencia a una evaluación de ejecución en el que las actividades cognoscitivas tienen especial importancia. Dentro de este tipo de problemas son de particular importancia los derivados de los comportamientos impredecibles, como los ocasionados por malfunciones de los sistemas.

20 La rápida evolución de la IA ha provocado un aumento extraordinario del número y la variedad de soluciones y aplicaciones. La estandarización o normalización de características mejora/mejoraría la selección y la eficiencia.

21 La encuesta se reitera periódicamente.

22 El documento final de la Tercera Conferencia Internacional sobre la Financiación para el Desarrollo, que se celebró en Addis Abeba (Agenda de Acción) aprobada por la Res. 69/313 (Anexo de la AGNU), de 27 de julio de 2015, es parte integrante de la Agenda 2030 para el Desarrollo Sostenible (Res. 70/1 de la AGNU.

23 “AI for Good” (“IA para el bien”), con sede en el Palacio de las Naciones de Ginebra, es una plataforma digital activa durante todo el año donde los innovadores de IA y los propietarios aprenden, construyen y se conectan para ayudar a identificar soluciones prácticas de IA dirigidas a promover los Objetivos de Desarrollo Sostenible de las Naciones Unidas (Agenda 2030). “AI for Good” está organizada por el sector de normalización de la UIT en asociación con 38 agencias de las Naciones Unidas, la Fundación XPRIZE (organización sin fines de lucro que diseña y organiza concursos públicos destinados a fomentar el desarrollo tecnológico en beneficio de la humanidad), ACM (Association for Computing Machinery, sociedad científica internacional para la informática más grande del mundo con más de 100.000 asociados, sin fines de lucro, con base en los EE. UU., fundada en 1947, siendo la sociedad y es la sociedad informática científica y educativa más grande del mundo) y Suiza.

24 https://www.itu.int/es/mediacentre/Pages/PR03-2020-AI-for-Good-summit-artificial-intelligence-problem-solving-global-impact.aspx

25 El enfoque estratégico para todo el sistema de las Naciones Unidas, elaborado en consonancia con la información y la orientación del Comité de Programas de Alto Nivel desde su 34º período de sesiones, fue aprobado por el Comité en su 37º período de sesiones. Esboza un plan interno para apoyar los esfuerzos de desarrollo de capacidades relacionados con las tecnologías de inteligencia artificial, especialmente para los países en desarrollo, con un énfasis particular en los mil millones de seres humanos más pobres en el contexto de la consecución de los Objetivos de Desarrollo Sostenible (https://unsceb.org/united-nations-system-wide-strategic-approach-and-road-map-supporting-capacity-development).

26 V. infra, https://www.europarl.europa.eu/RegData/etudes/BRIE/2020/629220/IPOL_BRI(2020)629220_EN.pdf e Hidalgo Pérez, 2021.

27 Erdelyi y Goldsmith, 2018.

28 En https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_es.pdf

29 En https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence. V. EU. JOINT RESEARCH CENTRE (JRC), the European Commission’s science and knowledge service, 2021.

30 En total se recibieron 1215 contribuciones, de las cuales 352 procedieron de empresas u organizaciones o asociaciones comerciales, 406 de particulares (el 92% de ellos, de la UE), 152 de representantes de instituciones académicas o de investigación, y 73 de autoridades públicas. Asimismo, 160 encuestados representaban a la sociedad civil (en concreto, 9 organizaciones de consumidores, 129 organizaciones no gubernamentales y 22 sindicatos), y 72 se adscribieron a la categoría «Otros». De los 352 representantes de la empresa y la industria, 222 representaban a empresas y negocios. El 41,5% de estas microempresas, pequeñas y medianas empresas, mientras que el resto eran asociaciones comerciales (https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:52021PC0206).

31 De Miguel Asensio, 2021.

32 Ragazzi, 2022.

33 Entre esos Estados están Alemania, Francia, Hungría, Holanda, Finlandia, etc.

34 *Búsqueda del equilibrio entre proteger los derechos de la ciudadanía e impulsar el desarrollo tecnológico; *Un sistema de responsabilidad civil con visión de futuro para proteger a empresas y particulares; *Un sistema eficaz de propiedad intelectual y garantías para los desarrolladores.

35 V. https://es.euronews.com/my-europe/2021/11/09/que-es-la-inteligencia-artificial-y-como-planea-la-ue-regularla

36 “Regulación de la inteligencia artificial en la UE: la propuesta del Parlamento”, Parlamento Europeo, octubre de 2021, en https://www.europarl.europa.eu/news/es/headlines/society/20201015STO89417/regulacion-de-la-inteligencia-artificial-en-la-ue-la-propuesta-del-parlamento

37 Empresas como “Amped” utilizan la IA para el análisis de vídeos, buscando identificar a los responsables de atentados terroristas o actos violentos. V. De Filippis, A. y Lázaro, 2021. Entre otros desarrollos, “Amped” ofrece “Amped3”, un innovador motor de inteligencia artificial y controles perfeccionados, para que el usuario tenga la experiencia de conducción más auténtica de snowboard en algunos de los mejores resorts de invierno del mundo, ofreciendo un gameplay de personalización increíble y con riesgos simulados mortales.

38 En http://lefis.unizar.es/wp-content/uploads/EGE_Artificial-Intelligence_Statement_2018.pdf

39 Los líderes del G7 acordaron la “Visión Común de París para el Futuro de la Inteligencia Artificial” de la OCDE, en junio de 2018.

40 La Organización para la Cooperación y el Desarrollo Económicos (conocida como “club de los países ricos” en tanto sus miembros concentran 62.2 % del PBI nominal) es un organismo de cooperación internacional con sede en París, compuesto por Estados cuyo objetivo es coordinar sus políticas económicas y sociales. Su lema es “mejores políticas para mejores vidas”. Continuó a la Organización Europea para la Cooperación Económica (OECE) creada en 1948. El mayo de 2019 en vinculación a la COVID-19 adoptó la “Recomendación del Consejo sobre Inteligencia Artificial”, documento no vinculante que aprobó los Principios de IA. Los Principios de IA de la OCDE son los primeros principios de este tipo suscritos por los gobiernos, a los que han adherido numerosos Estados más, entre ellos, Argentina, Brasil, Perú. Esos principios establecen estándares para la IA lo suficientemente prácticos y flexibles para resistir la prueba del tiempo en un campo en rápida evolución. Complementan los estándares existentes de la OCDE en áreas tales como privacidad, gestión de riesgos de seguridad digital y conducta empresarial responsable.

41 En junio de 2019, el G20 adoptó los “Principios de IA centrados en el ser humano” que se basan en los Principios de IA de la OCDE.

42 La Organización de la Unidad Africana (OUA) oscila entre la guerra a la IA como instrumento colonialista y el vínculo entre la Unidad Africana y la compañía china Huawei (empresa de la escena internacional de gran peso no sólo económico, sino también político), la que ha tomado la delantera en un importante número de la OUA (V. Vienna Acosta, 2018 y 2019).

Notas de autor

* Profesora Emérita de la UNC y Profesora Emérita de la Universidad Católica de Córdoba (UCC) Argentina (Catedrática de Derecho Internacional Público)

Información adicional

Cómo citar : Drnas de Clément, Z. (2022). Inteligencia artificial en el Derecho Internacional, Naciones Unidas y Unión Europea. Revista Estudios Jurídicos. Segunda Época, 22, e7524. https://doi.org/10.17561/rej.n22.7524

Secciones
Revista de Estudios Jurídicos
ISSN: 1576-124X

Num. 22
Año. 2022

Inteligencia artificial en el Derecho Internacional, Naciones Unidas y Unión Europea

Zlata Drnas de Clément
Universidad Nacional de CórdobaUniversidad Católica de Córdoba,ArgentinaArgentina
Contexto
Descargar
Todas