Regulación de la IA: Equilibrio entre innovación y seguridad. Desafíos y oportunidades dentro del marco regulatorio europeo.
Autora: Nadya Japaz
Quienes deseen realizar una publicación deberán comunicarse a bitacoralegalenaccion@gmail.com
Regulación de la IA: Equilibrio entre innovación y seguridad. Desafíos y oportunidades dentro del marco regulatorio europeo.
Autora: Nadya Japaz
Nadya Japaz. Maestranda en Sostenibilidad Corporativa y abogada egresada de la Universidad Nacional de Cuyo. Se desempeña como consultora en compliance, enfocándose en sostenibilidad y derechos humanos. Además, es profesora interina de Derecho Internacional y Derecho Constitucional en la Universidad Champagnat, así como profesora adscripta en la cátedra de Derechos Humanos en la Facultad de Derecho de la Universidad Nacional de Cuyo.
Previo a su actual labor, fue investigadora asociada en la cátedra de Derecho Público y Derechos Humanos en la Justus Liebig Universität Gießen, Alemania. Es miembro de la Asociación Española de Compliance y cuenta con diversas certificaciones internacionales, entre las que destacan: Internationally Certified Compliance Professional (IFCA), Certificado CESCOM® y Certified Sustainable Supply Chain Professional (ISCEA).
El presente trabajo tiene por objeto realizar un análisis sobre retos y oportunidades sobre la primera regulación en soporte hard law sobre inteligencia artificial a nivel mundial. El 13 de marzo de 2024, el Parlamento Europeo aprobó la Ley de Inteligencia Artificial (“IA”) (The EU AI Act), adoptando una óptica proactiva para regular tecnología emergente y buscando equilibrar el fomento de la innovación con la protección de los derechos humanos (1).
La reciente ley clasifica los sistemas de IA según su nivel de riesgo (2). Este enfoque establece restricciones más estrictas para aplicaciones de alto riesgo (como IA en salud o educación) y prohíbe aquellas consideradas de riesgo inaceptable para la vigilancia masiva no supervisada, así como es el uso de la biometría en lugares públicos, el escrutinio social y el escaneo de datos (excluyendo casos como la migración y el control de fronteras). Los límites se establecen a través de directrices (3) que tienen el fin de asegurar la transparencia y la ética en el desarrollo y aplicación de modelos generativos de inteligencia artificial, como ChatGPT. Estas directrices incluyen la evaluación de riesgos, la obligación de informar sobre incidentes, el establecimiento de garantías de ciberseguridad y la protección de derechos de autor y de la privacidad, entre otros aspectos.
Por otra parte, la normativa tiene como objetivo impulsar la innovación, promoviendo la creación y el uso responsable de nuevas tecnologías de inteligencia artificial, así como la implementación de entornos de prueba controlados, especialmente orientados a pequeñas y medianas empresas.
A lo largo del trabajo, se abordarán las principales características y los principales puntos de esta regulación, en especial las medidas de debida diligencia y los actores involucrados. De las conclusiones, se advertirá que, entre los principales desafíos se encuentran: la dificultad de clasificar los riesgos en un entorno tecnológico de rápida evolución (4) y la necesidad de asegurar que las regulaciones no inhiban la innovación; el apoyo político de los gobiernos nacionales al sector privado para la implementación efectiva y el impacto que tendrá esta regulación en otras jurisdicciones fuera de la UE (5).
Desde la cumbre Digital de Tallin en septiembre de 2017, Europa decide dar un vuelco en torno a la importancia de avanzar e inmiscuirse en un proceso de digitalización acelerada (6). En el 2018, la Comisión comienza a elaborar una serie de propuestas sobre IA basadas en la gestión de riesgo (7). Es así como finales de ese año se contaba con un “Plan Coordinado sobre la Inteligencia Artificial y Coordinado sobre el Desarrollo y Uso de la Inteligencia Artificial”. Para comienzos del 2020, se publica el Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza (8), con dos objetivos claros: primero invertir e innovar en inteligencia artificial y regular los riesgos de su uso. Durante el transcurso de ese mismo año y en época de pandemia, se aprobaron resoluciones destacadas en materia de IA y responsabilidad civil (9) y derechos de propiedad intelectual (10).
Teniendo en cuenta las últimas fechas, el 21 de abril de 2021 se conoció la propuesta final de Reglamento del Parlamento Europeo y del Consejo sobre ley de inteligencia artificial. Posteriormente a finales del 2023 y tras jornadas intensas de debate, se llegó a un acuerdo de negociación entre el Consejo y el Parlamento Europeo, siendo una de las cuestiones más críticas la regulación de uso de sistema biométricos a través de cámaras en lugares públicos con fines de seguridad. Finalmente, la ley fue aprobada en el Parlamento Europeo el 13 de marzo de 2024, por 523 votos a favor, 46 en contra y 49 abstenciones.
La ley de Inteligencia Artificial (AI Act) es la normativa de la Unión Europea (UE) sobre inteligencia artificial (IA). Sienta normativa destinada al desarrollo y uso de los sistemas de IA, creando un marco normalizado y vinculante en la UE. Simultáneamente estimula la competitividad y la investigación en IA (11). Se trata de la primera normativa transnacional de este tipo en el mundo y de allí que radica la importancia de su análisis.
El artículo primero pone en relieve, como objetivo la adopción de una inteligencia artificial centrada en el ser humano, respetando los derechos fundamentales consagrados en la Carta, mientras que a la vez, pareciera que busca un balance con la constante innovación (12).
Es menester primero realizar una aproximación a la definición de Inteligencia Artificial. La definición de sistema de IA ha sido incluida en la reglamentación, junto con otras definiciones en el artículo 3 , teniendo en cuenta que el sistema de IA, es un sistema basado en máquinas que está diseñado para funcionar con diversos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.
Por otro lado, en la primera propuesta de la Comisión Europea en el año 2021, se entendió como el software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como con-tenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa.
En la doctrina (13), la IA se entiende mayoritariamente como un sistema informático que se adapta y ofrece respuesta, mediante un aprendizaje automatizado, optimizando el proceso a través del procesamiento de datos.
Tras lo anterior podemos advertir a priori que las notas particulares y comunes son aprendizaje autónomo, respuesta, procesamiento de datos y recursos y adaptación.
Aunque el ámbito de aplicación de la ley de IA abarca todas las aplicaciones de la inteligencia artificial definidas en la normativa, sólo algunos usos de la IA están sujetos a la regulación vinculante (14). Es tanto así que el ámbito de aplicación se circunscribe a (15):
a) los proveedores que introduzcan en el mercado o pongan en servicio sistemas de IA o que introduzcan en el mercado modelos de IA de uso general en la Unión, con independencia de si dichos proveedores están establecidos o ubicados en la Unión o en un tercer país;
b) los responsables del despliegue de sistemas de IA que estén establecidos o ubicados en la Unión;
c) los proveedores y responsables del despliegue de sistemas de IA que estén establecidos o ubicados en un tercer país, cuando los resultados de salida generados por el sistema de IA se utilicen en la Unión;
d) los importadores y distribuidores de sistemas de IA;
e)los fabricantes de productos que introduzcan en el mercado o pongan en servicio un sistema de IA junto con su producto y con su propio nombre o marca;
f) los representantes autorizados de los proveedores que no estén establecidos en la Unión;
g) las personas afectadas que estén ubicadas en la Unión.
Por otra parte, encontramos excepciones en cuanto a las autoridades de terceros países, y organizaciones internacionales que destinen IA a los fines de cumplir deberes emanados de cooperación internacional, siempre que se respeten deberes fundamentales y que sea una decisión tomada por la Comisión Europea.
Por las mismas necesidades del mercado, la estandarización nos permite determinar definiciones de calidad o que es lo que se espera de un producto actual o futuro. Esto no ha quedado fuera de lo esperado por el reglamento/ley (16). La ley de inteligencia artificial, plasma una estandarización a través del enfoque basado en el riesgo. Esto implica que pretende regular las aplicaciones y sistemas de IA según su nivel de riesgo. Por ello, este enfoque se sostiene en la premisa de que las tecnologías de IA pueden impactar a la sociedad de manera diferente, dependiendo de su uso y contexto. La propuesta es que las aplicaciones con un mayor riesgo requieran una regulación más estricta, mientras que aquellas con un riesgo menor pudiesen tener un régimen legal más flexible (17).
Un aspecto importante de este enfoque es la adaptabilidad de la regulación, permitiendo que se ajuste a la aparición de nuevos riesgos a medida que la tecnología evoluciona. Esto implica que los marcos legales deben ser dinámicos y estar en constante revisión para reaccionar ante los desafíos que las nuevas aplicaciones de IA podrían presentar. Por otro lado, la ley de IA europea enfatiza asimismo la necesidad de realizar evaluaciones jurídicas y éticas, que incluyan consideraciones sobre derechos fundamentales, protección de datos personales y no discriminación, similares a las evaluaciones de impacto en protección de datos establecidas en el Reglamento General de Protección de Datos (RGPD) (18).
Bajo este paragua la ley clasifica los sistemas de IA en distintos niveles, que a su vez definen el rigor de las normas de cumplimiento de la ley (19). En este caso procederemos a hablar de riesgo inaceptable o riesgo prohibido, riesgo alto, bajo riesgo y nulo respectivamente.
Por lo concerniente al riesgo prohibido, en términos generales, todos los sistemas de inteligencia artificial que se clasifican en esta categoría no están permitidos. Esto abarca todas las aplicaciones que representen una amenaza evidente para los ciudadanos de la UE, incluidos los sistemas de IA que son manipuladores y explotadores (20). A continuación, mencionamos en forma resumida los supuestos que se consideran prohibidos a la luz del reglamento:
a) Identificación biométrica: prohibido la utilización de drones en tiempo real en espacios públicos, a distancia y con fines policiales
b) manipulación subliminal: inferir en la capacidad de decisión de las personas;
c) explotación de vulnerabilidades: se prohíbe el aprovechamiento de la IA sobre situaciones de vulnerabilidad tales como situaciones socioeconómicas, discapacidades etc, que causen daño significativo a las personas;
d) categorización biométrica: prohibición de IA para categorizar personas en base a su preferencia política, su etnia etc.;
e) puntuación social;
f) inferencia de emociones;
g) evaluación de riesgos de delitos: se entiende este supuesto, en el caso de que un sistema de IA prediga la posibilidad o no de cometer un delito, de acuerdo a sus características personales;
h) bases de datos de reconocimiento facial: el uso de sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de grabaciones queda terminantemente prohibidos.
Aunque los supuestos antes enumerados están restringidos, existen algunas excepciones permitidas en lo que respecta la identificación biométrica a distancia en tiempo real, cuando se destine exclusivamente a la búsqueda de víctimas especificas o personas desaparecidas; prevención de amenazas específicas, sustanciales e inminentes contra la vida o seguridad física de las personas, o amenazas de atentados terroristas y detección, localización, identificación o enjuiciamiento de un sospechoso o autor de un delito grave. Pero, sin embargo, para que el sistema de IA pueda emplearse es obligatorio: autorización previa de una autoridad judicial o administrativa, dependiendo el caso en concreto, debe limitarse en espacio de tiempo, espacio geográfico y debe estar dirigido a personas específicas. Por otra parte, se requiere para el uso del sistema una evaluación de impacto sobre derechos humanos y registro de base datos y sistemas de IA de la Unión Europea creada al efecto. Cabe resaltar que, si bien estos riegos pasaron de estar prohibidos a permitidos, deben continuar con el cumplimiento de los estándares previstos para riesgos altos.
En lo que respecta a los riesgos altos, los sistemas de IA de alto riesgo están sujetos a un riguroso proceso de certificación; sin embargo, no se consideran intrínsecamente objetables al punto de justificar su prohibición (21). Los sistemas de IA en esta categoría deben someterse a pruebas minuciosas, antes de ponerlos en funcionamiento, así como comprobaciones adicionales durante su vida útil (22). Dentro de esta clasificación encontramos aquellos sistemas de IA de alto riesgo que son parte de la composición de un servicio o producto o sujetos a la legislación de armonización en materia de salud y seguridad de la UE y por otro aquellos que se encuentran en el anexo III de la ley (entre ellos, los datos biométricos, en la medida en que su uso esté permitido por la legislación nacional o de la Unión pertinente (23).); los sistemas de IA destinados a ser utilizados como componentes de seguridad en la gestión y explotación de infraestructuras digitales críticas, tráfico rodado, o en el suministro de agua, gas, calefacción o electricidad; los destinados a la educación, empleo, acceso y disfrute de los servicios privados esenciales y de los servicios y prestaciones públicas esenciales; los destinados a ser utilizados por fuerzas y cuerpos de seguridad , en los supuestos permitidos y los sistemas de IA empleados en la gestión de la migración, el asilo y el control de fronteras, en la medida en que su uso esté permitido y por último, los empleados para administrar justicia y funcionamiento de proceso democráticos (24). Como ejemplo de lo antes expresado tenemos en materia de empleo, los softwares para analizar currículos vitae; en materia de migración y fronteras los usados para aplicar legislaciones a casos concretos (25).
Los mismos se encuentran consagrados en los artículos del 9 al 17 de la ley de IA e impone que, al asumirse el empleo de un sistema de IA de riesgo elevado, debe adoptarse un sistema de gestión de riesgos, que se actualice y esté en revisión continuamente en base a la identificación de riesgos conocidos y previsibles, que pudiesen violentar derechos fundamentales u ocasionar posibles daños a la salud y seguridad. El proveedor debe cerciorarse que el sistema de IA de alto riesgo no produzca repercusiones negativas en los menores de 18 años y, en su caso, en otros grupos vulnerables, sobre todo en el empleo de modelos de GPAI (26) entrenados con una potencia de cálculo total de más de 10^25 FLOPs (27). Por otra parte, se establece que debe entrenarse a los sistemas de IA en cuanto a sus datos, los que deben ser representativos y estar en gran medida libres de errores y no encontrarse sesgados. A su vez, los sistemas de IA, en vistas a su comercialización deben contar con la documentación necesaria previa, que demuestre que el sistema cumple con los requisitos de esta normativa y proporcionar instrucción de usos, concisa, completa y clara sobre su uso y permitir supervisión eficaz de los sistemas de IA durante su funcionamiento.
En lo que respecta a los sistemas de inteligencia artificial catalogados como de "bajo riesgo" contemplados en el art. 52, quedan sujetos a requisitos de transparencia mínimos, cuyo objetivo es brindar a los usuarios una visión general de su funcionamiento. En este contexto, la decisión sobre el uso y aplicación final de estos sistemas queda en manos de los ciudadanos. Un ejemplo representativo de esta categoría incluye los sistemas de recomendación automática de contenido, como películas o música (28). Lo resaltable aquí, en esta categoría es que los proveedores de IA deben mostrar su contenido como identificable y realizado por el sistema artificial.
Como última categoría tenemos los sistemas de IA que contemplan un riesgo mínimo, tratados en el artículo 69. El riesgo mínimo abarca aquellos sistemas que representan un riesgo bajo o inexistente para los derechos fundamentales. Tales sistemas no están sujetos a regulaciones específicas. Esta categoría incluye en su mayoría aplicaciones de inteligencia artificial, como los videojuegos que incorporan elementos de IA. Los proveedores de estos sistemas tienen la opción de adherirse de forma voluntaria a códigos de conducta. Por lo tanto, es posible que incluso los productos clasificados como de riesgo mínimo cumplan con todos o algunos de los requisitos establecidos por la legislación en materia de inteligencia artificial (29).
Dentro del paquete de legislación en materia de IA, se previó la creación de la Oficia Europea de Inteligencia Artificial (30). Este organismo es una pieza clave para la implementación de la ley IA, en este documento analizada. Entre sus principales funciones se encuentra la coordinación de políticas entre los estados miembros, destinada a la generación permanente de conocimiento especializado en inteligencia artificial, que permita una estandarización en la ejecución del contenido de la reglamentación. Por otra parte, la Oficina esta investida de potestad sancionatoria en cuanto al incumplimiento hasta 35 millones de euros o el 7 % de la facturación mundial anual de la empresa, si la cantidad es mayor.
Cada estado miembro cada nación integrante debe crear al menos un centro de pruebas autorizado y una entidad encargada de supervisar el mercado para aplicar la normativa a escala nacional. Estas autoridades nacionales tienen la capacidad de brindar guía y consejo acerca de la implementación de la ley de Inteligencia Artificial, en particular para las pequeñas y medianas empresas (pymes) y las empresas emergentes.
Como se planteó al comienzo de este análisis el reglamento tendrá aplicabilidad a todos los usos de la inteligencia artificial que impacten a los ciudadanos de la Unión Europea, sin importar la ubicación de la sede del proveedor de servicios ni el lugar en el que se desarrolle o ejecute el sistema, ya sea dentro o fuera de las fronteras de la UE, así como sucede con otros reglamentos, como por ejemplo el de datos, el de debida diligencia en sostenibilidad empresarial (CSDDD) etc., creando una propuesta internacional e imponiendo estándares globalizados (efecto Bruselas) 31). Aquí surge el interrogante ¿habrá cooperación internacional suficiente entre los estados miembros de la UE y terceros países?(32), y de ser así podrán ¿se podrán cumplir y amalgamar los estándares éticos o más bien se flexibilizarán en su ejecución?
A su vez, se plantea la duda de si la aplicación dentro del espacio europeo será someramente uniforme, y si de corroborarse prima facie la ejecución del cumplimiento, se dará a lugar a diferentes planteamientos en el manejo entre los estados miembros.
También surge la inquietud económica de como costearán las pymes europeas la implementación de estas prácticas y si de no poder lograrlo tendrán la suficiente colaboración de los organismos locales de los estados miembros, como así colaboración de la oficina de enlace creada al efecto antes mencionada. Lo anterior, ¿fomentaría o afectaría negativamente al desarrollo y competitividad de las empresas europeas?
Cabe destacar, por último, que será un gran desafío adaptar la categorización emergente de la reglamentación a nuevos usos de la IA, teniendo en consideración el crecimiento acelerado que implicaran en las siguientes décadas, los sistemas de IA.
Somos optimistas en que, durante el plazo de transición desde la entrada en vigor, estas inquietudes irán teniendo respuestas. La ley se aplicará de forma gradual, como toda reglamentación europea, con plazos específicos para cada riesgo, comenzando la obligatoriedad a los seis meses para disposiciones prohibidas, a los doce meses para usos de sistemas IA en general, a los veinticuatro meses (2/08/2026) se prevé aplicación general, salvo algunas disposiciones de riesgo alto las cuales serán exigibles a los treinta y seis meses de su vigencia.
La ley IA representa el primer intento sobre regulación de seguridad de los sistemas IA en el mundo. Sin dudas, es una regulación integrante más del efecto Bruselas (efecto conocido por globalización de normativa, en donde unilateralmente una jurisdicción migra a otra sin que la primera la imponga activamente o la segunda la adopte voluntariamente).
Sostenemos que estos, recién son los primeros pasos y que la creación contemporánea de la Oficina Europea de Inteligencia Artificial será capaz de hacer frente a los cambios y adecuarse a las adversidades que puedan presentar su ejecución, tales como los cambios en la categorización de los riesgos.
La Ley de Inteligencia Artificial demanda que los proveedores de soluciones de Inteligencia Artificial generativa sean transparentes. Dada la considerable escalabilidad, la urgencia de clasificar datos artificiales no solo es lógica, sino también crucial para prevenir la manipulación informativa y prevenirla del daño a derechos fundamentales.
De seguro y por último los programas de cumplimiento y los oficiales de cumplimiento jugarán en un rol crucial en la adaptabilidad de estas exigencias a sus empresas, sin mencionar y aún más importante la capacidad de los directorios de aceptarlas.
1 European Parliament News. AI Rules: What the European Parliament Wants. Europarl.europa.eu, 21 Oct. 2020.
2 Biscaia Fernández, J. M., González-Soltero, M. del R., Biscaia Fernández, C. J., Mohedano del Pozo, R. B., & Rodríguez-Learte, A. I. (2024). Empleo de ChatGPT en educación biomédica. Análisis de riesgos desde los principios éticos de la UNESCO y el Reglamento de la Unión Europea sobre Inteligencia Artificial. Revista Iberoamericana De Bioética, (25), 01–15. https://doi.org/10.14422/rib.i25.y2024.007
3 Gardot, C. (2024). Actionable Insights for Organizations and Compliance Officers amid AI Evolving Challenges and the Impending EU AI Act. International In-House Counsel Journal, 17(Issue 66), 8919-8930
4 Tataru, Stefan Razvan & Cretu, Cosmina. (2024). DECODING THE EU ARTIFICIAL INTELLIGENCE ACT: AN ANALYSIS OF KEY CONCEPTS AND PROVISIONS. Journal of Public Administration Finance and Law. 31. 463. 10.47743/jopafl-2024-31-33.
5 Pantserev, K., & Oztas, B. (2024). AI regulation: Challenges, the EU AI Act and Turkey’s approach. Vestnik of Saint Petersburg University. International Relations, 17(2), 131–142. https://doi.org/10.21638/spbu06.2024.202
6 https://www.consilium.europa.eu/es/meetings/eu-council-presidency-meetings/2017/09/29/
7 https://www.consilium.europa.eu/media/21604/19-euco-final-conclusions-es.pdf, p. 7
8 https://op.europa.eu/es/publication-detail/-/publication/ac957f13-53c6-11ea-aece- 01aa75ed71a1
9 Resolución del Parlamento Europeo, de 20 de octubre de 2020, sobre un régimen de responsabilidad civil en materia de inteligencia artificial, 2020/2014(INL) (consultada el 20 de noviembre de 2023).
10 Resolución del Parlamento Europeo, de 20 de octubre de 2020, sobre los derechos de propiedad intelectual para el desarrollo de las tecnologías relativas a la inteligencia artificial, 2020/2015(INI) (consultada el 20 de noviembre de 2023).
11 AI Act der Europäischen Union : Regeln für vertrauenswürdige KI. (ca. 2024). [Cd]. Lernende Systeme – Die Plattform für Künstliche Intelligenz, Geschäftsstelle c/o acatech. https://doi.org/urn:nbn:de:101:1-2409040948114.980631582067
12 El objetivo del Reglamento es mejorar el funcionamiento del mercado interior y promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de IA (en lo sucesivo, «sistemas de IA») en la Unión así como prestar apoyo a la innovación
13 Mathivet, V. (2018). Inteligencia artificial para desarrolladores: conceptos e implementación. Ediciones ENI, pp.1- 24
14 Han sido exceptuados de regulación vinculante los sistemas de IA utilizados con el único fin de la investigación científica y el desarrollo, o con fines militares y de defensa (artículo 2 de la Ley de IA).
15 Articulo 2 de Ley de IA.
16 Regulation (EU) No 1025/2012 of the European Parliament and of the Council of 25 October 2012 on European standardisation, amending Council Directives 89/686/EEC and 93/15/EEC and Directives 94/9/EC, 94/25/EC, 95/16/EC, 97/23/EC, 98/34/EC, 2004/22/EC, 2007/23/EC, 2009/23/EC and 2009/105/EC of the European Parliament and of the Council and repealing Council Decision 87/95/EEC and Decision No 1673/2006/EC of the European Parliament and of the Council 2012
17 RINCÓN, M.A. (2024). “Aproximación a la propuesta legislativa europea sobre inteligencia artificial”. Quaderns IEE: Revista de l’Institut d’Estudis Europeus, 3(1), 110-124. DOI: 10.5565/rev/quadernsiee.70
18 Mahler T. 2022. Between risk management and proportionality: the risk-based approach in the EU’s artificial intelligence act proposal. Swedish Law Informatics Res Inst. 2021:246–267.
19 Söderlund, K., Larsson, S. Enforcement Design Patterns in EU Law: An Analysis of the AI Act. DISO 3, 41 (2024). https://doi.org/10.1007/s44206-024-00129-8
20 AI Act der Europäischen Union : Regeln für vertrauenswürdige KI. (ca. 2024). [Cd]. Lernende Systeme – Die Plattform für Künstliche Intelligenz, Geschäftsstelle c/o acatech. https://doi.org/urn:nbn:de:101:1-2409040948114.98063158206
21 Edwards, L. (2021). The EU AI Act: a summary of its significance and scope. Artificial Intelligence (the EU AI Act), 1.
22 RINCÓN, M.A. (2024). “Aproximación a la propuesta legislativa europea sobre inteligencia artificial”. Quaderns IEE: Revista de l’Institut d’Estudis Europeus, 3(1), 110-124. DOI: 10.5565/rev/quadernsiee.70
23 Unión Europea. (2023). Reglamento (UE) 2023/XXX del Parlamento Europeo y del Consejo sobre la inteligencia artificial (Ley de Anexo III, apartado primero.
24 Idem
25 AI Act der Europäischen Union : Regeln für vertrauenswürdige KI. (ca. 2024). [Cd]. Lernende Systeme – Die Plattform für Künstliche Intelligenz, Geschäftsstelle c/o acatech. https://doi.org/urn:nbn:de:101:1-2409040948114.980631582067
26 Se entiende por modelo GPAI se entiende un modelo de IA, incluso cuando se ha entrenado con una gran cantidad de datos utilizando autosupervisión a escala, que muestra una generalidad significativa y es capaz de realizar de forma competente una amplia gama de tareas distintas, independientemente de la forma en que se comercialice el modelo, y que puede integrarse en una variedad de sistemas o aplicaciones posteriores.
27 FLOPs (una unidad de medida utilizada para cuantificar la potencia de cálculo de una computadora o un procesador.
28 Idem anterior.
29 Edwards, L. (2021). The EU AI Act: a summary of its significance and scope. Artificial Intelligence (the EU AI Act), 1.
30 https://digital-strategy.ec.europa.eu/es/policies/ai-office
31 Anu Bradford, The Brussels Effect, 107 Nw. U. L. Rev. 1 (2012). Available at: https://scholarship.law.columbia.edu/faculty_scholarship/271
32 Carretero Sánchez, S. (2024). La Ley Europea de la Inteligencia Artificial: una norma que marcara el futuro mundial en esta materia. Revista BURJCDIGITAL burjcdigital.urjc.es https://hdl.handle.net/10115/31538
AI Act der Europäischen Union : Regeln für vertrauenswürdige KI. (ca. 2024). [Cd]. Lernende Systeme – Die Plattform für Künstliche Intelligenz, Geschäftsstelle c/o acatech. https://doi.org/urn:nbn:de:101:1-2409040948114.980631582067.
Biscaia Fernández, J. M., González-Soltero, M. del R., Biscaia Fernández, C. J., Mohedano del Pozo, R. B., & Rodríguez-Learte, A. I. (2024). Empleo de ChatGPT en educación biomédica. Análisis de riesgos desde los principios éticos de la UNESCO y el Reglamento de la Unión Europea sobre Inteligencia Artificial. Revista Iberoamericana De Bioética, (25), 01–15. https://doi.org/10.14422/rib.i25.y2024.007
Carretero Sánchez, S. (2024). La Ley Europea de la Inteligencia Artificial: una norma que marcara el futuro mundial en esta materia. Revista BURJCDIGITAL burjcdigital.urjc.es https://hdl.handle.net/10115/31538.
Edwards, L. (2021). The EU AI Act: a summary of its significance and scope. Artificial Intelligence (the EU AI Act), 1.
European Parliament News. AI Rules: What the European Parliament Wants. Europarl.europa.eu, 21 oct. 2020.
Gardot, C. (2024). Actionable Insights for Organizations and Compliance Officers amid AI Evolving Challenges and the Impending EU AI Act. International In-House Counsel Journal, 17(Issue 66), 8919-8930.
Mahler T. 2022. Between risk management and proportionality: the risk-based approach in the EU’s artificial intelligence act proposal. Swedish Law Informatics Res Inst. 2021:246–267.
Mathivet, V. (2018). Inteligencia artificial para desarrolladores: conceptos e implementación. Ediciones ENI.
Pantserev, K., & Oztas, B. (2024). AI regulation: Challenges, the EU AI Act and Turkey’s approach. Vestnik of Saint Petersburg University. International Relations, 17(2), https://doi.org/10.21638/spbu06.2024.202
RINCÓN, M.A. (2024). “Aproximación a la propuesta legislativa europea sobre inteligencia artificial”. Quaderns IEE: Revista de l’Institut d’Estudis Europeus, 3(1), 110-124. DOI: 10.5565/rev/quadernsiee.70.
Söderlund, K., Larsson, (2024) S. Enforcement Design Patterns in EU Law: An Analysis of the AI Act. DISO 3, 41 (2024). https://doi.org/10.1007/s44206-024-00129-8
Tataru, Stefan Razvan & Cretu, Cosmina. (2024). DECODING THE EU ARTIFICIAL INTELLIGENCE ACT: AN ANALYSIS OF KEY CONCEPTS AND PROVISIONS. Journal of Public Administration Finance and Law. 31. 463. 10.47743/jopafl-2024-31-33.
Resolución del Parlamento Europeo, de 20 de octubre de 2020, sobre un régimen de responsabilidad civil en materia de inteligencia artificial, 2020/2014(INL
Resolución del Parlamento Europeo, de 20 de octubre de 2020, sobre los derechos de propiedad intelectual para el desarrollo de las tecnologías relativas a la inteligencia artificial, 2020/2015(INI)
Reglamento (UE) n.º 1025/2012 del Parlamento Europeo y del Consejo, de 25 de octubre de 2012, sobre sobre la normalización europea.
https://www.consilium.europa.eu/es/meetings/eu-council-presidency-meetings/2017/09/29/
https://www.consilium.europa.eu/media/21604/19-euco-final-conclusions-es.pdf.
https://op.europa.eu/es/publication-detail/-/publication/ac957f13-53c6-11ea-aece- 01aa75ed71a1