45 04 Estudio Lopez Tarruella

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 29

EL FUTURO REGLAMENTO DE INTELIGENCIA

ARTIFICIAL Y LAS RELACIONES CON TERCEROS


ESTADOS

THE FUTURE REGULATION OF ARTIFICIAL


INTELLIGENCE AND RELATIONS WITH THIRD STATES

AURELIO LÓPEZ-TARRUELLA MARTÍNEZ

Sumario: I. INTRODUCCIÓN. II. PERSPECTIVAS DE ANÁLISIS DEL ART. 2.1 PLIA.


III. LA EXTRATERRITORIALIDAD DE LA PROPUESTA DE LEY DE INTELIGENCIA
ARTIFICIAL. IV. EFECTIVIDAD DE LAS SANCIONES POR INCUMPLIMIENTO DEL
REGLAMENTO DE INTELIGENCIA ARTIFICIAL EN TERCEROS ESTADOS. V. EL
EFECTO BRUSELAS DEL REGLAMENTO DE INTELIGENCIA ARTIFICIAL. VI. A
MODO DE CONCLUSIÓN.

RESUMEN: La Propuesta de Reglamento de Inteligencia Artificial es uno de los elementos más


representativos del nuevo modelo regulatorio europeo desplegado por la Unión Europea para legislar las
actividades en el entorno digital. La intención del presente trabajo es detenerse en las implicaciones que el
futuro Reglamento tendrá desde el punto de vista del Derecho internacional privado. Una disposición
importante al respecto es el Art. 2.1 que determina su ámbito de aplicación territorial y cumple una función
diferente según la perspectiva desde la que se analice, ya sea la de los operadores económicos, las
autoridades competentes o los tribunales de justicia. De esta disposición se ha criticado que conlleva la
aplicación extraterritorial del Reglamento. El trabajo analiza sus posibles justificaciones y, la cuestión que
parece más conflictiva: los criterios de conexión propuestos para determinar la aplicación en el espacio del
Reglamento. A continuación, se analizarán los problemas que plantea el cumplimiento efectivo de las
sanciones impuestas por las autoridades de vigilancia del mercado cuando el proveedor o usuario del
sistema IA está establecido en un tercer Estado. Por último, el trabajo examine si, al igual que se defiende
que ha ocurrido con el RGPD, el futuro Reglamento producirá el “efecto Bruselas”, es decir, si conllevará
una armonización de iure y de facto de los estándares jurídicos aplicables en materia de IA en terceros
Estados.

ABSTRACT: The Proposal for an Artificial Intelligence Act is one of the most representative features of the
new regulatory model displayed by the European Union to regulate activities in the digital environment.
The purpose of this work is to analyze the implications of the future Regulation from a Private international
law perspective. A relevant provision in this regard is art. 2 (1) that establishes the territorial scope of
application of the Regulation. The provision plays though a different role depending on the perspective we

Fecha de recepción del trabajo: 19 de abril de 2023. Fecha de aceptación de la versión final: 17 de mayo de
2023.


Profesor titular de Derecho internacional privado (Universidad de Alicante), Director de la Cátedra para
el desarrollo responsable del metaverso de la Universidad de Alicante, Codirector del Grupo de
investigación GIPLaw (UA), Director de LVCENTINVS, blog sobre Propiedad intelectual y el Derecho de
las tecnologías de la información (http://www.lvcentinvs.es). (Aurelio.lopez@ua.es)

REEI, núm. 45, junio 2023


www.reei.org DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

adopt to analyze it: that of the economic actors, that of the national competent authorities or that of the
judicial courts. The provision has been criticized because it provides for an extraterritorial application of
the Regulation. The work analyzes the justifications of such broad application and the connecting factors
that determine the territorial application of the Regulation. An analysis is also included of the problems
that may exist to ensure the effective enforcement of the decisions adopted by national surveillance
authorities in cases where the provider or user of the AI systems are established in a third state. Finally,
the work examines if, similar to what has happened with the GDPR, the future AI Act will produce the
Brussels effect – i.e. if it will imply a de facto and de iure harmonization of the regulatory standards of AI
in third states.

PALABRAS CLAVE: Inteligencia artificial, Derecho internacional privado europeo, efecto Bruselas.

KEYWORDS: Artificial Intelligence, European Private International Law, Brussels Effect.

I. INTRODUCCIÓN
1. En julio de 2019, tras su elección como presidenta de la Comisión Europea, Ursula
von der Leyen identificaba “una Europa adaptada a la era digital”1 como una de las seis
prioridades de esta institución para los siguientes cinco años. Esta prioridad, desarrollada
posteriormente en la comunicación “Configurar el futuro digital de Europa”2 tiene como
objetivo general conseguir que la transición digital redunde en beneficio de todos, dando
prioridad a las personas y abriendo nuevas oportunidades a las empresas3.
2.
La consecución de este objetivo precisa, entre otras acciones, adaptar el marco jurídico
para garantizar una protección adecuada de nuestros ciudadanos y nuestras empresas
frente a los riesgos digitales4. Con este propósito, a partir de 2020, la Comisión Europea
empezó a proponer una serie de instrumentos – algunos de los cuales ya ha sido adoptados
– que se conocen como las “leyes digitales europeas”. Me refiero, por un lado, a los ya
adoptados Reglamento 2022/868 de gobernanza de los datos5 (en adelante RGD),
Reglamento 2022/1925 sobre mercados digitales6 (en adelante RMD) y Reglamento

1
VON DER LEYER, U., “Una Unión que se esfuerza por lograr más resultados – Mi agenda para Europa”,
disponible en https://ec.europa.eu/info/sites/default/files/political-guidelines-next-commission_es_1.pdf
2
COMISION EUROPEA, “Configurar el futuro digital de Europa”, Doc. COM(2020) 67 final
3
COMISION EUROPEA, “Configurar …”, p. 3.
4
VIDA FERNÁNDEZ, J., “La gobernanza de los riesgos digitales: desafíos y avances en la regulación de
la inteligencia artificial”, CDT, vol. 14(1), 2022, pp. 489-503. https://doi.org/10.20318/cdt.2022.6695
5
Reglamento 2022/868 del Parlamento Europeo y del Consejo de 30 de mayo de 2022 relativo a la
gobernanza europea de datos y por el que se modifica el Reglamento 2018/1724 (Reglamento de
Gobernanza de Datos), http://data.europa.eu/eli/reg/2022/868/oj
6
Reglamento 2022/1925 del Parlamento Europeo y del Consejo de 14 de septiembre de 2022 sobre
mercados disputables y equitativos en el sector digital y por el que se modifican las Directivas 2019/1937
y 2020/1828, http://data.europa.eu/eli/reg/2022/1925/oj

-2- DOI: 10.17103/reei.45.04


El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

2022/2065 de servicios digitales7 (en adelante RSD); y a las propuestas de Ley de


Inteligencia Artificial8 (en adelante PLIA) y de Ley de Datos9 (en adelante PLD).

Se ha afirmado acertadamente que estas leyes digitales europeas plantean un nuevo


modelo regulatorio europeo del mercado único digital, basado en un mayor control de las
plataformas electrónicas que supera definitivamente el modelo de liberalismo digital
planteado por la Directiva 2000/31 de comercio electrónico que ha estado en vigor
durante más de 20 años10. Este modelo regulatorio, inspirado en el Reglamento 2016/697
general de protección de datos personales (en adelante RGPD) y que también se sigue
alguna norma ya existente11, está caracterizado por cuatro elementos12:

a) el recurso al Reglamento en vez de la Directiva como técnica de regulación13;


b) el establecimiento de un severo régimen de requisitos y obligaciones para el acceso a
la actividad y la prestación de cualquier categoría de servicio digital14;
c) el nombramiento por los Estados miembros de autoridades nacionales competentes que
abre una vía alternativa a la judicial a la hora de reclamar por parte de empresas y
particulares el incumplimiento de los reglamentos15.

7
Reglamento 2022/2065 del Parlamento Europeo y del Consejo de 19 de octubre de 2022 relativo a un
mercado único de servicios digitales y por el que se modifica la Directiva 2000/31/CE (Reglamento de
Servicios Digitales), http://data.europa.eu/eli/reg/2022/2065/oj
8
Propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial
(Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión, Doc. COM
(2021) 206 final.
9
Propuesta de Reglamento sobre normas armonizadas para un acceso justo a los datos y su utilización (Ley
de Datos), Doc. COM (2022) 68 final.
10
DE GREGORIO, G. “The rise of digital constitutionalism in the European Union”, International Journal
of Constitutional Law, Vol. 19, Issue 1, 2021, pp. 41–70, https://doi.org/10.1093/icon/moab001
11
En mejor ejemplo es el Reglamento 2019/1150 sobre el fomento de la equidad y la transparencia para los
usuarios profesionales de servicios de intermediación en línea (http://data.europa.eu/eli/reg/2019/1150/oj)
que establece obligaciones para las plataformas en relación con el contenido de las condiciones generales
aplicables en las relaciones con los llamados usuarios profesionales, asi como sobre los parámetros
utilizados en los motores de búsquedas.
12
En el mismo sentido, GASCÓN MACÉN, A., “El Reglamento General de Protección de Datos como
modelo de las recientes propuestas de legislación digital europea”, CDT, Vol 13(2), 2021, pp. 209-232.
https://doi.org/10.20318/cdt.2021.6256; PAPAKONSTANTINOU, V. / DE HERT, P. “Post GDPR EU
laws and their GDPR mimesis. DGA, DSA, DMA and the EU regulation of AI”, European Law Blog, 1
abril 2021, https://europeanlawblog.eu/2021/04/01/post-gdpr-eu-laws-and-their-gdpr-mimesis-dga-dsa-
dma-and-the-eu-regulation-of-ai/.
13
Y ello aunque en las propuestas legislativas se les denomine “leyes”. Sobre el particular,
PAPAKONSTANTINOU, V. / DE HERT, P., “EU lawmaking in the Artificial Intelligent Age: Act-
ification, GDPR mimesis, and regulatory brutality”, European Law Blog, 8 julio 2021, disponible en
https://europeanlawblog.eu/2021/07/08/eu-lawmaking-in-the-artificial-intelligent-age-act-ification-gdpr-
mimesis-and-regulatory-brutality/
14
A modo de ejemplo, pueden consultarse los requisitos y obligaciones de los proveedores de sistemas de
IA de alto riesgo previstos en los arts. 8 a 25 PLIA; o las obligaciones de diligencia debida establecidas en
los arts.11 a 48 RSD para las diversas categorías de prestadores de servicios; o los requisitos aplicables a
los prestadores de servicios de intercambio de datos en los arts. 10 a 12 RGD.
15
En el caso de PRIA, el derecho a presentar una reclamación por parte de una persona física o grupo de
personas afectadas por el incumplimiento del Reglamento ha sido introducido por el Parlamento en el art.
6a. En algunos instrumentos como el RSD incluso se plantea una tercera vía gracias a la obligación impuesta

-3- DOI: 10.17103/reei.45.04


[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

d) el establecimiento de órganos colegiados a nivel europeo, si bien con diferentes roles


según cada reglamento16.

3. La Propuesta de Ley de Inteligencia Artificial17 es uno de los elementos más


representativos de este nuevo modelo regulatorio tanto por sus ambiciosos objetivos
(entre ellos, “garantizar que los sistemas de IA introducidos y usados en el mercado de la
UE sean seguros y respeten […] los derechos fundamentales y valores de la Unión”)18;
como por constituir la primera iniciativa a nivel mundial de establecer un marco
normativo de la inteligencia artificial de carácter general19.

4. La intención del presente trabajo es detenerse en este segundo aspecto y analizar


las implicaciones que el futuro Reglamento puede tener fuera de la Unión Europea, es
decir en terceros Estados. Una disposición importante al respecto es el Art. 2.1, que
determina su ámbito de aplicación territorial. Como se explicará en el apartado II, la
disposición tiene una triple función, según la perspectiva desde la que se analice, ya sea
la de los operadores económicos, las autoridades competentes o los tribunales de justicia.
De esta disposición se ha criticado que conlleva la aplicación extraterritorial del
Reglamento. En el apartado III, analizaré sus posibles justificaciones y, la cuestión que
parece más conflictiva: los criterios de conexión propuestos para determinar la aplicación
en el espacio del Reglamento. A continuación, se analizarán los problemas que plantea el
cumplimiento efectivo de las sanciones impuestas por las autoridades de vigilancia del
mercado cuando el proveedor o usuario del sistema IA está establecido en un tercer
Estado. Por último, el apartado IV abordará si, al igual que se defiende que ha ocurrido
con el RGPD, el futuro Reglamento producirá el “efecto Bruselas”, es decir, si conllevará
una armonización de iure y de facto de los estándares jurídicos aplicables a los sistemas

a los prestadores de plataformas en linea de introducir sistemas internos de reclamación (art. 20) y de utilizar
mecanismos alternativos de resolución de controversias (Art 21).
16
Comité Europeo de Inteligencia Artificial (Art. 56 PLIA), si bien el Parlamento propone cambiar su
nombre al de European Artificial Intelligence Office (AI Office) e incrementar considerablemente sus
funciones. Otros organismos colegiados previstos en las leyes digitales son: Comité Europeo de Innovación
en materia de Datos (Art. 29 RGD), Junta Europea de Servicios Digitales (art. 61 RSD), Grupo de Alto
Nivel (art. 40 RMD), que se unen al ya existente Comité Europeo de protección de datos (art. 68 RGPD)
17
Es de esperar que, al igual que ha ocurrido con las “leyes digitales europeas” ya adoptadas, la Ley de
Inteligencia Artificial acabe denominándose “Reglamento”. No obstante, en la medida en que por el
momento sigue en fase de propuesta, la denominaremos Ley. A los efectos del presente trabajo se ha
utilizado, además de la Propuesta de la Comisión Europea, la Posición común del Consejo de 22 noviembre
2022 (disponible en https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/en/pdf) y el
Texto de compromiso alcanzado por los comités del Parlamento Europeo (disponible en
https://www.europarl.europa.eu/news/es/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-
rules-on-artificial-intelligence) que, en el momento de escribir estas líneas estaba pendiente de ser votado
por el plenario.
18
Otros objetivos identificados en la Propuesta de la Comision son: “garantizar la seguridad jurídica para
facilitar la inversión e innovación en IA; mejorar la gobernanza y la aplicación efectiva de la legislación
vigente en materia de derechos fundamentales y los requisitos de seguridad aplicables a los sistemas de IA;
facilitar el desarrollo de un mercado único para hacer un uso legal, seguro y fiable de las aplicaciones de
IA y evitar la fragmentación del mercado”.
19
GREENLEAF, G., “The ‘Brussels Effect’ of the EU’s ‘AI Act’ on Data Privacy Outside Europe”, Privacy
Laws & Business International Report, num. 171, 2021, pp. 3-7, disponible
en https://ssrn.com/abstract=3898904

-4- DOI: 10.17103/reei.45.04


El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

IA en terceros Estados. Cerraré el trabajo con unas breves reflexiones a modo de


conclusión.

II. PERSPECTIVAS DE ANÁLISIS DEL ART. 2.1 PLIA


5. Una primera lectura del Art. 2.1 PLIA, incluida dentro de una disposición titulada
“Ámbito de aplicación”, puede llevar a afirmar, desde el prisma del Derecho internacional
privado (DIPr), que estamos ante una norma de Derecho aplicable – en concreto, una
norma de conflicto unilateral –20, cuya finalidad es determinar a qué situaciones
conectadas con la Unión Europea resulta aplicable el Reglamento. No obstante, un
análisis más sosegado permite identificar tres funciones que la disposición puede
desplegar. Ello depende de si la disposición se analiza desde el punto de vista de los
operadores económicos, de las autoridades nacionales competentes o de los tribunales de
justicia. Esta triple perspectiva de análisis permite explicar la compatibilidad del Art. 2.1
con los instrumentos generales de DIPr., y hace innecesario, contrariamente a lo que
opinan ciertos autores en relación con el RSD y RMD21, la introducción de disposiciones
adicionales que regulen esta cuestión.

1. Aplicación prospectiva del Art. 2.1 por los operadores económicos

6. La primera perspectiva de análisis es la de los operadores económicos, es decir, la


de los “proveedores”22, “usuarios”23, “representantes autorizados”24, “importadores”25 y

20
Sobre el concepto de norma de conflicto unilateral puede consultarse: CARRASCOSA GONZALEZ, J.,
Derecho internacional privado y dogmática jurídica, Granada, Comares, 2021, pp. 81 ss; FERNANDEZ
ROZAS, J. C. / SANCHEZ LORENZO, S., Derecho internacional privado, 12 Ed, Thomson-Reuters,
2022, pars. 84 ss.; CALVO CARAVACA, A-L / CARRASCOSA GONZALEZ, J., Tratado de Derecho
internacional privado, 2ª Ed, Valencia, Tirant lo blanch, 2022, pp. 520 ss.
21
LUTZI, T., “The Scope of the Digital Services Act and Digital Markets Act: Thoughts on the Conflict of
Laws”, Dalloz IP/IT, 22 Febrero 2023 (en prensa). disponible en http://dx.doi.org/10.2139/ssrn.4367531
22
Art. 3.2: “toda persona física o jurídica, autoridad pública, agencia u organismo de otra índole que
desarrolle un sistema de IA o para el que se haya desarrollado un sistema de IA con vistas a introducirlo en
el mercado o ponerlo en servicio con su propio nombre o marca comercial, ya sea de manera remunerada
o gratuita”.
23
Art. 3.4: “toda persona física o jurídica, autoridad pública, agencia u organismo de otra índole que utilice
un sistema de IA bajo su propia autoridad, salvo cuando su uso se enmarque en una actividad personal de
carácter no profesional”. El Parlamento Europeo propone cambiar este término por el de
“implementadores” (“deployers” en inglés)
24
Art. 3.5: “toda persona física o jurídica establecida en la Unión que haya recibido el mandato por escrito
de un proveedor de un sistema de IA para cumplir las obligaciones y llevar a cabo los procedimientos
establecidos en el presente Reglamento en representación de dicho proveedor”.
25
Art. 3.6: “toda persona física o jurídica establecida en la Unión que introduzca en el mercado o ponga en
servicio un sistema de IA que lleve el nombre o la marca comercial de una persona física o jurídica
establecida fuera de la Unión”.

-5- DOI: 10.17103/reei.45.04


[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

“distribuidores”26 de “sistemas de inteligencia artificial”27 (sistemas IA), denominados de


manera global en PLIA como “operadores”28.

Para estos operadores resulta fundamental, antes de llevar a cabo su actividad económica,
saber si el Reglamento les resultará aplicable. En principio, la respuesta podría parecer
sencilla: la futura normativa será de aplicación a sistemas IA que funcionan como
componentes de productos29 o que son productos en sí mismos que se pretenden
comercializar30 o poner en servicio31 en el mercado UE. Esta afirmación puede ser correcta
en relación con importadores y distribuidores. No así para proveedores, usuarios y
representantes autorizados. Al respecto debe recordarse que Internet es un medio global.
Por consiguiente, cualquier sistema IA desarrollados por proveedores o utilizados por
usuarios establecidos en terceros Estados resultan accesibles por potenciales clientes
ubicados en Europa. ¿Resulta esto suficiente para que el Reglamento resulte aplicable? A
tenor del art. 2.1 PLIA, la respuesta debe ser negativa. Esta disposición establece unos
criterios de conexión que, en principio, implican que el futuro Reglamento únicamente se
va a aplicar a proveedores y usuarios que llevan a cabo actividades que presentan una
vinculación estrecha con la Unión Europea. Tales criterios están basados en las doctrinas
de los “efectos en el mercado”32 y de las “actividades dirigidas”33 existentes en otras ramas
jurídicas. No obstante, como se analizará en el apartado III, la manera en la que están
redactados es defectuosa y pueden conllevar dos consecuencias: inseguridad jurídica de
los operadores a los que, en ocasiones, les puede resultar difícil determinar si están
obligados a cumplir con los requisitos y obligaciones establecidas en el Reglamento; y
aplicación injustificada de la futura normativa a actividades que no presentan suficiente
vinculación con la Unión.

26
Art. 3.7: “toda persona física o jurídica que forme parte de la cadena de suministro, distinta del proveedor
o el importador, que comercializa un sistema de IA en el mercado de la Unión sin influir sobre sus
propiedades”.
27
Art. 3.1: “el software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran
en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar
información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los
entornos con los que interactúa”.
28
Art. 3.8.
29
Art. 3.14: “un componente de un producto o un sistema que cumple una función de seguridad para dicho
producto o sistema, o cuyo fallo o defecto de funcionamiento pone en peligro la salud y la seguridad de las
personas o los bienes”.
30
Art. 3.10: “todo suministro de un sistema de IA para su distribución o utilización en el mercado de la
Unión en el transcurso de una actividad comercial, ya se produzca el suministro de manera remunerada o
gratuita”.
31
Art. 3.11: “el suministro de un sistema de IA para su primer uso directamente al usuario o para uso propio
en el mercado de la Unión de acuerdo con su finalidad prevista”.
32
En materia de Derecho de la competencia. Sobre el particular, MONTI, G., “The Global Reach of EU
Competition Law”, in Cremona, Marise, and Joanne Scott (eds), EU Law Beyond EU Borders: The
Extraterritorial Reach of EU Law (Oxford, 2019; online edn, Oxford Academic, 20 June 2019), pp. 174-
196.
33
En materia de contratos celebrados por los consumidores. Sobre el particular, LOPEZ-TARRUELLA,
A., “El criterio de las actividades dirigidas como concepto autónomo de DIPr de la Unión Europea para la
regulación de las actividades en internet”, REDI, vol. 69 (2), 2017, pp. 223-256,
http://dx.doi.org/10.17103/redi.69.2.2017.1.09

-6- DOI: 10.17103/reei.45.04


El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

2. Aplicación del Art. 2.1 por las autoridades nacionales competentes:


competencia internacional de autoridades

7. Según se ha indicado en la Introducción, una de las características del nuevo


modelo regulatorio establecido en las leyes digitales europeas consiste en la obligación
establecida para los Estados miembro de designar una o varias autoridades nacionales
competentes para supervisar el cumplimiento de los reglamentos.

En el caso de la PLIA, en la medida en que los sistemas IA puede utilizarse como


componentes de gran variedad de productos (maquinaria, juguetes, medios de transporte,
…), y en múltiples sectores de la economía (servicios financieros, seguros, educación…)
no existe una sino varias autoridades competentes, si bien una de ellas debe de ser
designada con autoridad nacional de supervisión34. De acuerdo con el art. 63, las
funciones y competencias de estas autoridades vienen establecida en las normativas
sectoriales o en el régimen general establecido en el Reglamento 2019/10 relativo a la
vigilancia del mercado y la conformidad de los productos35. Las competencias previstas
en estos instrumentos se complementan con las competencias reguladas en los arts. 64-
68 PLIA.

8. Contrariamente a lo establecido en el RGDP36 y otras leyes digitales europeas37, la


Propuesta de la Comisión no establece un derecho para las personas físicas o jurídicas de
presentar una reclamación ante las autoridades nacionales de supervisión por el
incumplimiento de las disposiciones del futuro Reglamento por parte de proveedores,
usuarios o cualquier otro operador de sistemas IA. Esta ausencia de regulación ha sido
severamente criticada por la doctrina38 y en la Opinión Conjunta del Supervisor y el
Comité europeo de datos personales39.

Afortunadamente, la omisión se resolverá si finalmente se acepta la propuesta del Informe


de los comités del Parlamento Europeo en la que se plantea la introducción de un nuevo

34
Art. 59.
35
http://data.europa.eu/eli/reg/2019/1020/oj
36
Art. 77.
37
Art. 53 RSD; Art. 14.1 in fine y 24.1 in fine RGD; Art. 32.1 PLD.
38
SMUHA, N. et al, “How the EU Can Achieve Legally Trustworthy AI: A Response to the European
Commission’s Proposal for an Artificial Intelligence Act”, 2021, disponible en
https://ssrn.com/abstract=3899991; EBERS, M. et al., “The European Commission’s Proposal for an
Artificial Intelligence Act—A Critical Assessment by Members of the Robotics and AI Law Society
(RAILS)”, J, vol. 4, 2021, pp. 589-603. https://doi.org/10.3390/j4040043; VEALE, M. y ZUIDERVEEN
BORGESIUS, F.J., “Demystifying the Draft EU Artificial Intelligence Act — Analysing the good, the bad,
and the unclear elements of the proposed approach”, Computer Law Review International, vol. 22, 2021,
pp. 97 – 112, esp. 111; LÚCIA RAPOSO, V. “Ex machina: preliminary critical assessment of the European
Draft Act on artificial intelligence”, International Journal of Law and Information Technology, Vol. 30,
Issue 1, 2022, p. 102.
39
EUROPEAN DATA PROTECTION BOARD / EUROPEAN DATA PROTECTION SUPERVISOR,
“Joint Opinion 5/2021 on the Proposal for a Regulation of the European Parliament and of the Council
Laying down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act)”, 18 June 2021, p.
18, disponible en https://edpb.europa.eu/our-work-tools/our-documents/edpbedps-joint-opinion/edpb-
edps-joint-opinion-52021-proposal_en

-7- DOI: 10.17103/reei.45.04


[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

art. 68a titulado, en consonancia con su homónimo en el RGDP, “Derecho a presentar


una reclamación”40. La propuesta, en cualquier caso, estaba pendiente de votación en el
pleno del Parlamento en el momento de escribir estas líneas.

9. Desde la perspectiva de estas autoridades, el art. 2.1 PLIA no sólo constituye una
norma de Derecho aplicable, sino también una norma de jurisdicción. Pero no en el
sentido tradicional que se atribuye al término en DIPr., por cuanto lo que determina el art.
2.1 RIA no es la competencia judicial internacional de los tribunales de un determinado
Estado, sino la competencia internacional de las autoridades administrativas designadas
por los Estados miembros para conocer de reclamaciones relacionadas con el
cumplimiento del Reglamento iniciadas ex officio o, eventualmente, a instancia de
particulares. Desde esta perspectiva, como órganos de naturaleza administrativa que son,
su competencia en situaciones internacionales no se determina a partir del Reglamento
1215/2012 (R. Bruselas I)41, sino a partir del art. 2.1 PLIA.

Esta misma naturaleza administrativa implica que, asumida su competencia a partir de


esa disposición, la única ley que estas autoridades pueden aplicar es su propia ley que, en
este caso, es el futuro Reglamento. En ningún caso se puede plantear que estas autoridades
administrativas apliquen un Derecho extranjero, es decir, el Derecho de un tercer Estado.
Se trata de lo que en DIPr. se conoce como la correlación forum-ius de los litigios de
naturaleza contencioso-administrativa42.

10. Ahora bien, como ha puesto acertadamente de manifiesto P. de Miguel Asensio


en relación con el RGPD43, en este caso la correlación presenta características
particulares. Ello es debido a que se trata de una correlación a nivel europeo: el art. 2.1
PLIA designa la aplicación de la normativa europea, no la de un Estado miembro
determinado; del mismo modo, la disposición no establece la competencia de las
autoridades de vigilancia del mercado de un Estado miembro, sino la de todos los Estados
miembros de manera global. Esta circunstancia genera necesariamente la siguiente
pregunta: en aquellas situaciones que entran dentro del ámbito del Art. 2.1 pero cuyos
elementos de hecho están conectados con más de un Estado miembro, ¿cuáles de estas
autoridades poseen competencia administrativa para conocer de las reclamaciones que
pudieran llegar a presentar los particulares? De salir adelante la propuesta de Informe del
Parlamento Europeo, esta pregunta es respondida en el ya citado art. 68j, que otorga la
competencia para conocer de la reclamación a las autoridades del Estado miembro donde

40
“Without prejudice to any other administrative or judicial remedy, every natural persons or groups of
natural persons shall have the right to lodge a complaint with a national supervisory authority, in
particular in the Member State of his or her habitual residence, place of work or place of the alleged
infringement if they consider that the AI system relating to him or her infringes this Regulation”.
41
Reglamento 1215/2012 del Parlamento Europeo y del Consejo, de 12 de diciembre de 2012, relativo a la
competencia judicial, el reconocimiento y la ejecución de resoluciones judiciales en materia civil y
mercantil, DO L núm. 351, de 20 de diciembre de 2012.
42
BUREAU D / MUIR WATT, H., Droit international privé, 3eme Ed., Puf, Paris, 2021, p. 107.
43
DE MIGUEL ASENSIO, P., Derecho privado de Internet, 6ª Ed, Civitas, Madrid, 2022, p. 411.

-8- DOI: 10.17103/reei.45.04


El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

el presunto perjudicado tiene su residencia habitual, su lugar de trabajo o donde se produjo


la infracción del Reglamento44.

3. Aplicación del Art. 2.1 por los tribunales de justicia: el carácter de ley de
policía del Reglamento.

11. La última perspectiva de análisis del art. 2.1 es la de los tribunales de justicia. En
ocasiones puede ocurrir que la aplicación del futuro Reglamento se plantee en el marco
de una acción civil presentada ante un órgano judicial relativa, por ejemplo, a una
responsabilidad extracontractual derivada del funcionamiento defectuoso de un sistema
IA, o al incumplimiento de un contrato celebrado entre un proveedor de sistemas IA y un
usuario, o a una disputa entre cualquiera de estos y un particular que es parte de un
contrato de prestación de servicios en los que se utilizan estos sistemas. En dichos litigios,
el incumplimiento de los requisitos u obligaciones establecidos en el Reglamento para las
distintas categorías de sistemas IA puede ser invocado como fundamento de la demanda.

Tratándose de litigios en materia civil o mercantil, la competencia judicial internacional


del tribunal del Estado miembro ante el que se presente la demanda vendrá determinada
por el R. Bruselas I; y la ley aplicable por el Reglamento 864/2007 (R. Roma II)45 – si se
trata de un litigio por responsabilidad extracontractual –46 o el Reglamento 593/2008 (R.
Roma I)47 – si el litigio es sobre el incumplimiento de un contrato –48.

Tal y como se explica a continuación, en estos casos, el Art. 2.1 PLAI actúa como la
norma de extensión que determina en que supuestos internacionales resulta aplicable el
Reglamento en su condición de ley de policía.

44
La competencia de estas autoridades es territorial por lo que, para los incumplimientos de dimensión
transfronteriza, la propuesta establece un procedimiento de coordinación entre autoridades nacionales (art.
65), y otro llamado de “salvaguarda de la Unión” que implica la intervención de la Comisión Europea (art.
66).
45
Reglamento 864/2007 del Parlamento Europeo y del Consejo, de 11 de julio de 2007 , relativo a la ley
aplicable a las obligaciones extracontractuales, http://data.europa.eu/eli/reg/2007/864/oj
46
CAPPIELLO, B., AI Systems and Non-contractual Liability: A European Private International Law
Analysis, Giappichelli 2022. También deben tenerse en cuenta el Convenio de La Haya de 1971 sobre la
ley aplicable a accidentes de circulación por carretera, por la relevancia que puede tener en relación con
accidentes de vehículos autónomos, y el Convenio de La Haya de 1973 sobre la ley aplicable a la
responsabilidad por productos defectuosos. En este sentido, PATO, A., “Artificial intelligence and private
international law: an exotic cocktail pepped up with innovative research questions”, Lvcentinvs, 5 Julio
2021, disponible en https://www.lvcentinvs.es/2021/07/05/artificial-intelligence-and-private-international-
law-an-exotic-cocktail-pepped-up-with-innovative-research-questions/; LAFUENTE SANCHEZ, R.,
“Compatibilidad del futuro régimen de responsabilidad civil en materia de IA con las normas de Derecho
internacional privado en los accidentes de tráfico transfronterizo causados por vehículos automatizados”,
AEDIPr, vol XXII, 2023, pp. 139-180, http://dx.doi.org/10.19194/aedipr.22.04
47
Reglamento 593/2008 del Parlamento Europeo y del Consejo, de 17 de junio de 2008 , sobre la ley
aplicable a las obligaciones contractuales (Roma I), DO L núm. 177 de 4 julio 2008.
48
POESEN, M, “Regulating Artificial Intelligence (AI) in the European Union (EU): Exploring the Role
of Private International Law” in X, Recht in beweging – 29ste VRG-Alumnidag 2022, Gompel&Svacina,
2022, pp. 297-314, http://dx.doi.org/10.2139/ssrn.3959643

-9- DOI: 10.17103/reei.45.04


[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

12. De acuerdo con el Art. 9.1 R. Roma I, “una ley de policía es una disposición cuya
observancia un país considera esencial para la salvaguardia de sus intereses públicos, tales
como su organización política, social o económica, hasta el punto de exigir su aplicación
a toda situación comprendida dentro de su ámbito de aplicación, cualquiera que fuese la
ley aplicable al contrato […]”49.

A mi modo de ver, no cabe ninguna duda de que, en atención a los objetivos que persigue,
la PLAI es una ley de policía en el sentido de esta disposición50. Al respecto, basta con
recordar que el considerando 1 señala que “[e]l presente Reglamento persigue varios fines
imperiosos de interés general, tales como asegurar un nivel elevado de protección de la
salud, la seguridad y los derechos humanos […]”.

13. Tratándose de una ley de policía, el art. 9.2 R. Roma I (para los litigios en materia
contractual) y el art. 16 R. Roma II (para los litigios por responsabilidad extracontractual)
conllevan la aplicación preferencial del futuro Reglamento con respecto al Derecho
nacional designado como aplicable por la norma de conflicto establecida en esos
reglamentos. Es decir, incluso en el caso de que el Derecho aplicable al litigio sea el de
un tercer Estado51, el tribunal competente está obligado a aplicar con carácter preferente
la futura normativa.

Ahora bien, la PLAI no resulta aplicable con carácter universal. El futuro Reglamento es
aplicable tan sólo en supuestos que presentan una vinculación estrecha con la Unión
Europea. Es decir, en aquellas situaciones en las que los objetivos protegidos por el
Reglamento pueden resultar afectados. Esta necesidad de delimitar en el espacio la
aplicación de la normativa europea no es nueva52. También se puede encontrar en la
jurisprudencia reciente del TJUE. Así, en su sentencia de 24 septiembre 2019, C-507/17,
“Google France”, el TJUE entendió que la normativa sobre derecho al olvido únicamente
resulta aplicable cuando la búsqueda a partir del nombre del interesado en un motor de

49
Esta definición tiene su origen en la STJUE 23 Noviembre 1999, C-376/96, “Arblade”.
50
Esta misma afirmación se ha realizado en relación con el RGDP por DE MIGUEL ASENCIO, P., (op.
cit., p. 410) y SVANTESSON, D. J. B. (“Article 3. Territorial scope”, en C. Kuner, L. A. Bygrave, & C.
Docksey (Eds.), The EU General Data Protection Regulation (GDPR): A commentary, Oxford University
Press, 2019, pp. 74–99, esp. 82) y puede realizarse, igualmente, en relación con el resto de leyes digitales
europeas. Así, por ejemplo, el considerando 3 RSD indica que “[e]s esencial que los prestadores de servicios
intermediarios se comporten de modo responsable y diligente para crear un entorno en línea seguro,
predecible y digno de confianza, y para que los ciudadanos de la Unión y otras personas puedan ejercer los
derechos garantizados por la Carta de los Derechos Fundamentales de la Unión Europea (en lo sucesivo,
«Carta»), en particular la libertad de expresión y de información, la libertad de empresa, el derecho a la no
discriminación y la garantía de un nivel elevado de protección de los consumidores”.
51
Al respecto debe recordarse que las normas de conflicto europeas permiten a las partes elegir el Derecho
aplicable tanto en litigios de naturaleza contractual (art. 3 R. Roma I) como extracontractual (art. 14 R.
Roma II), circunstancia que puede obligar a los tribunales de los Estados miembros a aplicar la ley de un
tercer Estado.
52
Al respecto, FRANC, S. “The Scope of Secondary Community Law in the Light of the Methods of Private
International Law – or the Other Way Round?”, YPIL, vol. 8, 2006, pp. 333-374; KRAMER, X. E., “The
Interaction between Roma I and Mandatory EU Private Rules – EPIL and EPL: Communicating Vessels?”,
P. Stone / Y. Farah (eds.), Research Handbook on EU Private International Law, Cheltenham, Edward
Elgar Publishing, 2015; WILDESPIN, M. / LEWIS, X., “Les relations entre le droit Communautaire et les
régles de conflits de lois des États-membres”, RCDIP, 2002, p. 1 ss.

- 10 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

búsqueda se realice desde direcciones IP correspondientes a los Estados miembros. Por


el contrario, en atención a la relevancia que poseen los derechos humanos afectados, la
STJUE de 3 octubre 2019, C-18/18, “Glawischnig-Piesczek” no se opone a que un
tribunal pueda “obligar a un prestador de servicios, con base en el art. 15 Directiva
2000/31, a suprimir los datos a los que se refiere la medida cautelar acordada o a bloquear
el acceso a ellos a nivel mundial en el marco del Derecho internacional pertinente”53.

En el caso del futuro Reglamento de inteligencia artificial, no será necesario que el TJUE
establezca por vía interpretativa los supuestos en los que resulta aplicable, por cuanto
éstos vienen establecidos en una norma de extensión, el Art. 2.1. En los litigios planteados
ante tribunales civiles, esta disposición establece los supuestos en los que las
disposiciones del Reglamento resultarán aplicables como leyes de policía.

14. Del análisis propuesto se puede criticar que supone añadir un grado más de
dificultad a la determinación el Derecho aplicable a las relaciones internacionales en el
entorno digital: no sólo es necesario designar la ley nacional aplicable a partir de los
instrumentos generales de DIPr., sino también debe tenerse en cuenta el Reglamento IA
(así como el resto de leyes digitales europeas) como ley de policía54. No obstante, la
fórmula no es nueva: la necesidad de tomar en consideración las leyes de policía es una
constante en la regulación de las situaciones privadas internacionales55. Bien es cierto que
esto se ha vuelto más evidente en la regulación del entorno digital por cuanto, al contrario
que en otras materias, los intereses europeos sólo pueden resultar plenamente
garantizados mediante la adopción de leyes de policía.

La introducción de una norma de conflicto bilateral que ayudara a designar la ley nacional
aplicable, tal y como propone Lutzi para los RSD y RMD56, sería contraproducente. Y
ello porque, por la misma razón, dicha norma también debería introducirse en el resto de
leyes digitales europeas. Esto obligaría al aplicador del Derecho, no sólo en este escenario
sino también en los descritos en los apartados anteriores, a conocer los supuestos en los
que se aplicarían las normas de conflicto de los instrumentos generales de DIPr., y en
cuales las establecidas en cada uno de los Reglamentos. A mi modo de ver esto
incrementaría la complejidad en la regulación de las situaciones privadas internacionales.

53
Un comentario a ambas sentencias puede encontrarse en LOPEZ-TARRUELLA MARTINEZ, A., “El
ámbito territorial de protección de los derechos de la personalidad en el entorno de Internet (a propósito de
las sentencias del TJUE de 24 de septiembre de 2019, C-507/17, Google, y de 3 de octubre de 2019, C-
18/18, Glawischnig-Piesczek)”, en la Crónica de Derecho internacional privado de REEI, vol 38, 2019, pp.
27-37.
54
LUTZI, T., “The scope…”, op. cit., p. 3.
55
ZARRA, G., Imperativeness in Private International Law, T.M.C. Asser Press, The Hague, 2021, pp.
109 ss.
56
Así lo propone LUTZI, T., “The scope…”, op. cit., p. 6.

- 11 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

III. LA
EXTRATERRITORIALIDAD DE LA PROPUESTA DE LEY DE
INTELIGENCIA ARTIFICIAL

15. En la redacción propuesta por la Comisión Europea, el Art. 2.1 PLIA, que como
hemos dicho puede ser aplicado desde una triple perspectiva, establece lo siguiente:

“El presente Reglamento es aplicable a:


a) los proveedores que introduzcan en el mercado o pongan en servicio sistemas de
IA en la Unión, con independencia de si dichos proveedores están establecidos en la
Unión o en un tercer país;
b) los usuarios de sistemas de IA que se encuentren en la Unión;
c) los proveedores y usuarios de sistemas de IA que se encuentren en un tercer país,
cuando la información de salida generada por el sistema se utilice en la Unión”.

16. Según se ha afirmado en la Introducción, al igual que ocurre con el RGPD57, se


han levantado voces criticando que la actual redacción de esta disposición conlleva la
aplicación extraterritorial del Reglamento58.

A mi modo de ver, si por aplicación extraterritorial se entiende que el Reglamento resulta


aplicable a empresas establecidas en terceros Estados, la crítica resulta difícilmente
sostenible. Al igual que ocurre en muchas otras materias, existen razones de peso para
justificar la aplicación del futuro Reglamento a esas empresas.

Cuestión distinta es la aplicación de la legislación europea a empresas establecidas en


terceros Estados en supuestos que presentan una escasa vinculación con la Unión
Europea. En estos casos, efectivamente, la aplicación extraterritorial resulta criticable por
cuanto la legislación acaba aplicándose a supuestos en los que los objetivos que el
legislador europeo pretende proteger no pueden resultar afectados. Desafortunadamente,
la redacción del art. 2.1 PLIA puede llevar a una aplicación extraterritorial injustificada
del Reglamento en algunos supuestos. Las modificaciones propuestas por el Consejo y
los comités del Parlamento Europeo no solucionan el problema.

1. Justificación de la aplicación extraterritorial de la PLIA

17. De acuerdo con lo establecido en el considerando 1059, la aplicación


extraterritorial del Reglamento (y, podría añadirse, del resto de leyes digitales europeas)
está justificada en, al menos, dos argumentos.

57
GSTREIN, O. J. & ZWITTER, A. J., “Extraterritorial application of the GDPR: promoting European
values or power?”. Internet Policy Review, 10(3), 2021, https://doi.org/10.14763/2021.3.1576
58
SVANTESSON, D., “The European Union Artificial Intelligence Act: Potential implications for
Australia”, Alternative Law Journal, 47(1), 2022, pp. 4–9.
https://doi.org.bua.idm.oclc.org/10.1177/1037969X211052339
59
“Con el objetivo de garantizar la igualdad de condiciones y la protección efectiva de los derechos y
libertades de las personas en toda la Unión, las normas establecidas en el presente Reglamento deben
aplicarse a los proveedores de sistemas de IA sin discriminación, con independencia de si están establecidos
en la Unión o en un tercer país, y a los usuarios de sistemas de IA establecidos en la Unión”.

- 12 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

En primer lugar, se garantiza la protección de los derechos fundamentales de los


ciudadanos europeos en el mercado de la Unión Europea, con independencia del país de
origen del proveedor o del usuario de sistema IA. Este objetivo resultaría gravemente
menoscabado si el Reglamento únicamente se aplicara cuando el proveedor o usuario del
sistema IA estuviera establecido en un Estado miembro.

En segundo lugar, se garantiza que todos los proveedores y usuarios de sistemas IA


compiten en igualdad de condiciones en el mercado único digital. Según se ha afirmado,
el PLIA establece unos requisitos y obligaciones muy estrictos para comercializar y poner
en servicio sistemas IA en la Unión Europea, en particular para los sistemas IA de alto
riesgo. Si los únicos obligados a cumplir con los estándares establecidos en el Reglamento
fueran los operadores europeos, las empresas establecidas en terceros Estados disfrutarían
de una ventaja competitiva considerable. Resulta justificado que todos los proveedores y
usuarios de sistemas IA que actúan en el mercado UE estén obligados a cumplir con los
mismos requisitos y obligaciones, es decir, los previstos en el futuro Reglamento.

18. Algunos autores han afirmado que la aplicación extraterritorial del Reglamento
también resulta necesaria para evitar la huida de empresas digitales europeas a terceros
Estados con el propósito de beneficiarse de legislaciones que establecen requisitos y
obligaciones menos estrictos que los establecidos en la legislación europea60. De acuerdo
con estos autores, los criterios de conexión del art. 2.1 desincentivan esta práctica por
cuanto, incluso si estas empresas se establecen en terceros Estados, el Reglamento les
resultará aplicable cuando comercialicen o pongan en servicio sus sistemas IA en el
mercado de la Unión.

A mi modo de ver, este no es un argumento válido para justificar la aplicación


extraterritorial del Reglamento. Y ello porque no toma en consideración dos escenarios
alternativos que pueden llegar a aparecer. En primer lugar, en atención a los costes en
personal, tiempo y dinero que el cumplimiento de los requisitos y obligaciones del
Reglamento puede conllevar, las empresas europeas pueden optar, en vez de transferir su
sede a terceros Estado, por desechar la IA como sector en el que invertir. En segundo
lugar, las empresas europeas pueden decantarse por trasladar a terceros países no solo el
desarrollo de sistemas IA, sino también su comercialización. En tal caso las
consecuencias serían desastrosas: Europa no sólo sufriría una fuga de empresas
especializadas en IA sino también el empresariado europeo en general se vería privado
de los productos y servicios innovadores desarrollados por esas empresas en terceros
Estados.

60
BOMHARD, D., MERKLE, M., “Regulation of Artificial Intelligence”, Journal of European Consumer
and Market Law, vol. 10, Issue 6, 2021, pp. 257-261,
https://kluwerlawonline.com/journalarticle/Journal+of+European+Consumer+and+Market+Law/10.6/Eu
CML2021049; Ebers, M. et al., op. cit., p. 583.

- 13 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

2. Supuestos en los que los criterios de conexión del Art. 2.1 llevan a una
aplicación extraterritorial injustificada del Reglamento

19. Si bien la aplicación extraterritorial del futuro Reglamento está justificada, la


actual redacción del art. 2.1 es criticable por dos razones. Primero, tal y como se ha dicho
en el apartado III, algunos de los criterios de conexión no son lo suficientemente claros y
generan inseguridad jurídica. Segundo, alguno de esos criterios puede llevar a una
aplicación extraterritorial injustificada de la futura regulación.

20. De acuerdo con el art. 2.1 a), el Reglamento resulta aplicable “a los proveedores
que introduzcan en el mercado o pongan en servicio sistemas de IA en la Unión, con
independencia de si dichos proveedores están establecidos en la Unión o en un tercer
país”. Se trata de un criterio de conexión informado por la doctrina jurisprudencial de las
“actividades dirigidas”, utilizado por ejemplo en materia de contratos celebrados por los
consumidores en Internet61, o de infracción en línea de títulos unitarios de propiedad
industrial62. Este criterio garantiza que el Reglamento resulta aplicable en situaciones que
presentan una estrecha vinculación con la Unión.

21. Alternativamente, el art. 2.1 b) establece la aplicación del Reglamento a “los


usuarios de sistemas de IA que se encuentren en la Unión”. Este segundo criterio es
criticable por dos razones.

Para empezar, la utilización de los términos “se encuentre en la Unión” otorga al


Reglamento un ámbito de aplicación extremadamente amplio63. Su aplicación a usuarios
que estén establecidos (caso de una persona jurídica) o residan habitualmente (caso de
una persona física) en territorio europeo resulta justificada por la proximidad de la
situación con la Unión. En cambio, esta proximidad no existe cuando el usuario resulta
ser un profesional con residencia habitual en un tercer Estado, que ocasionalmente se
encuentra en Europa (de vacaciones o de viaje de trabajo) y utiliza un sistema IA en el
marco de una actividad que va a desplegar efectos exclusivamente en terceros Estados.
Tal y como está redactada la disposición, la situación estaría incluida en el ámbito de
aplicación del Reglamento y, por lo tanto, el profesional debería cumplir con los
requisitos establecidos en él. La aplicación resulta injustificada pues la situación presenta
una vinculación muy escasa con la Unión. A mi modo de ver, este problema se
solucionaría con una modificación de la disposición que limite su aplicación a usuarios
establecidos o con residencia habitual en la Unión Europea. Desafortunadamente, las
modificaciones propuestas por el Parlamento Europeo y el Consejo no parecen ir en este
sentido64.

61
STJUE de 7 Diciembre 2010, C-585/08 y C-144/09, “Pammer” y “Hotel Alpenhof”.
62
STJUE de 5 Septiembre 2019, C-172/18, “AMS Neve”.
63
SVANTESSON, D., “The European Union…”, op. cit., p. 7.
64
Una combinación de las propuestas de enmiendas planteadas por ambas instituciones tendría como
resultado el siguiente texto:
“Art. 2. Scope
1. This Regulation applies to:
(a) providers placing on the market or putting into service AI systems in the Union, irrespective of
whether those providers are established within the Union or in a third country;

- 14 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

Una segunda crítica tiene que ver con la diferencia de trato que se genera, incluso
adoptando la modificación propuesta, entre proveedores y usuarios de sistemas IA.
Efectivamente, la PLIA no resulta aplicable a proveedores establecidos en la Unión
Europea que comercializan sus sistemas IA exclusivamente en terceros Estados; en
cambio, si resulta aplicable a usuarios establecidos en la Unión que prestan sus servicios
en terceros Estados. La diferencia de trato resulta injustificada. En ambos casos la
vinculación con la Unión Europea es la misma. Si la intención es que los usuarios
europeos de sistemas IA respeten los estándares previstos en el Reglamento con
independencia del país en el que ofrezcan sus servicios, los proveedores establecidos en
la Unión Europea que comercialicen sistemas IA en terceros Estados también deberían
cumplir con esos estándares65.

Alternativamente, se podría defender una modificación del art. 2.1 b) para que el
Reglamento únicamente fuera aplicable a usuarios de sistemas IA cuando la información
de salida generada por el sistema se utilice en la Unión, independientemente de si tienen
su residencia habitual o establecimiento en territorio europeo o no. Esta modificación
afectaría, en cualquier caso, al tercer criterio de conexión previsto, que se analiza a
continuación.

El Parlamento Europeo parece decantarse por la primera opción al proponer la


introducción de un criterio de conexión adicional que prohíbe la comercialización o
puesta en servicio en terceros Estados de sistemas IA prohibido por el art. 5 por parte de
proveedores o distribuidores que se encuentran en la Unión. La decisión está en sintonía
con la idea de exportar los valores europeos en materia de IA a terceros Estados66; pero
no elimina la diferencia de trato entre proveedores y usuarios/implementadores y,

(b) deployers of AI systems that have their place of establishment or who are located within the
Union;
(c) providers and deployers of AI systems that have their place of establishment or are located in
a third country, where either Member State law applies by virtue of public international law or the output
produced by the system is intended to be used in the Union;
(ca) providers placing on the market or putting into service AI systems referred to in Article 5
outside the Union where the provider or distributor of such system is located within the Union;
(cb) importers and distributors of AI systems as well as authorized representatives of providers
of AI systems, where such importers, distributors or authorized representatives have their establishment or
are located in the Union;
(cc) affected persons as defined in Art. 3(8a) that are located in the Union and whose health, safety
or fundamental rights were adversely impacted by the use of an AI system that was placed on the market
or put into service in the Union;
(e) product manufacturers placing on the market or putting into service an AI system
together with their product and under their own name or trademark”.
65
VEALE, M., / ZUIDERVEEN BORGESIUS, F.J., (op. cit., p. 101) han denunciado que ciertas empresas
europeas han desarrollado para gobiernos de países extranjeros sistemas IA que estarían prohibidos en
Europa de estar en vigor el art. 5 Reglamento.
66
Al respecto, véase la modificación introducida por el Parlamento en el considerando 11: “In order for the
European Union to be true to its fundamental values, AI systems intended to be used for practices that are
considered unacceptable by this Regulation, should equally be deemed unacceptable outside the EU
because of their particularly harmful effect to fundamental rights as enshrined in the Charter of
Fundamental Rights of the European Union. Therefore it is appropriate to prohibit the export of such AI
systems to third countries by providers residing in the Union”.

- 15 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

además, perjudica a los proveedores europeos al obstaculizar sus actividades en terceros


Estado.

22. En atención al art. 2.1 c), el Reglamento también resulta aplicable “a los
proveedores y usuarios de sistemas de IA que se encuentren en un tercer país, cuando la
información de salida generada por el sistema67 se utilice en la Unión”. Se trata de un
criterio que puede conllevar una aplicación extraterritorial injustificada del Reglamento;
y que éste resulte aplicable en situaciones difícilmente previsibles para proveedores de
sistemas IA establecidos en terceros Estados.

Imaginemos una empresa establecida en Estados Unidos (es decir, un proveedor en el


sentido de la PLIA) que desarrolla o vende un sistema IA a una empresa canadiense
(usuario) que lo utiliza para llevar a cabo procesos de selección de personal a empresas
ubicadas en el mundo entero, incluida la Unión Europea. En tal caso, de acuerdo con el
art. 2.1 c) el Reglamento es aplicable tanto al usuario canadiense como al proveedor
estadounidense. Ambos deben cumplir con los requisitos y obligaciones establecidos en
el Reglamento y pueden resultar sancionados por las autoridades nacionales de vigilancia
del mercado de los Estados miembros. En el caso del usuario canadiense, la aplicación
del Reglamento resulta totalmente justificada por cuanto está dirigiendo sus actividades
a la Unión Europea68. En cambio, en el caso del proveedor estadounidense la aplicación
no resulta justificada: no dirige sus actividades al mercado europeo y no podía prever que
el usuario canadiense iba a utilizar su sistema IA con clientes establecidos en la UE. Se
trata de una aplicación extraterritorial injustificada por cuando el Reglamento resulta
aplicable en una situación que presenta una vinculación muy escasa con la Unión69.

De acuerdo con el considerando 11, la finalidad de este criterio de conexión es evitar que
la aplicación del Reglamento pueda ser eludida70. Si bien el objetivo está justificado, en
situaciones como la planteada, la normativa debería resultar aplicable al usuario
canadiense del ejemplo, pero no al proveedor estadounidense por cuanto éste último
nunca tuvo la intención de hacer negocios en la Unión. Tal y como está redactada la
disposición, los proveedores establecidos en terceros Estados estarían obligados a
controlar si alguno de los usuarios a los que ha vendido sus sistemas IA los utilizan para

67
Aunque el Reglamento no lo define, por “información de salida” cabe entender la información generada
por el sistema IA en forma de contenidos (sistemas IA generative), predicciones, recomendaciones o
decisiones. En este sentido, IPEK, M. “EU Draft Artificial Intelligence Regulation: Extraterritorial
Application and Effects”, European Law Blog, 17 february 2021, available at
https://europeanlawblog.eu/2022/02/17/eu-draft-artificial-intelligence-regulation-extraterritorial-
application-and-effects/
68
Debe recordarse que las obligaciones de los usuarios de sistemas IA son diferentes de las establecidas
para los proveedores. Debe prestarse atención, en particular, a los arts. 28 y 29 PLIA para los usuarios de
sistemas IA de alto riesgo, y las obligaciones generales de transparencia del art. 52.
69
En este sentido, DE MIGUEL ASENSIO, P.A., “Propuesta de Reglamento sobre inteligencia artificial”.
La Ley Unión Europea, núm. 92, mayo 2021.
70
“Para evitar la elusión de este Reglamento y asegurar la protección efectiva de las personas físicas
ubicadas en la Unión, el presente Reglamento también debe aplicarse a los proveedores y usuarios de
sistemas de IA establecidos en un tercer país, en la medida en que la información de salida generada por
dichos sistemas se utilice en la Unión”.

- 16 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

prestar servicios a empresas europeas, obligación que resulta claramente


desproporcionada.

Teniendo en cuenta que el criterio de conexión de la letra a) ya establece la aplicación del


Reglamento a los proveedores que comercializan o ponen en funcionamiento sus sistemas
IA en la Unión, para alcanzar el resultado señalado bastaría con eliminar la letra c) y
otorgar una nueva redacción de la letra b) que estableciera la aplicación del Reglamento
a los usuarios de sistemas, con independencia de su residencia habitual o establecimiento,
cuando la información de salida generada por el sistema se utilice en la Unión.

Las modificaciones propuestas por el Parlamento Europeo incrementan la inseguridad


jurídica. Primero porque incrementa la complejidad de la disposición al establecer la
aplicación del Reglamento cuando el proveedor o el usuario/implementador se encuentran
o están establecidos en un tercer Estado donde, en virtud del Derecho internacional
público, se aplica la ley de un Estado miembro. Resulta difícil imaginar a qué se refiere
el inciso más allá del uso de sistemas IA en embajadas y consulados, situaciones que están
suficientemente reguladas en otras ramas del ordenamiento.

Segundo porque introduce la precisión “información de salida generada por el sistema


que se tiene la intención de utilizar en la Unión”. La sustitución de “información que se
utilice” por “información que se tiene la intención de utilizar” parecería incrementar el
número de supuestos en los que se va a aplicar el Reglamento. No obstante, en la práctica,
lo habitual será que los proveedores y usuarios/implementadores cumplan con el
Reglamento antes de que el sistema IA se utilice en Europa, es decir, cuando se tiene la
intención de utilizarlo.

Tercero, la inclusión del criterio de conexión de la letra (cc) llama a confusión por cuanto
no establece la aplicación del Reglamento a las personas afectadas71 que se encuentran en
la UE por la información generada por un sistema IA que se tiene la intención de utilizar
en la Unión. La coherencia con el criterio de conexión de la letra (c) obliga a incluir a
esta categoría de personas.

23. En fin, la letra (cb) propuesta por el Parlamento Europeo mejora el contenido de
la disposición inicialmente propuesta en la Posición común del Consejo, pero es
superflua: la aplicación del Reglamento a los distribuidores o importadores de sistemas
IA y a los representantes autorizados se deriva de su establecimiento en la Unión, pero
solo en el caso de que el sistema IA en particular sea puesto en el mercado o utilizado por
un proveedor o un usuario/implementador que cumpla con las condiciones mencionadas
en las letras (a), (b) o (c) del Art. 2.1.

71
De acuerdo con la propuesta de art. 3 (8a) del Parlamento, la definición de persona afectada (affected
persons) es: “any natural person or group of persons who are subject to or otherwise affected by an AI
system”.

- 17 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

IV. EFECTIVIDAD DE LAS SANCIONES POR INCUMPLIMIENTO DEL


REGLAMENTO DE INTELIGENCIA ARTIFICIAL EN TERCEROS ESTADOS
24. La aplicación del futuro Reglamento a proveedores y usuarios establecidos en
terceros Estados se enfrenta a un problema: ¿Cómo pueden las autoridades nacionales de
supervisión del mercado asegurar el cumplimiento de las medidas correctoras y las
sanciones impuestas por la infracción de alguno de los requisitos y obligaciones del
Reglamento contra estos operadores?

El problema no resulta especialmente grave en aquellos supuestos en los que el sistema


IA es comercializado en el mercado de la Unión por importadores y distribuidores
europeos. Ambas categorías de operadores están obligadas a asegurar que los sistemas IA
de alto riesgo cumplen con los requisitos y obligaciones del Reglamento antes de su
puesta a disposición en el mercado, o de su distribución72. Por lo tanto, en caso de falta
de conformidad de un sistema IA desarrollado por un proveedor establecido en un tercer
Estado, la autoridad competente podrá dirigirse contra el importador o el distribuidor
establecido en Europa. Si bien, las medidas correctoras o sanciones solo desplegarán
efectos en el territorio del Estado miembro de esa autoridad73, los arts. 65 a 68 PLAI
establecen el procedimiento a seguir en aquellos supuestos en los que el incumplimiento
no se limita al territorio nacional para que las autoridades de otros Estados miembros
adopten las mismas medidas.

25. El problema se vuelve más grave en aquellos supuestos en los que el proveedor
establecido en un tercer Estado pone en servicio el sistema IA en la Unión europea por
medios electrónicos, sin que intervenga ningún intermediario; o un usuario de sistema IA
establecido en un tercer Estado ofrece sus servicios en la Unión por medios telemáticos.
Como en el caso anterior, las medidas y sanciones adoptadas por una autoridad nacional
sólo despliegan efectos en el territorio nacional y, en todo caso, podrán venir
acompañadas de otras medidas adoptadas por las autoridades de otros Estados miembros
validas, igualmente, para sus territorios nacionales. En caso de que el proveedor o usuario
no cumplan voluntariamente con dichas medidas, ¿cómo pueden asegurarse su ejecución
en terceros Estados? En la medida en que se tratan de medidas de naturaleza
administrativa, no se puede plantear el reconocimiento de la medida en el tercer Estado
en cuestión para que sus autoridades la ejecuten. El hecho que estas medidas no han sido
adoptadas por tribunales de justicia impide el recurso a los convenios internacionales
sobre reconocimiento y ejecución de resoluciones extranjeras en materia civil y mercantil
existentes con el tercer Estado de establecimiento del proveedor o usuario de sistemas IA,
o a la legislación interna en la materia en dicho tercer Estado.

26. La PLIA puede ser objeto de la misma crítica que D. Svantesson ha realizado en
relación con el extenso ámbito de aplicación territorial del RGPD: en la medida en que
resulta imposible para las autoridades europeas fiscalizar todas las situaciones cubiertas

72
Art. 26 and 27.
73
Así se deriva de la naturaleza administrativa de la autoridad, si bien el Parlamento propone indicarlo
expresamente en el nuevo art. 59a.

- 18 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

por el Reglamento, su aplicación se vuelve necesariamente selectiva y discrecional,


circunstancia que, en opinión del autor, menoscaba la legitimidad internacional de la
Unión Europea74. Para evitar que el problema se extienda al futuro Reglamento de IA,
resulta importante identificar las medidas con las que cuentan las autoridades nacionales
para garantizar el cumplimiento de los requisitos y obligaciones previstos en el
Reglamento por parte de los proveedores y usuarios establecidos en terceros Estados.

27. El art. 25 PLIA obliga a los proveedores establecidos en terceros Estados a


designar, mediante un mandato por escrito, “un representante autorizado que se encuentre
en el territorio de la Unión”. Entre otras tareas, este representante es el responsable de
cumplir, en nombre del proveedor, con las obligaciones y procedimientos establecidos en
el Reglamento; cooperar con las autoridades competentes; y de guardar y proporcionar a
estas autoridades la información y documentación necesarias para demostrar la
conformidad de los sistemas IA de alto riesgo con los requisitos establecidos en el
Reglamento. La designación de este representante autorizado debe llevarse a cabo antes
de la comercialización de los sistemas IA en la Unión.

La obligación está copiada del art. 27 RGPD y también se establece en el resto de leyes
digitales europeas75. Su finalidad es facilitar el control por las autoridades nacionales
competentes del cumplimiento de los reglamentos por parte de las empresas establecidas
en terceros Estados76. Si bien es de esperar que se designará una única entidad como
representante autorizado para cada uno de los reglamentos, la obligación ha sido criticada
por la carga que conlleva, en particular, para pequeñas y medianas empresas de terceros
Estados que desean acceder al mercado europeo77. La falta de designación está
severamente sancionada tanto en el RGPD78 como en la PLIA79.

En mi opinión, el art. 25 puede facilitar el cumplimiento del Reglamento, pero no parece


suficiente para asegurar la efectividad de las medidas correctoras y sanciones que se
puedan imponer a un proveedor o usuario establecido en un tercer Estado cuando se
produzca un incumplimiento80. Y ello por varias razones.

En primer lugar, como su nombre expresa, los “representantes autorizados” actúan como
representantes. Es decir, no asumen la responsabilidad por el incumplimiento del
Reglamento y, por lo tanto, no pueden ser sancionados. Esto parece ser una novedad
respecto del RGPD donde, aunque el articulado no lo diga expresamente, el considerando

74
SVANTESSON, D. J. B., “Article 3…”, op. cit., p. 95.
75
Véase, por ejemplo, el art. 13 RSD o art. 11.3 RGD.
76
GASCON MARCEN, I., op. cit., p. 222.
77
SVANTESSON, D. J. B., “Internet & Jurisdiction Global Status Report 2019”, Internet & Jurisdiction
Policy Network, 2019, p. 147.
78
Art. 83.4 a).
79
Art. 71.4: “El incumplimiento por parte del sistema de IA de cualquiera de los requisitos u obligaciones
establecidos en el presente Reglamento distintos de los dispuestos en los artículos 5 y 10 estará sujeto a
multas administrativas de hasta 20 000 000 EUR o, si el infractor es una empresa, de hasta el 4 % del
volumen de negocio total anual mundial del ejercicio financiero anterior, si esta cuantía fuese superior.”.
80
En el mismo sentido, en relación con el RGPD, KUNER, C, “Protecting EU data outside EU borders
under the GDPR”, Common Market Law Review, vol 60- 1, 2023, pp. 77-106, esp. 100.

- 19 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

80 establece que el representante puede ser objeto de medidas coercitivas por el


incumplimiento de sus funciones. Del mismo modo, el art. 13.3 RSD también establece
que el representante “podrá ser considerado responsable por el incumplimiento de las
obligaciones del Reglamento” por parte de los prestadores de servicios intermediarios.

En segundo lugar, según el art. 43, la designación del representante autorizado no


constituye un requisito necesario para que un proveedor pueda obtener la evaluación de
conformidad. Incluso si ello se exigiera como práctica impuesta por los organismos de
evaluación de la conformidad, nada impide que, una vez obtenida esa conformidad, el
proveedor retire el mandato al representante autorizado. Y en tal caso, la sanción por la
falta de designación presenta el mismo problema que el resto de sanciones: ¿cómo se
puede asegurar el cumplimiento cuando el proveedor está establecido en un tercer Estado?

En tercer lugar, llama la atención que la obligación de designar un representante sólo se


exija a los proveedores, no a los usuarios. Ciertamente, las obligaciones que asumen los
usuarios81 son inferiores a las establecidas para los proveedores pero, en cualquier caso,
su cumplimiento es importante para alcanzar los objetivos del Reglamento.

Las modificaciones de esta disposición propuestas por los comités del Parlamento
Europeo no reducen ninguna de estas carencias.

28. Asumiendo la imposibilidad de hacer cumplir las medidas correctivas en terceros


Estados por parte de las autoridades nacionales de control, y la inexistencia de
mecanismos para solicitar la ejecución de sanciones por las autoridades de esos Estados,
resulta preciso identificar las medidas que prevé al PLIA que no implican su ejecución en
terceros Estados.

De acuerdo con el art. 65, cuando una autoridad de vigilancia del mercado realiza una
evaluación que da como resultado que un sistema IA no cumple con los requisitos del
Reglamento, solicitará al operador que adopte todas las medidas correctoras oportunas
para adaptar el sistema IA a los requisitos incumplidos o bien lo retire del mercado82. En
caso de no obedecer la solicitud en el plazo establecido, la autoridad adoptará “todas las
medidas provisionales adecuadas para prohibir o restringir la comercialización del
sistema IA en su mercado nacional, retirarlo de dicho mercado o recuperarlo”. Tales
medidas devendrán definitivas si no existe objeción, en el plazo de 3 meses83, por parte
de las autoridades de otros Estados miembros en los que también se verifica el
incumplimiento o de la Comisión84.
De modo similar, en relación con el incumplimiento de ciertas obligaciones particulares,
el art. 68.2 estable que la autoridad nacional competente deberá adoptar “todas las

81
Véase el art. 29.
82
En el mismo sentido se expresa el art. 67 en relación con los sistemas IA conformes pero que pueden
generar un riesgo.
83
El Parlamento propone reducir el plazo a 30 días cuando se trata de sistemas IA que incurren en alguna
de las prohibiciones del art. 5.
84
Art. 65.8. Si se plantean objeciones entra en funcionamiento el procedimiento de salvaguarda de la Unión,
previsto en el art. 66.

- 20 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

medidas adecuadas para restringir o prohibir la comercialización del sistema de IA de alto


riesgo o garantizar que se recupera o se retira del mercado”.

En el caso de proveedores y usuarios que presten sus servicios desde terceros Estados,
entre las “medidas adecuadas” a las que se refieren estas disposiciones de la PLIA debe
incluirse los requerimientos a los prestadores de servicios de la sociedad de la información
para que bloqueen el acceso desde el territorio de la Unión a la interfaz de los sistemas
IA albergados en los servidores de estos proveedores y usuarios que, presumiblemente,
estarán localizados en terceros Estados. Resulta criticable, en cualquier caso, que la
medida no sea objeto de una regulación más extensa en el Reglamento. Sí está
mencionada, al menos, en el art. 14.4 k) Reglamento 2019/1020, aplicable
subsidiariamente y solo para el caso de que “no se disponga de otros medios efectivos
para eliminar un riesgo grave”.

29. En el caso de reclamaciones que los particulares deseen iniciar frente a


proveedores y usuarios establecidos en un tercer Estado, existe la opción de plantear la
reclamación ante las autoridades de ese tercer Estado. En el caso del RGPD, C. Kuner85
ha señalado los beneficios del mecanismo de las decisiones de adecuación del art. 45 para
la transferencia de datos personales a terceros Estados. Ello es así, porque, entre los
requisitos que se exigen para que la Comisión pueda adoptar esas decisiones, es que el
tercer Estado reconozca a los interesados “recursos administrativos y acciones judiciales
que sean efectivos”86.

Si bien el mecanismo de las decisiones de adecuación no está previsto en la PLIA, el


efecto Bruselas, al que nos referimos a continuación, puede favorecer el establecimiento
de autoridades en terceros Estados antes las que las empresas europeas puedan presentar
reclamaciones contra los proveedores y usuarios de sistemas IA establecidos en esos
Estados. En cualquier caso, tales reclamaciones no serán por el incumplimiento del
Reglamento europeo, sino por el incumplimiento de la legislación del tercer Estado o, en
su caso, la legislación extranjera designada por las normas de DIPr. de ese tercer Estado.
Ante la dificultad que esto plantea, resultaría conveniente, como se expone en el siguiente
apartado que las instituciones intentaran llegar a acuerdos internacionales para favorecer
el cumplimiento del futuro Reglamento en terceros Estados87.

V. ELEFECTO BRUSELAS DEL REGLAMENTO DE INTELIGENCIA


ARTIFICIAL

30. El efecto Bruselas o “globalización regulatoria unilateral” se produce cuando una


jurisdicción – p. ej. la Unión Europea – consigue expandir sus estándares regulatorios

85
KUNER, C., op. cit., p. 102.
86
Art. 45.2
87
En el mismo sentido, DE MIGUEL ASENSIO, P.A., “Libro Blanco sobre inteligencia artificial:
evolución del marco normativo y aplicación efectiva”, La Ley Unión Europea, núm. 79, marzo 2020

- 21 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

más allá de sus fronteras, aprovechándose de las dinámicas de los mercados, con el
resultado de que dichos estándares acaban adoptándose a nivel global88.

Anu Bradford, precursora de esta teoría, diferencia dos manifestaciones de este


fenómeno. Por un lado, el efecto Bruselas de facto se produce porque, para ahorrar en
costes de cumplimiento normativo, las empresas que actúan a nivel global – p. ej. los
gigantes tecnológicos –, con independencia de los Estados en los que lleven a cabo sus
actividades comerciales, adaptan sus productos o servicios a los estándares regulatorios
más estrictos que, en la actualidad, resultan ser los establecidos por la Unión Europea.
Por otro, el efecto Bruselas de iure se produce porque los estándares regulatorios europeos
son adoptados como modelo a seguir por los legisladores de terceros Estados. Esta
segunda manifestación se produce bien porque esos legisladores comparten los mismos
valores que la Unión Europea, y entienden que los estándares europeos son los más
adecuados para garantizar su protección; bien porque las empresas que actúan a nivel
global cumpliendo con los estándares europeos presionan a sus legisladores nacionales a
que asuman un nivel de protección similar para competir en igual de condiciones en sus
mercados nacionales con las empresas que únicamente actúan a nivel local89.

Bradford ha identificado los siguientes campos regulatorios en los que se produce el


efecto Bruselas: protección de la salud, medio ambiente, antitrust, protección de datos
personales90. En particular, en este último sector se afirma que la legislación europea ha
servido de modelo a más de 100 jurisdicciones91.

1. Razones que permiten afirmar el efecto Bruselas del futuro Reglamento de


inteligencia artificial

31. Según se ha indicado en la Introducción, la PLIA y el RGPD comparten elementos


característicos del nuevo modelo regulatorio europeo. Pues bien, esos elementos comunes
permiten afirmar que es muy probable que el efecto Bruselas también se produzca en
relación con la regulación europea en materia de IA y con el resto de leyes digitales
europeas92.

De acuerdo con A. Bradford, para que se produzca el efecto Bruselas es preciso que se
cumplan cinco condiciones
En primer lugar, el mercado de la jurisdicción que impone los estándares regulatorios
debe tener un gran tamaño. En el caso de la Unión Europea, se trata del mercado interior
más grande del mundo. Un número muy elevado de empresas de terceros Estados que se
dedican al comercio internacional dependen del mercado europeo para su viabilidad
económica. Muy pocas de ellas están en disposición de abandonar completamente ese

88
BRADFORD, A. “The Brussels Effect”, Northwestern University Law Review, vol. 107, num. 1, 2012,
p. 3, disponible en https://ssrn.com/abstract=2770634.
89
BRADFORD, A. “The Brussels…”, op. cit. p. 6.
90
BRADFORD, A., The Brussels Effect: How the European Union Rules the World, OUP, 2020.
91
GSTREIN, O. J. / ZWITTER, A. J., op. cit., p. 4 y 23; GREENLEAF, G., op. cit., p. 5.
92
SVANTESSON, D., “The European Union…”, op. cit., p. 6.

- 22 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

mercado. Aunque los costes de cumplimiento legal sean elevados, las ganancias que se
derivan como consecuencia del tamaño del mercado las compensan93.

En segundo lugar, la Unión Europea cuenta con instituciones con competencia para
regular el acceso al mercado, y con autoridades nacionales o europeas que se encargan de
supervisar su funcionamiento y, en su caso, imponer sanciones. Al respecto, debe
recordarse que el nombramiento de autoridades nacionales competente como mecanismo
de refuerzo del aparato coercitivo de la Unión Europea, es uno de los elementos
característicos del nuevo modelo regulatorio europeo y está presente tanto en el RGPD
como en la PLIA.

En tercer lugar, las instituciones han optado por imponer estándares regulatorios estrictos.
Se trata, de nuevo, de otro de los elementos que caracterizan este nuevo modelo. Esta
preferencia por estándares regulatorios estrictos refleja el compromiso de la Unión con
una economía social de mercado94 y con el principio de precaución, que informa su
actividad legislativa: resulta preferible regular una actividad con carácter preventivo
incluso en ausencia de una seguridad cuantificable en cuanto al riesgo que dicha actividad
puede entrañar95. Ciertamente, la imposición de estándares regulatorios estrictos sólo es
posible en mercados como el de la Unión Europea, en el que los consumidores finales
gozan de rentas altas, por cuanto el aumento de los costes de cumplimiento normativo por
parte de las empresas conlleva un incremento de los precios finales de los productos y
servicios.

En cuarto lugar, el efecto Bruselas solo funciona si el objeto regulado no se puede


desplazar a una jurisdicción diferente. Por ejemplo, la normativa europea sobre
sociedades mercantiles puede ser burlada trasladando la sede social a terceros Estados; la
de seguridad laboral, trasladando la producción a jurisdicciones con niveles de protección
del trabajador más bajos. En cambio, la normativa sobre protección de datos personales
o sobre la comercialización o puesta en servicio de sistemas IA no puede eludirse. Si las
empresas decidieran ofrecer sus productos con componentes IA o sus servicios basados
en IA únicamente en mercados extranjeros, los ciudadanos y empresas europeos no se
desplazarían masivamente a esos mercados para adquirirlos.

En quinto lugar, tanto el RGPD como la PLIA resultan aplicables a actividades de las
empresas que son indivisibles. Esto ocurre cuando resulta económica, técnica o
legalmente inviable dividir la actividad de la empresa en diferentes Estados para
beneficiarse, al menos parcialmente, de los estándares regulatorios más livianos
establecidos en otros Estados. En el caso del RGPD, resulta inviable tanto técnica como
económicamente, almacenar separadamente los datos personales de los europeos y los de
terceros Estados para, así, disfrutar de una mayor flexibilidad en el tratamiento de los
segundos. Tampoco resulta viable desde un punto de vista legal por cuanto, el régimen
aplicable en terceros Estados no es uniforme por lo que las subdivisiones en el
almacenamiento serían infinitas. Lo mismo se puede afirmar en relación con la PLIA:

93
BRADFORD, A. “The Brussels…”, op. cit. p. 11.
94
Art. 3.3 TUE
95
BRADFORD, A. “The Brussels…”, op. cit. p. 15.

- 23 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

resultaría muy costoso diseñar sistemas IA específicos para la UE, que cumplieran con
los estándares del Reglamento, y otros para el resto del mundo. En las economías de
escala, los beneficios de adoptar el estándar de una única jurisdicción (aunque muy
elevado) con carácter global supera los costes más bajos de cumplimiento normativo
existentes en la pluralidad de Estados en los que se quiere comercializar los productos y
servicios. Esta circunstancia es la que permite a la UE dictar de manera efectiva los
estándares globales en materia de protección de datos personales y, presumiblemente, de
IA.

Un último elemento que, a mi modo de ver, favorece el efecto Bruselas de facto es la


aplicación extraterritorial tanto del RGPD como del futuro Reglamento de inteligencia
artificial. Como indica B. Svantesson96, como consecuencia del amplio ámbito de
aplicación territorial de ambos instrumentos y del carácter global de Internet, muy pocas
empresas que ejercen sus actividades a nivel global quedan exentas de cumplir con los
estándares europeos97.

2. Ventajas y desventajas del efecto Bruselas del futuro Reglamento de


Inteligencia Artificial

32. El efecto Bruselas tiene beneficios para las empresas europeas que ejercen sus
actividades en los mercados globales por cuanto, al cumplir con los estándares europeos,
los costes de cumplimiento normativo en terceros Estados se reducen. Ello es así porque,
presumiblemente, la normativa será similar a la europea. Esta similitud en los estándares
regulatorios permite a nuestras empresas competir en igualdad de condiciones con la
industria local en los mercados de esos terceros Estados98.

Se afirma, igualmente, que el efecto Bruselas favorece a los ciudadanos europeos pues
garantiza que, en sus actividades en terceros Estados, sus derechos van a recibir una
protección similar a la establecida en la normativa europea.

En fin, gracias al efecto Bruselas, la Unión Europea se posiciona como un actor en el


escenario internacional capaz de imponer los valores democráticos europeos como
estándares regulatorios a nivel global99.
33. A mi modo de ver, estos beneficios deben ser relativizados. En primer lugar, el
efecto Bruselas pasa por establecer estándares regulatorios muy elevados, circunstancia
que ha sido criticada por incrementar los costes de cumplimiento normativo de nuestras

96
SVANTESSON, D., “The European Union…”, op. cit., p. 6.
97
Otro mecanismo que favorece el efecto Bruselas de iure, presente en el RGPD pero no en el RIA, son las
decisiones de adecuación para las transferencias internacionales de datos personales que obligan a los
terceros Estados a adaptar sus normativas en la materia a los estándares europeos.
98
BRADFORD, A. “The Brussels…”, op. cit. p. 40.
99
La Comisión Europea no perdió la oportunidad de resaltar esta circunstancia en su “Comunicación sobre
la protección de datos como pilar del empoderamiento de los ciudadanos y del enfoque de la UE para la
transición digital: dos años de aplicación del Reglamento General de Protección de Datos” (Doc.
COM(2020)): “El liderazgo de la UE en materia de protección de datos pone de manifiesto su capacidad
de establecer normas de referencia a escala mundial para la regulación de la economía digital y ha sido bien
acogido por importantes voces de la comunidad internacional [...]” (p. 3).

- 24 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

propias empresas – en particular, las pequeñas y medianas –100 que, a la postre, se reflejan
en un aumento en el precio final de los productos y servicios que debe asumir el
consumidor final101. Además, estos elevados costes pueden desincentivar a nuestras
empresas a la hora de acometer proyectos digitales, con lo cual se estaría poniendo
obstáculos a la innovación en Europa. Ciertamente, una regulación en materia de IA que
garantice la seguridad de los productos y los derechos fundamentales es necesaria, pero
debe alcanzarse un equilibrio entre estos intereses y otro de los objetivos del Reglamento:
“garantizar la seguridad jurídica para facilitar la inversión e innovación en IA”102. Al
respecto, la doctrina ha criticado acertadamente que sólo existen tres disposiciones (arts.
53 a 55) en la PLIA destinadas a fomentar la innovación en el sector103.

En segundo lugar, los beneficios que el efecto Bruselas puede conllevar para las empresas
europeas que hacen negocios en terceros Estados son muy relativos. Resulta difícil de
imaginar que los legisladores de terceros Estados establezcan los mismos estándares
regulatorios en materia de IA que los establecidos en la Unión Europea. Pero, además, de
llegar a ser así, los efectos podrían ser contraproducentes: así, por ejemplo, las empresas
europeas podrían resultar obligadas a inscribir sus sistemas IA en las bases de datos
habilitadas a tal efecto104, y a nombrar representantes autorizados en cada uno de los
terceros Estados en los que comercialicen o pongan en servicio sus sistemas IA.

En tercer lugar, si bien el efecto Bruselas puede conllevar una extensión de los valores
europeos en materia de protección de datos personales o de regulación de la IA a terceros
Estados, se trata de una consecuencia involuntaria. Como explica A. Bradford105, el
principal objetivo de los instrumentos en los que se produce efecto Bruselas es regular el
mercado interior. En principio, son las dinámicas de los mercados globales las que
provocan que los estándares regulatorios fijados en esos instrumentos se extiendan a
terceros Estados. Es decir, el efecto Bruselas, así como sus beneficios, son consecuencias
involuntarias de los instrumentos destinados a regular del mercado interior. Resulta
imposible extraer de los considerandos de la PLIA, del RGPD o de cualquiera otra de las
leyes digitales europeas, que uno de sus objetivos sea extender los valores europeos en la
materia a terceros Estados. Es más, de ser este el objetivo, ¿cómo se explica que las

100
MUELLER, B., “How Much Will the Artificial Intelligence Act Cost Europe?”, 26 julio 2021, Center
for data innovation, https://datainnovation.org/2021/07/how-much-will-the-artificial-intelligence-act-cost-
europe/: “If adopted, the EU’s Artificial Intelligence Act will be the world’s most restrictive regulation of
the development and use of artificial intelligence (AI) tools. It will not only limit AI development and use
in Europe but impose significant costs on EU businesses and consumers. The AIA will cost the European
economy €31 billion over the next five years and reduce AI investments by almost 20 percent”.
101
BRADFORD, A., The Brussels…, op. cit., p. 236., si la autora considera que los beneficios del efecto
Bruselas compensan esos costes.
102
Llama la atención el contraste de la propuesta europea con el enfoque adoptado por el gobierno del
Reino Unido, cuyo White Paper “A pro-innovation approach to AI regulation” indica: “With the vast
majority of digital technology businesses employing under 50 people, it is important to ensure that
regulatory burdens do not fall disproportionately on smaller companies, which play an essential role in the
AI innovation ecosystem and act as engines for economic growth and job creation (ap. 28). Disponible en
https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper
103
LÚCIA RAPOSO, V., op. cit., p. 102.
104
Véase el art. 60 PLIA.
105
BRADFORD, A. “The Brussels…”, op. cit. p. 40.

- 25 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

empresas europeas que llevan a cabo actividades exclusivamente en terceros Estados


estén excluidas del ámbito de aplicación territorial del PLIA106 y del RGPD?. Si el
objetivo de estos instrumentos fuera garantizar el respeto de los valores europeos en
terceros Estados, lo adecuado sería obligar a las empresas europeas a respetar dichos
valores tanto en las actividades que llevan a cabo en la Unión Europa cuanto en las que
despliegan en el extranjero.

En fin, a mi modo de ver, el propio efecto Bruselas puede llegar a ser contrario a nuestros
valores democráticos, cuando los terceros Estados asumen nuestros estándares no porque
los consideran apropiados, sino porque así se lo exigen sus propias empresas para poder
competir en igualdad de condiciones en su mercado local. La imposición unilateralmente
de nuestros estándares a terceros Estados renunciando a la búsqueda de consensos a través
de negociaciones bilaterales o multilaterales no está en consonancia a la tradición europea
en política exterior. En este sentido, resulta sintomático que, en su Comunicación “Una
política comercial abierta, sostenible y firme”, la Comisión Europea afirme que uno de
los objetivos esenciales de esa polícia a medio plazo sea “perfilar normas multilaterales
para una globalización más sostenible y justa”, pero sin renunciar a la capacidad de la UE
“de defender sus intereses y hacer valer sus derechos, incluso de manera autónoma
cuando sea necesario”107.

3. La necesidad de acuerdos multilaterales o bilaterales en materia de


inteligencia artificial

34. Teniendo en cuenta los problemas que plantea el efecto Bruselas, la Unión
Europea debería intentar exportar sus estándares regulatorios en materia de inteligencia
artificial, mediante la vía convencional, buscando el consenso con sus socios comerciales.
Se trataría, como afirman Gstrein y Zwitter, en relación con el RGPD, de lograr la
globalización de los valores europeos porque nuestros socios los asumen como propios
gracias a su valor intrínseco, no porque les vienen impuestos por las dinámicas de los
mercados globales108. Ello implica que, como en muchas otras materias, la Unión Europea
debe recurrir a negociaciones de tratados multilaterales o bilaterales. La adopción de estos
acuerdos favorecería, además, el cumplimiento del futuro Reglamento por parte de
proveedores y usuarios de sistemas IA establecidos en terceros Estado.

35. Desafortunadamente, todavía existe un consenso muy limitado en relación con los
principios que deben guiar el desarrollo y el uso de las herramientas de inteligencia
artificial en las iniciativas adoptadas unilateralmente por las diferentes jurisdicciones109.
Esto explica que los foros multilaterales más importantes (OMC u ONU) no incluyan en

106
Al respecto, véase el apartado III.2 de ese trabajo.
107
COMISIÓN EUROPEA, “Revisión de la política comercial - Una política comercial abierta, sostenible
y firme”, Doc. COM (2021) 66 final, p. 11.
108
GSTREIN, O. J. / ZWITTER, A. J., op. cit., p. 23.
109
GREENLEAF, G., op. cit., p. 8.

- 26 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

sus agendas trabajos esta materia con carácter general110, y que los avances que se han
realizado hasta la fecha sean únicamente instrumentos de soft law como la
Recomendación del Consejo de la OCDE sobre Inteligencia artificial111 o la
Recomendación UNESCO sobre la Ética de la Inteligencia Artificial112. También merecen
ser objeto de mención la Global Partnership on AI, definida como el primer foro
internacional multilateral centrado específicamente en la materia, del que forma parte la
Unión Europea y diez de sus Estados miembros113; o los trabajos del G7 para apoyar el
desarrollo de regulaciones estatales proporcionadas y compatibles sobre inteligencia
artificial.

Hasta donde se ha podido conocer, los trabajos más relevantes en la materia se están
llevando a cabo en el marco del Consejo de Europa. En particular, en enero de 2022 se
creó el Comité sobre Inteligencia Artificial que, a principios de 2023, publicó la Zero
Draft [Framework] Convention on Artificial Intelligence, Human Rights, Democracy and
the Rule of Law114. Este borrador debe servir como base para discutir, como su nombre
indica, un futuro convenio europeo sobre inteligencia artificial, derechos humanos,
democracia y el Estado de Derecho. Merece la pena destacar que en dichos trabajos están
interviniendo representantes de los Estados Unidos para, así, favorecer una hipotética
adhesión de este país al futuro convenio.

36. Alternativamente, la Unión Europea podría buscar ese consenso por la vía
bilateral, la cual podría adoptar dos formas. Por un lado, la Comisión Europea podría
pensar en la inclusión de disposiciones sobre inteligencia artificial en los acuerdos de
libre comercio que actualmente o en el futuro puede negociar con sus socios comerciales.
Se observa una evolución en el contenido de los tratados objeto de negociación que
actualmente incluyen disposiciones sobre comercio digital o transferencia internacional
de datos personales115. Nada impide que, en el futuro, se pueda hacer referencia a la
regulación de los sistemas IA.

Por otro lado, se podría introducir en la PLIA un mecanismo similar a las decisiones de
adecuación existentes en materia de protección de datos personales116, que en el RGD se
extiende a los datos no personales de titularidad pública117, y que también se plantea en la

110
Si existen trabajos en materias específicas, como es el caso de UNCITRAL en cuyo seno se está
trabajando en las cuestiones jurídicas relacionadas con la contratación automatizada. Información
disponible en http://undocs.org/sp/A/CN.9/WG.IV/WP.179
111
Documento OECD/LEGAL/449 disponible en https://legalinstruments.oecd.org/en/instruments/OECD-
LEGAL-0449
112
https://es.unesco.org/news/estados-miembros-unesco-adoptan-primer-acuerdo-mundial-etica-
inteligencia-artificial
113
https://www.gpai.ai
114
Disponible en https://rm.coe.int/cai-2023-01-revised-zero-draft-framework-convention-
public/1680aa193f
115
Véanse, por ejemplo, los borradores de tratado con Australia, Chile o India. Disponibles en
https://policy.trade.ec.europa.eu/eu-trade-relationships-country-and-region/negotiations-and-
agreements_en
116
Art. 45 RGPD.
117
Art. 5.12.

- 27 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)

Propuesta de Ley de Datos para los datos no personales de titularidad privada 118. Como
se ha dicho, la doctrina119 ha señalado los beneficios de este mecanismo tiene para
garantizar el cumplimiento normativo por parte de empresas establecidas en terceros
Estados120.

La inclusión de este mecanismo en la PLIA no debería tener como objeto facilitar la


transferencia internacional de datos, cuestión que es ajena al reglamento; sino el control
en origen de los sistemas IA. Así, por ejemplo, se podría pensar en que las autorizaciones
de comercialización o puesta en servicio otorgadas por las autoridades públicas de
terceros Estados, o por los organismos de evaluación de la conformidad, pudieran
reconocerse como suficientes a los efectos del Reglamento para su introducción en el
mercado europeo. Ello podría facilitar el cumplimiento normativo por parte de
proveedores extranjeros, a cambio de que los terceros Estados donde están establecidos
adecuaran sus legislaciones a los estándares europeos y establecieran sistemas de
supervisión en origen. Este sistema no es ajeno al Reglamento 2019/1020 – aplicable por
remisión a todos los sistemas IA comprendidos en el ámbito de aplicación de la PLIA121
–, el cual lo recoge en su art. 35.3122. La inclusión de un nuevo considerando 65ª,
propuesto por el Parlamento, parece ir en este sentido al invitar a la Comisión a explorar
la posible celebración de acuerdos internacionales y, en particular, de acuerdos de
reconocimiento mutuo con terceros Estados con el mismo nivel de desarrollo tecnológico
y enfoque en relación con la aceptación de los resultados alcanzados por organismos de
evaluación de la conformidad123.

En definitiva, existen diferentes vías, más allá del efecto Bruselas, para que el futuro
Reglamento se convierta en el standard global en materia de inteligencia artificial.

118
Art. 27.2.
119
KUNER, C., op. cit., p. 102.
120
Esta condición también se establece en el art. 5.12 RGD.
121
Art. 63.1.
122
“La Comisión podrá aprobar un sistema específico de control previo a la exportación relacionado con
productosque un tercer país aplique inmediatamente antes de la exportación de esos productos a la Unión
a fin de verificar que cumplen los requisitos de la legislación de armonización de la Unión que les sean
aplicables. La aprobación podrá concederse con respecto a uno o varios productos, con respecto a una o
varias categorías de productos o con respecto a productos o categorías de productos fabricados por
determinados fabricantes”.
123
“In line with Union commitments under the World Trade Organization (WTO) Agreement on Technical
Barriers to Trade (TBT), it is adequate to maximise the acceptance of test results produced by competent
conformity assessment bodies, independent of the territory in which they are established, where necessary
to demonstrate conformity with the applicable requirements of the Regulation. The Commission should
actively explore possible international instruments for that purpose and in particular pursue the possible
establishment of mutual recognition agreements with countries which are on a comparable level of
technical development, and have compatible approach concerning AI and conformity assessment”.

- 28 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados

VI. A MODO DE CONCLUSIÓN


37. Tal y como pronostican algunos autores, el futuro Reglamento de inteligencia
artificial está llamado a convertirse en un nuevo estándar global regulatoria de la materia.
Ello se debe particularmente al ámbito de aplicación territorial extremadamente amplio
que le otorga el art. 2 PLIA. La consecuencia va a ser que las empresas tecnológicas que
desplieguen sus actividades a nivel global se verán obligadas a adoptar, de facto, los
estándares europeos.

La aplicación extraterritorial del Reglamento está justificada en la necesidad de garantizar


los objetivos perseguidos. No obstante, algunos de los criterios de conexión establecidos
en el art. 2.1 pueden conllevar la aplicación del futuro Reglamento a situaciones que
presentan una escasa vinculación con la Unión Europea. En estos supuestos se pueden
hablar de una aplicación extraterritorial injustificada de la normativa por cuanto son
situaciones en las que los objetivos perseguidos no pueden resultar afectados.

38. Más discutible y menos deseable es que el Reglamento produzca el efecto


Bruselas de iure, es decir, que las dinámicas de los mercados globales lleven a terceros
Estados a adaptar sus legislaciones internas a nuestra normativa. El recurso a la vía
convencional multilateral o bilateral para extender los estándares regulatorios europeos
más allá de nuestras fronteras tiene muchas ventajas. Primero, porque es la fórmula que
más se adapta a nuestros valores democráticos. Segundo, porque puede ayudar a
garantizar el cumplimiento del Reglamento de inteligencia artificial por parte de
proveedores y usuarios establecidos en terceros Estados.

- 29 - DOI: 10.17103/reei.45.04

También podría gustarte

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy