45 04 Estudio Lopez Tarruella
45 04 Estudio Lopez Tarruella
45 04 Estudio Lopez Tarruella
ABSTRACT: The Proposal for an Artificial Intelligence Act is one of the most representative features of the
new regulatory model displayed by the European Union to regulate activities in the digital environment.
The purpose of this work is to analyze the implications of the future Regulation from a Private international
law perspective. A relevant provision in this regard is art. 2 (1) that establishes the territorial scope of
application of the Regulation. The provision plays though a different role depending on the perspective we
Fecha de recepción del trabajo: 19 de abril de 2023. Fecha de aceptación de la versión final: 17 de mayo de
2023.
Profesor titular de Derecho internacional privado (Universidad de Alicante), Director de la Cátedra para
el desarrollo responsable del metaverso de la Universidad de Alicante, Codirector del Grupo de
investigación GIPLaw (UA), Director de LVCENTINVS, blog sobre Propiedad intelectual y el Derecho de
las tecnologías de la información (http://www.lvcentinvs.es). (Aurelio.lopez@ua.es)
adopt to analyze it: that of the economic actors, that of the national competent authorities or that of the
judicial courts. The provision has been criticized because it provides for an extraterritorial application of
the Regulation. The work analyzes the justifications of such broad application and the connecting factors
that determine the territorial application of the Regulation. An analysis is also included of the problems
that may exist to ensure the effective enforcement of the decisions adopted by national surveillance
authorities in cases where the provider or user of the AI systems are established in a third state. Finally,
the work examines if, similar to what has happened with the GDPR, the future AI Act will produce the
Brussels effect – i.e. if it will imply a de facto and de iure harmonization of the regulatory standards of AI
in third states.
PALABRAS CLAVE: Inteligencia artificial, Derecho internacional privado europeo, efecto Bruselas.
I. INTRODUCCIÓN
1. En julio de 2019, tras su elección como presidenta de la Comisión Europea, Ursula
von der Leyen identificaba “una Europa adaptada a la era digital”1 como una de las seis
prioridades de esta institución para los siguientes cinco años. Esta prioridad, desarrollada
posteriormente en la comunicación “Configurar el futuro digital de Europa”2 tiene como
objetivo general conseguir que la transición digital redunde en beneficio de todos, dando
prioridad a las personas y abriendo nuevas oportunidades a las empresas3.
2.
La consecución de este objetivo precisa, entre otras acciones, adaptar el marco jurídico
para garantizar una protección adecuada de nuestros ciudadanos y nuestras empresas
frente a los riesgos digitales4. Con este propósito, a partir de 2020, la Comisión Europea
empezó a proponer una serie de instrumentos – algunos de los cuales ya ha sido adoptados
– que se conocen como las “leyes digitales europeas”. Me refiero, por un lado, a los ya
adoptados Reglamento 2022/868 de gobernanza de los datos5 (en adelante RGD),
Reglamento 2022/1925 sobre mercados digitales6 (en adelante RMD) y Reglamento
1
VON DER LEYER, U., “Una Unión que se esfuerza por lograr más resultados – Mi agenda para Europa”,
disponible en https://ec.europa.eu/info/sites/default/files/political-guidelines-next-commission_es_1.pdf
2
COMISION EUROPEA, “Configurar el futuro digital de Europa”, Doc. COM(2020) 67 final
3
COMISION EUROPEA, “Configurar …”, p. 3.
4
VIDA FERNÁNDEZ, J., “La gobernanza de los riesgos digitales: desafíos y avances en la regulación de
la inteligencia artificial”, CDT, vol. 14(1), 2022, pp. 489-503. https://doi.org/10.20318/cdt.2022.6695
5
Reglamento 2022/868 del Parlamento Europeo y del Consejo de 30 de mayo de 2022 relativo a la
gobernanza europea de datos y por el que se modifica el Reglamento 2018/1724 (Reglamento de
Gobernanza de Datos), http://data.europa.eu/eli/reg/2022/868/oj
6
Reglamento 2022/1925 del Parlamento Europeo y del Consejo de 14 de septiembre de 2022 sobre
mercados disputables y equitativos en el sector digital y por el que se modifican las Directivas 2019/1937
y 2020/1828, http://data.europa.eu/eli/reg/2022/1925/oj
7
Reglamento 2022/2065 del Parlamento Europeo y del Consejo de 19 de octubre de 2022 relativo a un
mercado único de servicios digitales y por el que se modifica la Directiva 2000/31/CE (Reglamento de
Servicios Digitales), http://data.europa.eu/eli/reg/2022/2065/oj
8
Propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial
(Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión, Doc. COM
(2021) 206 final.
9
Propuesta de Reglamento sobre normas armonizadas para un acceso justo a los datos y su utilización (Ley
de Datos), Doc. COM (2022) 68 final.
10
DE GREGORIO, G. “The rise of digital constitutionalism in the European Union”, International Journal
of Constitutional Law, Vol. 19, Issue 1, 2021, pp. 41–70, https://doi.org/10.1093/icon/moab001
11
En mejor ejemplo es el Reglamento 2019/1150 sobre el fomento de la equidad y la transparencia para los
usuarios profesionales de servicios de intermediación en línea (http://data.europa.eu/eli/reg/2019/1150/oj)
que establece obligaciones para las plataformas en relación con el contenido de las condiciones generales
aplicables en las relaciones con los llamados usuarios profesionales, asi como sobre los parámetros
utilizados en los motores de búsquedas.
12
En el mismo sentido, GASCÓN MACÉN, A., “El Reglamento General de Protección de Datos como
modelo de las recientes propuestas de legislación digital europea”, CDT, Vol 13(2), 2021, pp. 209-232.
https://doi.org/10.20318/cdt.2021.6256; PAPAKONSTANTINOU, V. / DE HERT, P. “Post GDPR EU
laws and their GDPR mimesis. DGA, DSA, DMA and the EU regulation of AI”, European Law Blog, 1
abril 2021, https://europeanlawblog.eu/2021/04/01/post-gdpr-eu-laws-and-their-gdpr-mimesis-dga-dsa-
dma-and-the-eu-regulation-of-ai/.
13
Y ello aunque en las propuestas legislativas se les denomine “leyes”. Sobre el particular,
PAPAKONSTANTINOU, V. / DE HERT, P., “EU lawmaking in the Artificial Intelligent Age: Act-
ification, GDPR mimesis, and regulatory brutality”, European Law Blog, 8 julio 2021, disponible en
https://europeanlawblog.eu/2021/07/08/eu-lawmaking-in-the-artificial-intelligent-age-act-ification-gdpr-
mimesis-and-regulatory-brutality/
14
A modo de ejemplo, pueden consultarse los requisitos y obligaciones de los proveedores de sistemas de
IA de alto riesgo previstos en los arts. 8 a 25 PLIA; o las obligaciones de diligencia debida establecidas en
los arts.11 a 48 RSD para las diversas categorías de prestadores de servicios; o los requisitos aplicables a
los prestadores de servicios de intercambio de datos en los arts. 10 a 12 RGD.
15
En el caso de PRIA, el derecho a presentar una reclamación por parte de una persona física o grupo de
personas afectadas por el incumplimiento del Reglamento ha sido introducido por el Parlamento en el art.
6a. En algunos instrumentos como el RSD incluso se plantea una tercera vía gracias a la obligación impuesta
a los prestadores de plataformas en linea de introducir sistemas internos de reclamación (art. 20) y de utilizar
mecanismos alternativos de resolución de controversias (Art 21).
16
Comité Europeo de Inteligencia Artificial (Art. 56 PLIA), si bien el Parlamento propone cambiar su
nombre al de European Artificial Intelligence Office (AI Office) e incrementar considerablemente sus
funciones. Otros organismos colegiados previstos en las leyes digitales son: Comité Europeo de Innovación
en materia de Datos (Art. 29 RGD), Junta Europea de Servicios Digitales (art. 61 RSD), Grupo de Alto
Nivel (art. 40 RMD), que se unen al ya existente Comité Europeo de protección de datos (art. 68 RGPD)
17
Es de esperar que, al igual que ha ocurrido con las “leyes digitales europeas” ya adoptadas, la Ley de
Inteligencia Artificial acabe denominándose “Reglamento”. No obstante, en la medida en que por el
momento sigue en fase de propuesta, la denominaremos Ley. A los efectos del presente trabajo se ha
utilizado, además de la Propuesta de la Comisión Europea, la Posición común del Consejo de 22 noviembre
2022 (disponible en https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/en/pdf) y el
Texto de compromiso alcanzado por los comités del Parlamento Europeo (disponible en
https://www.europarl.europa.eu/news/es/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-
rules-on-artificial-intelligence) que, en el momento de escribir estas líneas estaba pendiente de ser votado
por el plenario.
18
Otros objetivos identificados en la Propuesta de la Comision son: “garantizar la seguridad jurídica para
facilitar la inversión e innovación en IA; mejorar la gobernanza y la aplicación efectiva de la legislación
vigente en materia de derechos fundamentales y los requisitos de seguridad aplicables a los sistemas de IA;
facilitar el desarrollo de un mercado único para hacer un uso legal, seguro y fiable de las aplicaciones de
IA y evitar la fragmentación del mercado”.
19
GREENLEAF, G., “The ‘Brussels Effect’ of the EU’s ‘AI Act’ on Data Privacy Outside Europe”, Privacy
Laws & Business International Report, num. 171, 2021, pp. 3-7, disponible
en https://ssrn.com/abstract=3898904
20
Sobre el concepto de norma de conflicto unilateral puede consultarse: CARRASCOSA GONZALEZ, J.,
Derecho internacional privado y dogmática jurídica, Granada, Comares, 2021, pp. 81 ss; FERNANDEZ
ROZAS, J. C. / SANCHEZ LORENZO, S., Derecho internacional privado, 12 Ed, Thomson-Reuters,
2022, pars. 84 ss.; CALVO CARAVACA, A-L / CARRASCOSA GONZALEZ, J., Tratado de Derecho
internacional privado, 2ª Ed, Valencia, Tirant lo blanch, 2022, pp. 520 ss.
21
LUTZI, T., “The Scope of the Digital Services Act and Digital Markets Act: Thoughts on the Conflict of
Laws”, Dalloz IP/IT, 22 Febrero 2023 (en prensa). disponible en http://dx.doi.org/10.2139/ssrn.4367531
22
Art. 3.2: “toda persona física o jurídica, autoridad pública, agencia u organismo de otra índole que
desarrolle un sistema de IA o para el que se haya desarrollado un sistema de IA con vistas a introducirlo en
el mercado o ponerlo en servicio con su propio nombre o marca comercial, ya sea de manera remunerada
o gratuita”.
23
Art. 3.4: “toda persona física o jurídica, autoridad pública, agencia u organismo de otra índole que utilice
un sistema de IA bajo su propia autoridad, salvo cuando su uso se enmarque en una actividad personal de
carácter no profesional”. El Parlamento Europeo propone cambiar este término por el de
“implementadores” (“deployers” en inglés)
24
Art. 3.5: “toda persona física o jurídica establecida en la Unión que haya recibido el mandato por escrito
de un proveedor de un sistema de IA para cumplir las obligaciones y llevar a cabo los procedimientos
establecidos en el presente Reglamento en representación de dicho proveedor”.
25
Art. 3.6: “toda persona física o jurídica establecida en la Unión que introduzca en el mercado o ponga en
servicio un sistema de IA que lleve el nombre o la marca comercial de una persona física o jurídica
establecida fuera de la Unión”.
Para estos operadores resulta fundamental, antes de llevar a cabo su actividad económica,
saber si el Reglamento les resultará aplicable. En principio, la respuesta podría parecer
sencilla: la futura normativa será de aplicación a sistemas IA que funcionan como
componentes de productos29 o que son productos en sí mismos que se pretenden
comercializar30 o poner en servicio31 en el mercado UE. Esta afirmación puede ser correcta
en relación con importadores y distribuidores. No así para proveedores, usuarios y
representantes autorizados. Al respecto debe recordarse que Internet es un medio global.
Por consiguiente, cualquier sistema IA desarrollados por proveedores o utilizados por
usuarios establecidos en terceros Estados resultan accesibles por potenciales clientes
ubicados en Europa. ¿Resulta esto suficiente para que el Reglamento resulte aplicable? A
tenor del art. 2.1 PLIA, la respuesta debe ser negativa. Esta disposición establece unos
criterios de conexión que, en principio, implican que el futuro Reglamento únicamente se
va a aplicar a proveedores y usuarios que llevan a cabo actividades que presentan una
vinculación estrecha con la Unión Europea. Tales criterios están basados en las doctrinas
de los “efectos en el mercado”32 y de las “actividades dirigidas”33 existentes en otras ramas
jurídicas. No obstante, como se analizará en el apartado III, la manera en la que están
redactados es defectuosa y pueden conllevar dos consecuencias: inseguridad jurídica de
los operadores a los que, en ocasiones, les puede resultar difícil determinar si están
obligados a cumplir con los requisitos y obligaciones establecidas en el Reglamento; y
aplicación injustificada de la futura normativa a actividades que no presentan suficiente
vinculación con la Unión.
26
Art. 3.7: “toda persona física o jurídica que forme parte de la cadena de suministro, distinta del proveedor
o el importador, que comercializa un sistema de IA en el mercado de la Unión sin influir sobre sus
propiedades”.
27
Art. 3.1: “el software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran
en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar
información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los
entornos con los que interactúa”.
28
Art. 3.8.
29
Art. 3.14: “un componente de un producto o un sistema que cumple una función de seguridad para dicho
producto o sistema, o cuyo fallo o defecto de funcionamiento pone en peligro la salud y la seguridad de las
personas o los bienes”.
30
Art. 3.10: “todo suministro de un sistema de IA para su distribución o utilización en el mercado de la
Unión en el transcurso de una actividad comercial, ya se produzca el suministro de manera remunerada o
gratuita”.
31
Art. 3.11: “el suministro de un sistema de IA para su primer uso directamente al usuario o para uso propio
en el mercado de la Unión de acuerdo con su finalidad prevista”.
32
En materia de Derecho de la competencia. Sobre el particular, MONTI, G., “The Global Reach of EU
Competition Law”, in Cremona, Marise, and Joanne Scott (eds), EU Law Beyond EU Borders: The
Extraterritorial Reach of EU Law (Oxford, 2019; online edn, Oxford Academic, 20 June 2019), pp. 174-
196.
33
En materia de contratos celebrados por los consumidores. Sobre el particular, LOPEZ-TARRUELLA,
A., “El criterio de las actividades dirigidas como concepto autónomo de DIPr de la Unión Europea para la
regulación de las actividades en internet”, REDI, vol. 69 (2), 2017, pp. 223-256,
http://dx.doi.org/10.17103/redi.69.2.2017.1.09
34
Art. 59.
35
http://data.europa.eu/eli/reg/2019/1020/oj
36
Art. 77.
37
Art. 53 RSD; Art. 14.1 in fine y 24.1 in fine RGD; Art. 32.1 PLD.
38
SMUHA, N. et al, “How the EU Can Achieve Legally Trustworthy AI: A Response to the European
Commission’s Proposal for an Artificial Intelligence Act”, 2021, disponible en
https://ssrn.com/abstract=3899991; EBERS, M. et al., “The European Commission’s Proposal for an
Artificial Intelligence Act—A Critical Assessment by Members of the Robotics and AI Law Society
(RAILS)”, J, vol. 4, 2021, pp. 589-603. https://doi.org/10.3390/j4040043; VEALE, M. y ZUIDERVEEN
BORGESIUS, F.J., “Demystifying the Draft EU Artificial Intelligence Act — Analysing the good, the bad,
and the unclear elements of the proposed approach”, Computer Law Review International, vol. 22, 2021,
pp. 97 – 112, esp. 111; LÚCIA RAPOSO, V. “Ex machina: preliminary critical assessment of the European
Draft Act on artificial intelligence”, International Journal of Law and Information Technology, Vol. 30,
Issue 1, 2022, p. 102.
39
EUROPEAN DATA PROTECTION BOARD / EUROPEAN DATA PROTECTION SUPERVISOR,
“Joint Opinion 5/2021 on the Proposal for a Regulation of the European Parliament and of the Council
Laying down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act)”, 18 June 2021, p.
18, disponible en https://edpb.europa.eu/our-work-tools/our-documents/edpbedps-joint-opinion/edpb-
edps-joint-opinion-52021-proposal_en
9. Desde la perspectiva de estas autoridades, el art. 2.1 PLIA no sólo constituye una
norma de Derecho aplicable, sino también una norma de jurisdicción. Pero no en el
sentido tradicional que se atribuye al término en DIPr., por cuanto lo que determina el art.
2.1 RIA no es la competencia judicial internacional de los tribunales de un determinado
Estado, sino la competencia internacional de las autoridades administrativas designadas
por los Estados miembros para conocer de reclamaciones relacionadas con el
cumplimiento del Reglamento iniciadas ex officio o, eventualmente, a instancia de
particulares. Desde esta perspectiva, como órganos de naturaleza administrativa que son,
su competencia en situaciones internacionales no se determina a partir del Reglamento
1215/2012 (R. Bruselas I)41, sino a partir del art. 2.1 PLIA.
40
“Without prejudice to any other administrative or judicial remedy, every natural persons or groups of
natural persons shall have the right to lodge a complaint with a national supervisory authority, in
particular in the Member State of his or her habitual residence, place of work or place of the alleged
infringement if they consider that the AI system relating to him or her infringes this Regulation”.
41
Reglamento 1215/2012 del Parlamento Europeo y del Consejo, de 12 de diciembre de 2012, relativo a la
competencia judicial, el reconocimiento y la ejecución de resoluciones judiciales en materia civil y
mercantil, DO L núm. 351, de 20 de diciembre de 2012.
42
BUREAU D / MUIR WATT, H., Droit international privé, 3eme Ed., Puf, Paris, 2021, p. 107.
43
DE MIGUEL ASENSIO, P., Derecho privado de Internet, 6ª Ed, Civitas, Madrid, 2022, p. 411.
3. Aplicación del Art. 2.1 por los tribunales de justicia: el carácter de ley de
policía del Reglamento.
11. La última perspectiva de análisis del art. 2.1 es la de los tribunales de justicia. En
ocasiones puede ocurrir que la aplicación del futuro Reglamento se plantee en el marco
de una acción civil presentada ante un órgano judicial relativa, por ejemplo, a una
responsabilidad extracontractual derivada del funcionamiento defectuoso de un sistema
IA, o al incumplimiento de un contrato celebrado entre un proveedor de sistemas IA y un
usuario, o a una disputa entre cualquiera de estos y un particular que es parte de un
contrato de prestación de servicios en los que se utilizan estos sistemas. En dichos litigios,
el incumplimiento de los requisitos u obligaciones establecidos en el Reglamento para las
distintas categorías de sistemas IA puede ser invocado como fundamento de la demanda.
Tal y como se explica a continuación, en estos casos, el Art. 2.1 PLAI actúa como la
norma de extensión que determina en que supuestos internacionales resulta aplicable el
Reglamento en su condición de ley de policía.
44
La competencia de estas autoridades es territorial por lo que, para los incumplimientos de dimensión
transfronteriza, la propuesta establece un procedimiento de coordinación entre autoridades nacionales (art.
65), y otro llamado de “salvaguarda de la Unión” que implica la intervención de la Comisión Europea (art.
66).
45
Reglamento 864/2007 del Parlamento Europeo y del Consejo, de 11 de julio de 2007 , relativo a la ley
aplicable a las obligaciones extracontractuales, http://data.europa.eu/eli/reg/2007/864/oj
46
CAPPIELLO, B., AI Systems and Non-contractual Liability: A European Private International Law
Analysis, Giappichelli 2022. También deben tenerse en cuenta el Convenio de La Haya de 1971 sobre la
ley aplicable a accidentes de circulación por carretera, por la relevancia que puede tener en relación con
accidentes de vehículos autónomos, y el Convenio de La Haya de 1973 sobre la ley aplicable a la
responsabilidad por productos defectuosos. En este sentido, PATO, A., “Artificial intelligence and private
international law: an exotic cocktail pepped up with innovative research questions”, Lvcentinvs, 5 Julio
2021, disponible en https://www.lvcentinvs.es/2021/07/05/artificial-intelligence-and-private-international-
law-an-exotic-cocktail-pepped-up-with-innovative-research-questions/; LAFUENTE SANCHEZ, R.,
“Compatibilidad del futuro régimen de responsabilidad civil en materia de IA con las normas de Derecho
internacional privado en los accidentes de tráfico transfronterizo causados por vehículos automatizados”,
AEDIPr, vol XXII, 2023, pp. 139-180, http://dx.doi.org/10.19194/aedipr.22.04
47
Reglamento 593/2008 del Parlamento Europeo y del Consejo, de 17 de junio de 2008 , sobre la ley
aplicable a las obligaciones contractuales (Roma I), DO L núm. 177 de 4 julio 2008.
48
POESEN, M, “Regulating Artificial Intelligence (AI) in the European Union (EU): Exploring the Role
of Private International Law” in X, Recht in beweging – 29ste VRG-Alumnidag 2022, Gompel&Svacina,
2022, pp. 297-314, http://dx.doi.org/10.2139/ssrn.3959643
12. De acuerdo con el Art. 9.1 R. Roma I, “una ley de policía es una disposición cuya
observancia un país considera esencial para la salvaguardia de sus intereses públicos, tales
como su organización política, social o económica, hasta el punto de exigir su aplicación
a toda situación comprendida dentro de su ámbito de aplicación, cualquiera que fuese la
ley aplicable al contrato […]”49.
A mi modo de ver, no cabe ninguna duda de que, en atención a los objetivos que persigue,
la PLAI es una ley de policía en el sentido de esta disposición50. Al respecto, basta con
recordar que el considerando 1 señala que “[e]l presente Reglamento persigue varios fines
imperiosos de interés general, tales como asegurar un nivel elevado de protección de la
salud, la seguridad y los derechos humanos […]”.
13. Tratándose de una ley de policía, el art. 9.2 R. Roma I (para los litigios en materia
contractual) y el art. 16 R. Roma II (para los litigios por responsabilidad extracontractual)
conllevan la aplicación preferencial del futuro Reglamento con respecto al Derecho
nacional designado como aplicable por la norma de conflicto establecida en esos
reglamentos. Es decir, incluso en el caso de que el Derecho aplicable al litigio sea el de
un tercer Estado51, el tribunal competente está obligado a aplicar con carácter preferente
la futura normativa.
Ahora bien, la PLAI no resulta aplicable con carácter universal. El futuro Reglamento es
aplicable tan sólo en supuestos que presentan una vinculación estrecha con la Unión
Europea. Es decir, en aquellas situaciones en las que los objetivos protegidos por el
Reglamento pueden resultar afectados. Esta necesidad de delimitar en el espacio la
aplicación de la normativa europea no es nueva52. También se puede encontrar en la
jurisprudencia reciente del TJUE. Así, en su sentencia de 24 septiembre 2019, C-507/17,
“Google France”, el TJUE entendió que la normativa sobre derecho al olvido únicamente
resulta aplicable cuando la búsqueda a partir del nombre del interesado en un motor de
49
Esta definición tiene su origen en la STJUE 23 Noviembre 1999, C-376/96, “Arblade”.
50
Esta misma afirmación se ha realizado en relación con el RGDP por DE MIGUEL ASENCIO, P., (op.
cit., p. 410) y SVANTESSON, D. J. B. (“Article 3. Territorial scope”, en C. Kuner, L. A. Bygrave, & C.
Docksey (Eds.), The EU General Data Protection Regulation (GDPR): A commentary, Oxford University
Press, 2019, pp. 74–99, esp. 82) y puede realizarse, igualmente, en relación con el resto de leyes digitales
europeas. Así, por ejemplo, el considerando 3 RSD indica que “[e]s esencial que los prestadores de servicios
intermediarios se comporten de modo responsable y diligente para crear un entorno en línea seguro,
predecible y digno de confianza, y para que los ciudadanos de la Unión y otras personas puedan ejercer los
derechos garantizados por la Carta de los Derechos Fundamentales de la Unión Europea (en lo sucesivo,
«Carta»), en particular la libertad de expresión y de información, la libertad de empresa, el derecho a la no
discriminación y la garantía de un nivel elevado de protección de los consumidores”.
51
Al respecto debe recordarse que las normas de conflicto europeas permiten a las partes elegir el Derecho
aplicable tanto en litigios de naturaleza contractual (art. 3 R. Roma I) como extracontractual (art. 14 R.
Roma II), circunstancia que puede obligar a los tribunales de los Estados miembros a aplicar la ley de un
tercer Estado.
52
Al respecto, FRANC, S. “The Scope of Secondary Community Law in the Light of the Methods of Private
International Law – or the Other Way Round?”, YPIL, vol. 8, 2006, pp. 333-374; KRAMER, X. E., “The
Interaction between Roma I and Mandatory EU Private Rules – EPIL and EPL: Communicating Vessels?”,
P. Stone / Y. Farah (eds.), Research Handbook on EU Private International Law, Cheltenham, Edward
Elgar Publishing, 2015; WILDESPIN, M. / LEWIS, X., “Les relations entre le droit Communautaire et les
régles de conflits de lois des États-membres”, RCDIP, 2002, p. 1 ss.
- 10 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados
En el caso del futuro Reglamento de inteligencia artificial, no será necesario que el TJUE
establezca por vía interpretativa los supuestos en los que resulta aplicable, por cuanto
éstos vienen establecidos en una norma de extensión, el Art. 2.1. En los litigios planteados
ante tribunales civiles, esta disposición establece los supuestos en los que las
disposiciones del Reglamento resultarán aplicables como leyes de policía.
14. Del análisis propuesto se puede criticar que supone añadir un grado más de
dificultad a la determinación el Derecho aplicable a las relaciones internacionales en el
entorno digital: no sólo es necesario designar la ley nacional aplicable a partir de los
instrumentos generales de DIPr., sino también debe tenerse en cuenta el Reglamento IA
(así como el resto de leyes digitales europeas) como ley de policía54. No obstante, la
fórmula no es nueva: la necesidad de tomar en consideración las leyes de policía es una
constante en la regulación de las situaciones privadas internacionales55. Bien es cierto que
esto se ha vuelto más evidente en la regulación del entorno digital por cuanto, al contrario
que en otras materias, los intereses europeos sólo pueden resultar plenamente
garantizados mediante la adopción de leyes de policía.
La introducción de una norma de conflicto bilateral que ayudara a designar la ley nacional
aplicable, tal y como propone Lutzi para los RSD y RMD56, sería contraproducente. Y
ello porque, por la misma razón, dicha norma también debería introducirse en el resto de
leyes digitales europeas. Esto obligaría al aplicador del Derecho, no sólo en este escenario
sino también en los descritos en los apartados anteriores, a conocer los supuestos en los
que se aplicarían las normas de conflicto de los instrumentos generales de DIPr., y en
cuales las establecidas en cada uno de los Reglamentos. A mi modo de ver esto
incrementaría la complejidad en la regulación de las situaciones privadas internacionales.
53
Un comentario a ambas sentencias puede encontrarse en LOPEZ-TARRUELLA MARTINEZ, A., “El
ámbito territorial de protección de los derechos de la personalidad en el entorno de Internet (a propósito de
las sentencias del TJUE de 24 de septiembre de 2019, C-507/17, Google, y de 3 de octubre de 2019, C-
18/18, Glawischnig-Piesczek)”, en la Crónica de Derecho internacional privado de REEI, vol 38, 2019, pp.
27-37.
54
LUTZI, T., “The scope…”, op. cit., p. 3.
55
ZARRA, G., Imperativeness in Private International Law, T.M.C. Asser Press, The Hague, 2021, pp.
109 ss.
56
Así lo propone LUTZI, T., “The scope…”, op. cit., p. 6.
- 11 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)
III. LA
EXTRATERRITORIALIDAD DE LA PROPUESTA DE LEY DE
INTELIGENCIA ARTIFICIAL
15. En la redacción propuesta por la Comisión Europea, el Art. 2.1 PLIA, que como
hemos dicho puede ser aplicado desde una triple perspectiva, establece lo siguiente:
57
GSTREIN, O. J. & ZWITTER, A. J., “Extraterritorial application of the GDPR: promoting European
values or power?”. Internet Policy Review, 10(3), 2021, https://doi.org/10.14763/2021.3.1576
58
SVANTESSON, D., “The European Union Artificial Intelligence Act: Potential implications for
Australia”, Alternative Law Journal, 47(1), 2022, pp. 4–9.
https://doi.org.bua.idm.oclc.org/10.1177/1037969X211052339
59
“Con el objetivo de garantizar la igualdad de condiciones y la protección efectiva de los derechos y
libertades de las personas en toda la Unión, las normas establecidas en el presente Reglamento deben
aplicarse a los proveedores de sistemas de IA sin discriminación, con independencia de si están establecidos
en la Unión o en un tercer país, y a los usuarios de sistemas de IA establecidos en la Unión”.
- 12 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados
18. Algunos autores han afirmado que la aplicación extraterritorial del Reglamento
también resulta necesaria para evitar la huida de empresas digitales europeas a terceros
Estados con el propósito de beneficiarse de legislaciones que establecen requisitos y
obligaciones menos estrictos que los establecidos en la legislación europea60. De acuerdo
con estos autores, los criterios de conexión del art. 2.1 desincentivan esta práctica por
cuanto, incluso si estas empresas se establecen en terceros Estados, el Reglamento les
resultará aplicable cuando comercialicen o pongan en servicio sus sistemas IA en el
mercado de la Unión.
60
BOMHARD, D., MERKLE, M., “Regulation of Artificial Intelligence”, Journal of European Consumer
and Market Law, vol. 10, Issue 6, 2021, pp. 257-261,
https://kluwerlawonline.com/journalarticle/Journal+of+European+Consumer+and+Market+Law/10.6/Eu
CML2021049; Ebers, M. et al., op. cit., p. 583.
- 13 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)
2. Supuestos en los que los criterios de conexión del Art. 2.1 llevan a una
aplicación extraterritorial injustificada del Reglamento
20. De acuerdo con el art. 2.1 a), el Reglamento resulta aplicable “a los proveedores
que introduzcan en el mercado o pongan en servicio sistemas de IA en la Unión, con
independencia de si dichos proveedores están establecidos en la Unión o en un tercer
país”. Se trata de un criterio de conexión informado por la doctrina jurisprudencial de las
“actividades dirigidas”, utilizado por ejemplo en materia de contratos celebrados por los
consumidores en Internet61, o de infracción en línea de títulos unitarios de propiedad
industrial62. Este criterio garantiza que el Reglamento resulta aplicable en situaciones que
presentan una estrecha vinculación con la Unión.
61
STJUE de 7 Diciembre 2010, C-585/08 y C-144/09, “Pammer” y “Hotel Alpenhof”.
62
STJUE de 5 Septiembre 2019, C-172/18, “AMS Neve”.
63
SVANTESSON, D., “The European Union…”, op. cit., p. 7.
64
Una combinación de las propuestas de enmiendas planteadas por ambas instituciones tendría como
resultado el siguiente texto:
“Art. 2. Scope
1. This Regulation applies to:
(a) providers placing on the market or putting into service AI systems in the Union, irrespective of
whether those providers are established within the Union or in a third country;
- 14 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados
Una segunda crítica tiene que ver con la diferencia de trato que se genera, incluso
adoptando la modificación propuesta, entre proveedores y usuarios de sistemas IA.
Efectivamente, la PLIA no resulta aplicable a proveedores establecidos en la Unión
Europea que comercializan sus sistemas IA exclusivamente en terceros Estados; en
cambio, si resulta aplicable a usuarios establecidos en la Unión que prestan sus servicios
en terceros Estados. La diferencia de trato resulta injustificada. En ambos casos la
vinculación con la Unión Europea es la misma. Si la intención es que los usuarios
europeos de sistemas IA respeten los estándares previstos en el Reglamento con
independencia del país en el que ofrezcan sus servicios, los proveedores establecidos en
la Unión Europea que comercialicen sistemas IA en terceros Estados también deberían
cumplir con esos estándares65.
Alternativamente, se podría defender una modificación del art. 2.1 b) para que el
Reglamento únicamente fuera aplicable a usuarios de sistemas IA cuando la información
de salida generada por el sistema se utilice en la Unión, independientemente de si tienen
su residencia habitual o establecimiento en territorio europeo o no. Esta modificación
afectaría, en cualquier caso, al tercer criterio de conexión previsto, que se analiza a
continuación.
(b) deployers of AI systems that have their place of establishment or who are located within the
Union;
(c) providers and deployers of AI systems that have their place of establishment or are located in
a third country, where either Member State law applies by virtue of public international law or the output
produced by the system is intended to be used in the Union;
(ca) providers placing on the market or putting into service AI systems referred to in Article 5
outside the Union where the provider or distributor of such system is located within the Union;
(cb) importers and distributors of AI systems as well as authorized representatives of providers
of AI systems, where such importers, distributors or authorized representatives have their establishment or
are located in the Union;
(cc) affected persons as defined in Art. 3(8a) that are located in the Union and whose health, safety
or fundamental rights were adversely impacted by the use of an AI system that was placed on the market
or put into service in the Union;
(e) product manufacturers placing on the market or putting into service an AI system
together with their product and under their own name or trademark”.
65
VEALE, M., / ZUIDERVEEN BORGESIUS, F.J., (op. cit., p. 101) han denunciado que ciertas empresas
europeas han desarrollado para gobiernos de países extranjeros sistemas IA que estarían prohibidos en
Europa de estar en vigor el art. 5 Reglamento.
66
Al respecto, véase la modificación introducida por el Parlamento en el considerando 11: “In order for the
European Union to be true to its fundamental values, AI systems intended to be used for practices that are
considered unacceptable by this Regulation, should equally be deemed unacceptable outside the EU
because of their particularly harmful effect to fundamental rights as enshrined in the Charter of
Fundamental Rights of the European Union. Therefore it is appropriate to prohibit the export of such AI
systems to third countries by providers residing in the Union”.
- 15 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)
22. En atención al art. 2.1 c), el Reglamento también resulta aplicable “a los
proveedores y usuarios de sistemas de IA que se encuentren en un tercer país, cuando la
información de salida generada por el sistema67 se utilice en la Unión”. Se trata de un
criterio que puede conllevar una aplicación extraterritorial injustificada del Reglamento;
y que éste resulte aplicable en situaciones difícilmente previsibles para proveedores de
sistemas IA establecidos en terceros Estados.
De acuerdo con el considerando 11, la finalidad de este criterio de conexión es evitar que
la aplicación del Reglamento pueda ser eludida70. Si bien el objetivo está justificado, en
situaciones como la planteada, la normativa debería resultar aplicable al usuario
canadiense del ejemplo, pero no al proveedor estadounidense por cuanto éste último
nunca tuvo la intención de hacer negocios en la Unión. Tal y como está redactada la
disposición, los proveedores establecidos en terceros Estados estarían obligados a
controlar si alguno de los usuarios a los que ha vendido sus sistemas IA los utilizan para
67
Aunque el Reglamento no lo define, por “información de salida” cabe entender la información generada
por el sistema IA en forma de contenidos (sistemas IA generative), predicciones, recomendaciones o
decisiones. En este sentido, IPEK, M. “EU Draft Artificial Intelligence Regulation: Extraterritorial
Application and Effects”, European Law Blog, 17 february 2021, available at
https://europeanlawblog.eu/2022/02/17/eu-draft-artificial-intelligence-regulation-extraterritorial-
application-and-effects/
68
Debe recordarse que las obligaciones de los usuarios de sistemas IA son diferentes de las establecidas
para los proveedores. Debe prestarse atención, en particular, a los arts. 28 y 29 PLIA para los usuarios de
sistemas IA de alto riesgo, y las obligaciones generales de transparencia del art. 52.
69
En este sentido, DE MIGUEL ASENSIO, P.A., “Propuesta de Reglamento sobre inteligencia artificial”.
La Ley Unión Europea, núm. 92, mayo 2021.
70
“Para evitar la elusión de este Reglamento y asegurar la protección efectiva de las personas físicas
ubicadas en la Unión, el presente Reglamento también debe aplicarse a los proveedores y usuarios de
sistemas de IA establecidos en un tercer país, en la medida en que la información de salida generada por
dichos sistemas se utilice en la Unión”.
- 16 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados
Tercero, la inclusión del criterio de conexión de la letra (cc) llama a confusión por cuanto
no establece la aplicación del Reglamento a las personas afectadas71 que se encuentran en
la UE por la información generada por un sistema IA que se tiene la intención de utilizar
en la Unión. La coherencia con el criterio de conexión de la letra (c) obliga a incluir a
esta categoría de personas.
23. En fin, la letra (cb) propuesta por el Parlamento Europeo mejora el contenido de
la disposición inicialmente propuesta en la Posición común del Consejo, pero es
superflua: la aplicación del Reglamento a los distribuidores o importadores de sistemas
IA y a los representantes autorizados se deriva de su establecimiento en la Unión, pero
solo en el caso de que el sistema IA en particular sea puesto en el mercado o utilizado por
un proveedor o un usuario/implementador que cumpla con las condiciones mencionadas
en las letras (a), (b) o (c) del Art. 2.1.
71
De acuerdo con la propuesta de art. 3 (8a) del Parlamento, la definición de persona afectada (affected
persons) es: “any natural person or group of persons who are subject to or otherwise affected by an AI
system”.
- 17 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)
25. El problema se vuelve más grave en aquellos supuestos en los que el proveedor
establecido en un tercer Estado pone en servicio el sistema IA en la Unión europea por
medios electrónicos, sin que intervenga ningún intermediario; o un usuario de sistema IA
establecido en un tercer Estado ofrece sus servicios en la Unión por medios telemáticos.
Como en el caso anterior, las medidas y sanciones adoptadas por una autoridad nacional
sólo despliegan efectos en el territorio nacional y, en todo caso, podrán venir
acompañadas de otras medidas adoptadas por las autoridades de otros Estados miembros
validas, igualmente, para sus territorios nacionales. En caso de que el proveedor o usuario
no cumplan voluntariamente con dichas medidas, ¿cómo pueden asegurarse su ejecución
en terceros Estados? En la medida en que se tratan de medidas de naturaleza
administrativa, no se puede plantear el reconocimiento de la medida en el tercer Estado
en cuestión para que sus autoridades la ejecuten. El hecho que estas medidas no han sido
adoptadas por tribunales de justicia impide el recurso a los convenios internacionales
sobre reconocimiento y ejecución de resoluciones extranjeras en materia civil y mercantil
existentes con el tercer Estado de establecimiento del proveedor o usuario de sistemas IA,
o a la legislación interna en la materia en dicho tercer Estado.
26. La PLIA puede ser objeto de la misma crítica que D. Svantesson ha realizado en
relación con el extenso ámbito de aplicación territorial del RGPD: en la medida en que
resulta imposible para las autoridades europeas fiscalizar todas las situaciones cubiertas
72
Art. 26 and 27.
73
Así se deriva de la naturaleza administrativa de la autoridad, si bien el Parlamento propone indicarlo
expresamente en el nuevo art. 59a.
- 18 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados
La obligación está copiada del art. 27 RGPD y también se establece en el resto de leyes
digitales europeas75. Su finalidad es facilitar el control por las autoridades nacionales
competentes del cumplimiento de los reglamentos por parte de las empresas establecidas
en terceros Estados76. Si bien es de esperar que se designará una única entidad como
representante autorizado para cada uno de los reglamentos, la obligación ha sido criticada
por la carga que conlleva, en particular, para pequeñas y medianas empresas de terceros
Estados que desean acceder al mercado europeo77. La falta de designación está
severamente sancionada tanto en el RGPD78 como en la PLIA79.
En primer lugar, como su nombre expresa, los “representantes autorizados” actúan como
representantes. Es decir, no asumen la responsabilidad por el incumplimiento del
Reglamento y, por lo tanto, no pueden ser sancionados. Esto parece ser una novedad
respecto del RGPD donde, aunque el articulado no lo diga expresamente, el considerando
74
SVANTESSON, D. J. B., “Article 3…”, op. cit., p. 95.
75
Véase, por ejemplo, el art. 13 RSD o art. 11.3 RGD.
76
GASCON MARCEN, I., op. cit., p. 222.
77
SVANTESSON, D. J. B., “Internet & Jurisdiction Global Status Report 2019”, Internet & Jurisdiction
Policy Network, 2019, p. 147.
78
Art. 83.4 a).
79
Art. 71.4: “El incumplimiento por parte del sistema de IA de cualquiera de los requisitos u obligaciones
establecidos en el presente Reglamento distintos de los dispuestos en los artículos 5 y 10 estará sujeto a
multas administrativas de hasta 20 000 000 EUR o, si el infractor es una empresa, de hasta el 4 % del
volumen de negocio total anual mundial del ejercicio financiero anterior, si esta cuantía fuese superior.”.
80
En el mismo sentido, en relación con el RGPD, KUNER, C, “Protecting EU data outside EU borders
under the GDPR”, Common Market Law Review, vol 60- 1, 2023, pp. 77-106, esp. 100.
- 19 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)
Las modificaciones de esta disposición propuestas por los comités del Parlamento
Europeo no reducen ninguna de estas carencias.
De acuerdo con el art. 65, cuando una autoridad de vigilancia del mercado realiza una
evaluación que da como resultado que un sistema IA no cumple con los requisitos del
Reglamento, solicitará al operador que adopte todas las medidas correctoras oportunas
para adaptar el sistema IA a los requisitos incumplidos o bien lo retire del mercado82. En
caso de no obedecer la solicitud en el plazo establecido, la autoridad adoptará “todas las
medidas provisionales adecuadas para prohibir o restringir la comercialización del
sistema IA en su mercado nacional, retirarlo de dicho mercado o recuperarlo”. Tales
medidas devendrán definitivas si no existe objeción, en el plazo de 3 meses83, por parte
de las autoridades de otros Estados miembros en los que también se verifica el
incumplimiento o de la Comisión84.
De modo similar, en relación con el incumplimiento de ciertas obligaciones particulares,
el art. 68.2 estable que la autoridad nacional competente deberá adoptar “todas las
81
Véase el art. 29.
82
En el mismo sentido se expresa el art. 67 en relación con los sistemas IA conformes pero que pueden
generar un riesgo.
83
El Parlamento propone reducir el plazo a 30 días cuando se trata de sistemas IA que incurren en alguna
de las prohibiciones del art. 5.
84
Art. 65.8. Si se plantean objeciones entra en funcionamiento el procedimiento de salvaguarda de la Unión,
previsto en el art. 66.
- 20 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados
En el caso de proveedores y usuarios que presten sus servicios desde terceros Estados,
entre las “medidas adecuadas” a las que se refieren estas disposiciones de la PLIA debe
incluirse los requerimientos a los prestadores de servicios de la sociedad de la información
para que bloqueen el acceso desde el territorio de la Unión a la interfaz de los sistemas
IA albergados en los servidores de estos proveedores y usuarios que, presumiblemente,
estarán localizados en terceros Estados. Resulta criticable, en cualquier caso, que la
medida no sea objeto de una regulación más extensa en el Reglamento. Sí está
mencionada, al menos, en el art. 14.4 k) Reglamento 2019/1020, aplicable
subsidiariamente y solo para el caso de que “no se disponga de otros medios efectivos
para eliminar un riesgo grave”.
85
KUNER, C., op. cit., p. 102.
86
Art. 45.2
87
En el mismo sentido, DE MIGUEL ASENSIO, P.A., “Libro Blanco sobre inteligencia artificial:
evolución del marco normativo y aplicación efectiva”, La Ley Unión Europea, núm. 79, marzo 2020
- 21 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)
más allá de sus fronteras, aprovechándose de las dinámicas de los mercados, con el
resultado de que dichos estándares acaban adoptándose a nivel global88.
De acuerdo con A. Bradford, para que se produzca el efecto Bruselas es preciso que se
cumplan cinco condiciones
En primer lugar, el mercado de la jurisdicción que impone los estándares regulatorios
debe tener un gran tamaño. En el caso de la Unión Europea, se trata del mercado interior
más grande del mundo. Un número muy elevado de empresas de terceros Estados que se
dedican al comercio internacional dependen del mercado europeo para su viabilidad
económica. Muy pocas de ellas están en disposición de abandonar completamente ese
88
BRADFORD, A. “The Brussels Effect”, Northwestern University Law Review, vol. 107, num. 1, 2012,
p. 3, disponible en https://ssrn.com/abstract=2770634.
89
BRADFORD, A. “The Brussels…”, op. cit. p. 6.
90
BRADFORD, A., The Brussels Effect: How the European Union Rules the World, OUP, 2020.
91
GSTREIN, O. J. / ZWITTER, A. J., op. cit., p. 4 y 23; GREENLEAF, G., op. cit., p. 5.
92
SVANTESSON, D., “The European Union…”, op. cit., p. 6.
- 22 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados
mercado. Aunque los costes de cumplimiento legal sean elevados, las ganancias que se
derivan como consecuencia del tamaño del mercado las compensan93.
En segundo lugar, la Unión Europea cuenta con instituciones con competencia para
regular el acceso al mercado, y con autoridades nacionales o europeas que se encargan de
supervisar su funcionamiento y, en su caso, imponer sanciones. Al respecto, debe
recordarse que el nombramiento de autoridades nacionales competente como mecanismo
de refuerzo del aparato coercitivo de la Unión Europea, es uno de los elementos
característicos del nuevo modelo regulatorio europeo y está presente tanto en el RGPD
como en la PLIA.
En tercer lugar, las instituciones han optado por imponer estándares regulatorios estrictos.
Se trata, de nuevo, de otro de los elementos que caracterizan este nuevo modelo. Esta
preferencia por estándares regulatorios estrictos refleja el compromiso de la Unión con
una economía social de mercado94 y con el principio de precaución, que informa su
actividad legislativa: resulta preferible regular una actividad con carácter preventivo
incluso en ausencia de una seguridad cuantificable en cuanto al riesgo que dicha actividad
puede entrañar95. Ciertamente, la imposición de estándares regulatorios estrictos sólo es
posible en mercados como el de la Unión Europea, en el que los consumidores finales
gozan de rentas altas, por cuanto el aumento de los costes de cumplimiento normativo por
parte de las empresas conlleva un incremento de los precios finales de los productos y
servicios.
En quinto lugar, tanto el RGPD como la PLIA resultan aplicables a actividades de las
empresas que son indivisibles. Esto ocurre cuando resulta económica, técnica o
legalmente inviable dividir la actividad de la empresa en diferentes Estados para
beneficiarse, al menos parcialmente, de los estándares regulatorios más livianos
establecidos en otros Estados. En el caso del RGPD, resulta inviable tanto técnica como
económicamente, almacenar separadamente los datos personales de los europeos y los de
terceros Estados para, así, disfrutar de una mayor flexibilidad en el tratamiento de los
segundos. Tampoco resulta viable desde un punto de vista legal por cuanto, el régimen
aplicable en terceros Estados no es uniforme por lo que las subdivisiones en el
almacenamiento serían infinitas. Lo mismo se puede afirmar en relación con la PLIA:
93
BRADFORD, A. “The Brussels…”, op. cit. p. 11.
94
Art. 3.3 TUE
95
BRADFORD, A. “The Brussels…”, op. cit. p. 15.
- 23 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)
resultaría muy costoso diseñar sistemas IA específicos para la UE, que cumplieran con
los estándares del Reglamento, y otros para el resto del mundo. En las economías de
escala, los beneficios de adoptar el estándar de una única jurisdicción (aunque muy
elevado) con carácter global supera los costes más bajos de cumplimiento normativo
existentes en la pluralidad de Estados en los que se quiere comercializar los productos y
servicios. Esta circunstancia es la que permite a la UE dictar de manera efectiva los
estándares globales en materia de protección de datos personales y, presumiblemente, de
IA.
32. El efecto Bruselas tiene beneficios para las empresas europeas que ejercen sus
actividades en los mercados globales por cuanto, al cumplir con los estándares europeos,
los costes de cumplimiento normativo en terceros Estados se reducen. Ello es así porque,
presumiblemente, la normativa será similar a la europea. Esta similitud en los estándares
regulatorios permite a nuestras empresas competir en igualdad de condiciones con la
industria local en los mercados de esos terceros Estados98.
Se afirma, igualmente, que el efecto Bruselas favorece a los ciudadanos europeos pues
garantiza que, en sus actividades en terceros Estados, sus derechos van a recibir una
protección similar a la establecida en la normativa europea.
96
SVANTESSON, D., “The European Union…”, op. cit., p. 6.
97
Otro mecanismo que favorece el efecto Bruselas de iure, presente en el RGPD pero no en el RIA, son las
decisiones de adecuación para las transferencias internacionales de datos personales que obligan a los
terceros Estados a adaptar sus normativas en la materia a los estándares europeos.
98
BRADFORD, A. “The Brussels…”, op. cit. p. 40.
99
La Comisión Europea no perdió la oportunidad de resaltar esta circunstancia en su “Comunicación sobre
la protección de datos como pilar del empoderamiento de los ciudadanos y del enfoque de la UE para la
transición digital: dos años de aplicación del Reglamento General de Protección de Datos” (Doc.
COM(2020)): “El liderazgo de la UE en materia de protección de datos pone de manifiesto su capacidad
de establecer normas de referencia a escala mundial para la regulación de la economía digital y ha sido bien
acogido por importantes voces de la comunidad internacional [...]” (p. 3).
- 24 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados
propias empresas – en particular, las pequeñas y medianas –100 que, a la postre, se reflejan
en un aumento en el precio final de los productos y servicios que debe asumir el
consumidor final101. Además, estos elevados costes pueden desincentivar a nuestras
empresas a la hora de acometer proyectos digitales, con lo cual se estaría poniendo
obstáculos a la innovación en Europa. Ciertamente, una regulación en materia de IA que
garantice la seguridad de los productos y los derechos fundamentales es necesaria, pero
debe alcanzarse un equilibrio entre estos intereses y otro de los objetivos del Reglamento:
“garantizar la seguridad jurídica para facilitar la inversión e innovación en IA”102. Al
respecto, la doctrina ha criticado acertadamente que sólo existen tres disposiciones (arts.
53 a 55) en la PLIA destinadas a fomentar la innovación en el sector103.
En segundo lugar, los beneficios que el efecto Bruselas puede conllevar para las empresas
europeas que hacen negocios en terceros Estados son muy relativos. Resulta difícil de
imaginar que los legisladores de terceros Estados establezcan los mismos estándares
regulatorios en materia de IA que los establecidos en la Unión Europea. Pero, además, de
llegar a ser así, los efectos podrían ser contraproducentes: así, por ejemplo, las empresas
europeas podrían resultar obligadas a inscribir sus sistemas IA en las bases de datos
habilitadas a tal efecto104, y a nombrar representantes autorizados en cada uno de los
terceros Estados en los que comercialicen o pongan en servicio sus sistemas IA.
En tercer lugar, si bien el efecto Bruselas puede conllevar una extensión de los valores
europeos en materia de protección de datos personales o de regulación de la IA a terceros
Estados, se trata de una consecuencia involuntaria. Como explica A. Bradford105, el
principal objetivo de los instrumentos en los que se produce efecto Bruselas es regular el
mercado interior. En principio, son las dinámicas de los mercados globales las que
provocan que los estándares regulatorios fijados en esos instrumentos se extiendan a
terceros Estados. Es decir, el efecto Bruselas, así como sus beneficios, son consecuencias
involuntarias de los instrumentos destinados a regular del mercado interior. Resulta
imposible extraer de los considerandos de la PLIA, del RGPD o de cualquiera otra de las
leyes digitales europeas, que uno de sus objetivos sea extender los valores europeos en la
materia a terceros Estados. Es más, de ser este el objetivo, ¿cómo se explica que las
100
MUELLER, B., “How Much Will the Artificial Intelligence Act Cost Europe?”, 26 julio 2021, Center
for data innovation, https://datainnovation.org/2021/07/how-much-will-the-artificial-intelligence-act-cost-
europe/: “If adopted, the EU’s Artificial Intelligence Act will be the world’s most restrictive regulation of
the development and use of artificial intelligence (AI) tools. It will not only limit AI development and use
in Europe but impose significant costs on EU businesses and consumers. The AIA will cost the European
economy €31 billion over the next five years and reduce AI investments by almost 20 percent”.
101
BRADFORD, A., The Brussels…, op. cit., p. 236., si la autora considera que los beneficios del efecto
Bruselas compensan esos costes.
102
Llama la atención el contraste de la propuesta europea con el enfoque adoptado por el gobierno del
Reino Unido, cuyo White Paper “A pro-innovation approach to AI regulation” indica: “With the vast
majority of digital technology businesses employing under 50 people, it is important to ensure that
regulatory burdens do not fall disproportionately on smaller companies, which play an essential role in the
AI innovation ecosystem and act as engines for economic growth and job creation (ap. 28). Disponible en
https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper
103
LÚCIA RAPOSO, V., op. cit., p. 102.
104
Véase el art. 60 PLIA.
105
BRADFORD, A. “The Brussels…”, op. cit. p. 40.
- 25 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)
En fin, a mi modo de ver, el propio efecto Bruselas puede llegar a ser contrario a nuestros
valores democráticos, cuando los terceros Estados asumen nuestros estándares no porque
los consideran apropiados, sino porque así se lo exigen sus propias empresas para poder
competir en igualdad de condiciones en su mercado local. La imposición unilateralmente
de nuestros estándares a terceros Estados renunciando a la búsqueda de consensos a través
de negociaciones bilaterales o multilaterales no está en consonancia a la tradición europea
en política exterior. En este sentido, resulta sintomático que, en su Comunicación “Una
política comercial abierta, sostenible y firme”, la Comisión Europea afirme que uno de
los objetivos esenciales de esa polícia a medio plazo sea “perfilar normas multilaterales
para una globalización más sostenible y justa”, pero sin renunciar a la capacidad de la UE
“de defender sus intereses y hacer valer sus derechos, incluso de manera autónoma
cuando sea necesario”107.
34. Teniendo en cuenta los problemas que plantea el efecto Bruselas, la Unión
Europea debería intentar exportar sus estándares regulatorios en materia de inteligencia
artificial, mediante la vía convencional, buscando el consenso con sus socios comerciales.
Se trataría, como afirman Gstrein y Zwitter, en relación con el RGPD, de lograr la
globalización de los valores europeos porque nuestros socios los asumen como propios
gracias a su valor intrínseco, no porque les vienen impuestos por las dinámicas de los
mercados globales108. Ello implica que, como en muchas otras materias, la Unión Europea
debe recurrir a negociaciones de tratados multilaterales o bilaterales. La adopción de estos
acuerdos favorecería, además, el cumplimiento del futuro Reglamento por parte de
proveedores y usuarios de sistemas IA establecidos en terceros Estado.
35. Desafortunadamente, todavía existe un consenso muy limitado en relación con los
principios que deben guiar el desarrollo y el uso de las herramientas de inteligencia
artificial en las iniciativas adoptadas unilateralmente por las diferentes jurisdicciones109.
Esto explica que los foros multilaterales más importantes (OMC u ONU) no incluyan en
106
Al respecto, véase el apartado III.2 de ese trabajo.
107
COMISIÓN EUROPEA, “Revisión de la política comercial - Una política comercial abierta, sostenible
y firme”, Doc. COM (2021) 66 final, p. 11.
108
GSTREIN, O. J. / ZWITTER, A. J., op. cit., p. 23.
109
GREENLEAF, G., op. cit., p. 8.
- 26 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados
sus agendas trabajos esta materia con carácter general110, y que los avances que se han
realizado hasta la fecha sean únicamente instrumentos de soft law como la
Recomendación del Consejo de la OCDE sobre Inteligencia artificial111 o la
Recomendación UNESCO sobre la Ética de la Inteligencia Artificial112. También merecen
ser objeto de mención la Global Partnership on AI, definida como el primer foro
internacional multilateral centrado específicamente en la materia, del que forma parte la
Unión Europea y diez de sus Estados miembros113; o los trabajos del G7 para apoyar el
desarrollo de regulaciones estatales proporcionadas y compatibles sobre inteligencia
artificial.
Hasta donde se ha podido conocer, los trabajos más relevantes en la materia se están
llevando a cabo en el marco del Consejo de Europa. En particular, en enero de 2022 se
creó el Comité sobre Inteligencia Artificial que, a principios de 2023, publicó la Zero
Draft [Framework] Convention on Artificial Intelligence, Human Rights, Democracy and
the Rule of Law114. Este borrador debe servir como base para discutir, como su nombre
indica, un futuro convenio europeo sobre inteligencia artificial, derechos humanos,
democracia y el Estado de Derecho. Merece la pena destacar que en dichos trabajos están
interviniendo representantes de los Estados Unidos para, así, favorecer una hipotética
adhesión de este país al futuro convenio.
36. Alternativamente, la Unión Europea podría buscar ese consenso por la vía
bilateral, la cual podría adoptar dos formas. Por un lado, la Comisión Europea podría
pensar en la inclusión de disposiciones sobre inteligencia artificial en los acuerdos de
libre comercio que actualmente o en el futuro puede negociar con sus socios comerciales.
Se observa una evolución en el contenido de los tratados objeto de negociación que
actualmente incluyen disposiciones sobre comercio digital o transferencia internacional
de datos personales115. Nada impide que, en el futuro, se pueda hacer referencia a la
regulación de los sistemas IA.
Por otro lado, se podría introducir en la PLIA un mecanismo similar a las decisiones de
adecuación existentes en materia de protección de datos personales116, que en el RGD se
extiende a los datos no personales de titularidad pública117, y que también se plantea en la
110
Si existen trabajos en materias específicas, como es el caso de UNCITRAL en cuyo seno se está
trabajando en las cuestiones jurídicas relacionadas con la contratación automatizada. Información
disponible en http://undocs.org/sp/A/CN.9/WG.IV/WP.179
111
Documento OECD/LEGAL/449 disponible en https://legalinstruments.oecd.org/en/instruments/OECD-
LEGAL-0449
112
https://es.unesco.org/news/estados-miembros-unesco-adoptan-primer-acuerdo-mundial-etica-
inteligencia-artificial
113
https://www.gpai.ai
114
Disponible en https://rm.coe.int/cai-2023-01-revised-zero-draft-framework-convention-
public/1680aa193f
115
Véanse, por ejemplo, los borradores de tratado con Australia, Chile o India. Disponibles en
https://policy.trade.ec.europa.eu/eu-trade-relationships-country-and-region/negotiations-and-
agreements_en
116
Art. 45 RGPD.
117
Art. 5.12.
- 27 - DOI: 10.17103/reei.45.04
[45] REVISTA ELECTRÓNICA DE ESTUDIOS INTERNACIONALES (2023)
Propuesta de Ley de Datos para los datos no personales de titularidad privada 118. Como
se ha dicho, la doctrina119 ha señalado los beneficios de este mecanismo tiene para
garantizar el cumplimiento normativo por parte de empresas establecidas en terceros
Estados120.
En definitiva, existen diferentes vías, más allá del efecto Bruselas, para que el futuro
Reglamento se convierta en el standard global en materia de inteligencia artificial.
118
Art. 27.2.
119
KUNER, C., op. cit., p. 102.
120
Esta condición también se establece en el art. 5.12 RGD.
121
Art. 63.1.
122
“La Comisión podrá aprobar un sistema específico de control previo a la exportación relacionado con
productosque un tercer país aplique inmediatamente antes de la exportación de esos productos a la Unión
a fin de verificar que cumplen los requisitos de la legislación de armonización de la Unión que les sean
aplicables. La aprobación podrá concederse con respecto a uno o varios productos, con respecto a una o
varias categorías de productos o con respecto a productos o categorías de productos fabricados por
determinados fabricantes”.
123
“In line with Union commitments under the World Trade Organization (WTO) Agreement on Technical
Barriers to Trade (TBT), it is adequate to maximise the acceptance of test results produced by competent
conformity assessment bodies, independent of the territory in which they are established, where necessary
to demonstrate conformity with the applicable requirements of the Regulation. The Commission should
actively explore possible international instruments for that purpose and in particular pursue the possible
establishment of mutual recognition agreements with countries which are on a comparable level of
technical development, and have compatible approach concerning AI and conformity assessment”.
- 28 - DOI: 10.17103/reei.45.04
El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados
- 29 - DOI: 10.17103/reei.45.04