PC InteligenciaArtificialyDerecho Teoria 2010 Def
PC InteligenciaArtificialyDerecho Teoria 2010 Def
PC InteligenciaArtificialyDerecho Teoria 2010 Def
net/publication/258046469
CITATIONS READS
3 4,877
1 author:
Pompeu Casanovas
Autonomous University of Barcelona
36 PUBLICATIONS 206 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
Semantic Web and Law. KOS sharing in the Semantic Web. View project
All content following this page was uploaded by Pompeu Casanovas on 31 May 2014.
ABSTRACT: This article is a personal account, not a scientific one. I will try to delimit
the perspective I have taken in research in this field for the last ten years, and why. I
will divide this work into three concentric circles. In the first two, I will briefly
introduce the Artificial Intelligence (AI) and the Artificial Intelligence and Law (AI &
L) fields. In the third, I will introduce the Semantic Web (SW). In the notes at the end,
the reader will find the critical support as it does not appear in the text. Therefore, this
paper allows three levels of reading: the plain text, further explanation in the notes, and
an extensive bibliography (if the reader wants to go to original sources). She can access
this way to the present state of the art in AI & Law.
Cada vez que se me ocurre pensar lo inteligentes que somos los humanos,
recuerdo que aún no poseemos una definición aceptable de inteligencia. ¿Qué es una
conducta “inteligente”? ¿Con qué base podemos delimitar la línea que separa una
conducta inteligente de otra que no lo sea?
Depende de la tarea que deba realizarse. Y esto vale también para el uso de la
abstracción, que hasta hace poco creíamos patrimonio exclusivo de nuestra especie.
Pero no es así: en la tarea de reconocimiento del espacio, por ejemplo, circunscrito por
figuras geométricas en tres dimensiones, cualquier paloma es mucho más rápida y
precisa que un ser humano (McFarland y Bösser, 1993). Desde el aire, en un vuelo
rápido, ésta es una condición esencial para la orientación y el sorteo de posibles
obstáculos. Desde este punto de vista, el cerebro de la paloma tiene un comportamiento
cognitivo mucho más inteligente que el de los humanos. La paloma y su capacidad de
vuelo, más su capacidad de procesamiento de los inputs provenientes del exterior,
conforman un sistema.
Esta perspectiva empírica, atenta al contexto y a las condiciones en que se
realiza el procesamiento de información, es la que dio lugar al nacimiento de la
denominada inteligencia artificial. Obsérvese que es en la perspectiva de las ciencias
formales y en las ingenierías, tanto como en el de la filosofía, donde se sitúa su origen. 1
No hay ningún “giro lingüístico” en este campo, donde las nociones de sistema,
complejidad, inferencia y algoritmo tienen un carácter matemático más amplio.
Ésta, es en el fondo, la respuesta que Simon y Einsenstadt dieron a la crítica de
John Searle sobre el hecho de que los ordenadores sean ciegos al significado de sus
propias operaciones. 2 La pregunta de si los ordenadores pueden pensar, presenta el
mismo problema que el de la definición de inteligencia. Plantea un problema que sólo
tiene sentido en el terreno de la filosofía del lenguaje o de la ciencia, pero no en el de la
ciencia como lenguaje. Interesante, pero fuera del objetivo científico o técnico de las
ciencias del diseño o de la computación. Comparte el nivel del estatuto epistemológico
del test de Turing. 3
Visto desde el sistema resultante de componentes externos e internos —y no
como un cerebro— es claro que la habitación china imaginada por Searle puede
“pensar”, en el sentido de transformar la información a partir de estadios sucesivos.
Pero plantearse la pregunta como un problema de la propia IA, implica cometer una
3
Aún así puede comprenderse la dificultad del intento. Especialmente durante los
años que sucedieron a las expectativas abiertas por los primeros sistemas expertos en
derecho, y que acabaron en cierta decepción práctica. Resulta ya típica la educada
reacción académica de filósofos, juristas y científicos sociales ante las obras que
provenían del campo de la computación. Dicho con cierta rudeza: intelectualmente
brillantes, desgraciadamente inútiles.
An Artificial Intelligence Approach to Legal Reasoning (1987), la publicación de
la tesis de Anne Gardner, fue saludada por la Harvard Law Review en 1988 como un
23
libro “escrito exclusivamente para sofisticados estudiantes de inteligencia artificial”.
Con más preocupación fue recibida la transcripción lógica que realizó Marek Sergot
(1986) de la British Nationality Act de 1981. Y aun tan tarde como en 2001, un autor
nada sospechoso de prejuicios, Cass Sunstein, negaba que el programa de Kevin
Ashley, HYPO, pudiera realizar correctamente un razonamiento jurídico por analogía,
“como un auténtico jurista”, puesto que no podía realizar juicios valorativos. 24 Es una
equivocación típica.
Quizás el lector se haya dado cuenta ya que detrás de este tipo de críticas se
halla, por un lado, además del correcto reconocimiento de la dificultad de la tarea, el
desconcierto inicial que suele acompañar a los cambios tecnológicos. Pero por otro, está
también la misma falacia mimética —la falacia del isomorfismo de primer orden— que
ha perseguido a la IA desde sus inicios: no se trata de que ningún programa razone
“como un jurista” o “como un juez”, sino de que sus resultados puedan incardinarse de
forma inteligente en las tareas cotidianas que realizan los jueces y abogados.
Es cierto que se ha debatido mucho sobre el juez artificial, la posibilidad de que
sea un programa, y no una persona humana, quien dicte sentencia. Pero este tipo de
programas sobre el “juez autómata”, que tanta literatura ha generado, estaban ya fuera
de discusión cuando nació la International Association for Artificial Intelligence and
Law (IAAIL) en 1992 (Berman y Hafner, 1989), el mismo año que apareció el primer
volumen de Artificial Intelligence and Law. 25 Como las múltiples aplicaciones a la
sanidad y a la medicina han demostrado, no se trata de sustituir el criterio del médico (o
del juez) por un programa, sino de ampliar y reforzar su capacidad de diagnóstico.
La organización de un ámbito propio en 1992 constituyó un punto de llegada.26
Empezaron también (hasta hoy) los dos grandes encuentros anuales (JURIX) 27 y
bianuales (ICAIL) 28. Pero las relaciones de IA con el derecho son más antiguas, y se
remontan a los inicios de los años cincuenta, puesto que este campo constituyó uno de
9
sus ámbitos específicos de aplicación. Pamela Gray (1996: 68) ha ordenado en años y
etapas los sucesivos logros de estas aplicaciones que siguen en paralelo los avances de
las corrientes principales de IA. Los temas se replican unos a otros, incorporándose a su
vez al desarrollo del tema siguiente: (1) lenguaje jurídico, (2) lógica deóntica, (3)
procesamiento por reglas, (4) procesamiento por casos, (5) estratificación del
razonamiento, (6) razonamiento procedimental, (7) coordinación de tareas múltiples.
Hace unos diez años, esta IA que entraba en la reflexión jurídica “políticamente
virgen” (ibid.) había desarrollado programas de investigación como HYPO (Rissland y
Ashley 1987), CABARET [CAse-BAsed REasoning Tool] (Skalak y Rissland, 1991),
GREBE (Branting, 1991), TAXMAN (McCarty, 1991), CATO [Case Argument
TutOrial] (Aleven y Ashley, 1997; Ashley, 2000), CATO-Dial (Ashley et al., 2002),
PROSA [PROblem Situations in Administrative law] (Muntjewerff y Groothuismink,
1998), PROLEXS (Oskamp et al. 1991). La mayoría se basaban en el razonamiento por
casos para modelar analogías y precedentes judiciales, y han tenido hasta la fecha una
aplicación pedagógica. Su fundamento es el de los sistemas expertos y el del
razonamiento basado en casos [Case-based reasoning, CBR] (Susskind, 1986), aunque
algunos programas se desarrollaron sobre la base de redes neuronales. Es el caso de
MARILOG, un sistema para la aplicación de ordenanzas municipales de control de los
niveles de ruido (Bochereau et al. 1991), y de SCALIR [Symbolic and Connectionist
Approach to Legal Information Retrieval] (Rose y Belew, 1989).
Desde entonces, la revolución ha llegado no solamente de la mano de la filosofía
o de la ciencia, sino también del cambio social provocado por el propio desarrollo de la
tecnología. La extensión de la globalización económica y cultural, la convergencia de
las tecnologías de la información y de la comunicación en Internet, más la
generalización del ordenador personal durante toda la década de los noventa creó las
condiciones para el actual desarrollo de la red (Castells, 1996, 2001).
Esto a su vez ha condicionado los escenarios posibles imaginados por los
desarrollos de la AI & D. Voy a retomar aquí el hilo anterior, porque hay tres líneas de
investigación abiertas que redimensionan de otro modo las relaciones del derecho con la
tecnología, y ésta con campos de estudio tradicionales como la argumentación jurídica,
la lógica y la filosofía del derecho. Las dos primeras son los sistemas multi-agentes
(instituciones virtuales) —ya expuestos— y la teoría de la argumentación basada en
sistemas dialécticos. La tercera, más abierta, viene constituida por las investigaciones
vinculadas a la Web Semántica, a la que me referiré en la última sección del artículo.
10
AGRADECIMIENTOS
Agradezco Anne Gardner, Kevin Ashley, José Juan Vallbé, Núria Casellas y
especialmente a Pablo Noriega la ayuda y los comentarios recibidos. Proyectos: e-
Discovery (TSI-020110-2009-39); ONTOMEDIA (CSO-2008-05536-SOCI) (TSI-
020501-2008-131); SNS (TSI-020110-2009-374); NEURONA (TSI-020100-2008-134).
REFERENCIAS ∗
∗
El lector interesado puede encontrar una bibliografía de unos 2.500 títulos sobre la historia de la IA hasta el año
2003 en el Proyecto Building a Future for Software History de la Universidad de Iowa,
http://www.cbi.umn.edu/research/shbib.pdf [consulta: 21/02/2010]
16
Intelligence”, 4th International Workshop ANTS 2004, LCNS 3172, Springer Verlag,
Heidelberg, Berlin, 2004.
DOYLE, J.; DEAN, T. “Strategic Directions in Artificial Intelligence”, ACM
Computing Surveys vol. 28, n., 1996, pp. 653-670.
ENGLE, E. “Smoke and Mirrors or Science? Teaching Law with Computers —A
Reply to Cass Sunstein on Artificial Inteligence and Legal Science”, Richmond
Journal of Law and Technology 9, 2003, pp. 1-16.
ENDESHAW, A. “Web Services and the Law: a Sketch of Potential Issues”,
International Journal of Law and Information Technology 11, 2003, pp. 251-273.
FEIGENBAUM, E.A. “A Personal View of Experts Systems: Looking Back and
Looking Ahead”, Knowledge System Laboratory, Report n. 92-41 KSL,
Stanford,1992.
FELTOVITCH, P.J.; BRADSHAW, J.M.; JEFFERS, R.; SURI, N.; USZOK, A. “Social
Order and Adaptability in Animal and Human Cultures as Analogues for Agent
Communities: Toward a Policy-Based Approach”, A.Omicini, P.Petta, J.Pitt (Eds.),
ESAW-2003, LNAI 3071, 2004, pp. 21-48.
FETERIS, E. “A Survey of 25 Years of Reserach on Legal Argumentation”,
Argumentation, n. 11, 1997, pàgs 355-376.
FETERIS, E.; PRAKKEN, H. Introduction: Dialectical legal Argument: Formal and
informal models, “Artificial Intelligence and Law”, n.8, pp. 107-113.
FORSYTH, D. E.; BUCHANAN, B., “Knowledge Acquisition for Expert Systems:
Some Pitfalls and Suggestions”, IEEE Transactions on Systems, Man, and
Cybernetics, vol. 19, n.3, 1989, pp. 435-442.
FRENCH, R.M. “The Turing Test: the first 50 years”, Trends in Cognitive Siences, vol.
4, n. 3. pp. 115-122.
GALINDO, F.; ROVER, J. Derecho, gobernanza y tecnologías de la información en la
sociedad del conocimiento, Series LEFIS, n.7, Universidad de Zaragoza, 2009.
GARCÍA CAMINO, A.; NORIEGA, P.; RODRÍGUEZ AGUILAR, J.A. “Implementing
Norms in Electronic Institutions”, International Conference on Autonomous Agents
Proceedings of the fourth international joint conference on Autonomous agents and
multiagent systems, The Nederlands, ACM, NY, 2005, pp. 667-673.
GARCÍA CAMINO, A.; Rodríguez Aguilar, J.A.; Sierra, C.,; Vasconcelos, W. “A
Rule-based Approach to Norm-Oriented Programming of Electronic Institutions”,
ACM SIGecom Exchanges, Vol. 5, n. 1, 2006, pp. 33-40.
GARDNER A. L. An Artificial Intelligence Approach to Legal Reasoning. Bradford
Books/MIT Press, Cambridge, MA, 1987.
GILBERT, N.; CONTE, R. (eds.). Artificial Societies. The Computer Simulation of
Social Life. Routledge, London and New York, 1995.
GOLDIN, D.; WEGNER, P. “The Interactive Nature of Computing: Refuting the Strong
Church-Turing Thesis”, Minds & Machines, vol. 18, 2008, pp. 17-38.
GONZÁLEZ TABLAS, R. La informática jurídica: una aproximación experimental
desde la filosofía del derecho, Universidad de Sevilla, 1987.
GRUBER, T. “A Translation Approach to portable ontologies”, Knowledge Acquisition,
vol. 5, n. 2, 1993, pp. 199-220.
HAGE, J. Studies in Legal Logic, Springer, Berlin, Heidelberg, 2005.
HENDLER, J. ; FEIGENBAUM, E.A. “Knowledge is Power: The Semantic web
Vision”, N. Zhong et al. (Eds.) WI 2001, LNAI, 2198, Springer Verlag, Berlin,
Heidelberg, pp. 18-29.
HITCHCOCK, D., VERHEIG, B. “The Toulmin Model Today: Introduction to the
special issue on Contemporary Work using Stephen Edelston Toulmin’s Layout of
Arguments”. Argumentation 19, 2005, pp. 255-258.
HUNTER, D. “Out of their minds: Legal theory in neural networks”, Artificial
Intelligence and Law 7, 1999, pp. 129-151.
KOWALSKI, R. A. “The Early years of Logic Programming”, Communications of the
ACM, 31, n. 1, 1988, pp. 38-43.
LEE, J.A.N. “History in the Computer Science Curriculum”, SIGCSE Bulletin 28, n. 2,
1996, pp. 15-20.
LEE, J.A.N. “History in the Computer Science Curriculum”, SIGCSE Bulletin 29, n. 2,
1997, pp. 12-13.
LODDER, A.R. DiaLaw. On Legal Justificaction and Dialogical Models of
Argumentation, Kluwer A.P., Amsterdam, 1999.
19
POLLOCK, J.L. “Defeasible reasoning”, Cognitive Science, n. 11, pp. 1987, 481-518.
POLLOCK, J.L. “Justification and Defeat”, Artificial Intelligence, n. 67, 1994, pp. 377-
407.
POLLOCK, J.L. Cognitive Carpentry. A Blueprint for How to Build a Person. The MIT
Press, Cambridge, Mass. 1995.
PRAKKEN, H. AI & Law, “Logic and Argument Schemes”, Argumentation 19, 2005,
pp. 303-320.
PRAKKEN, H. Logical Tools for Modelling Legal argument. A Study of Defeasible
Reasoning in Law, Kluwer A.P., Amsterdam, 1997.
OSKAMP, A.; WALKER, R.F.; SCHRIKS, J.A.; VAN DEN BERG, P.H. “PROLEXS,
DIVIDE and RULE: a legal application”, ICAIL-89, ACM, 1989, pp. 54-62.
REED, C.; NORMAN, T.J. “A Roadmap of Research in Argument and Computation”,
Argumentation Machines: New Frontiers in Argument and Computation, Kluwer
Academic Publ., Amsterdam, 2003, pp. 1-13.
RISSLAND, E.L, ASHLEY K. D. “A Case-Based System for Trade Secrets Law”.
Proc. 1st Intl. Conf. on Artificial Intelligence and Law, 61-67. ACM Press, New
York, 1987.
RISSLAND. E. “Artificial Intelligence and Law: Stepping Stones to a Model of Legal
Reasoning”, Yale Law Journal ,vol. 99, 1999, pp. 1957-1981.
RISSLAND, E.; Ashley, K.; Loui, R.P. “AI and Law: A fruitful synergy”, Artificial
Intelligence 150, 2003, pp. 1-15.
ROCO, M.C., BAINBRIDGE, W.S. Converging technologies for Improving Human
Performance. Nanotechnology, Biotechnology, Information technology and Cognitive
Science. Arlington (Virginia): USA National Science Foundation/DOC-sponsored
report. 2002, http://wtec.org/ConvergingTechnologies/Report/NBIC_report.pdf
ROSE, D.E.; BELEW, R.K. “Legal Information Retrieval: A Hybrid Approach”, in
Proceedings of the Second International Association on Artificial Intelligence and
Law, ACM, NY, 1989.
SÁNCHEZ-MAZAS, M. Obras Escogidas. Vol. II. Lógica, Informática y Derecho.
Universidad del País Vasco, Donostia, San Sebastián, 2003.
SARTOR, G. Le applicazioni giuridiche dell’intelligenza artificiale, A. Giuffrè Ed.,
Milano, 1990.
SARTOR, G. Intelligenza artificiale e diritto. Un’introduzione. A. Giuffrè Ed., Milano,
1996.
SARTOR, G. Legal Reasoning. A Cognitive Approach to the Law. Treatise. Vol. V.
Springer Verlag, Berlin, Heidelberg, 2005.
SARTOR, G. “Fundamental legal concepts: a formal and teleological chracterisation“,
Artificial Intelligence and Law 14, 2006, pp. 101-142.
SARTOR, G. Corso de informatica giuridica. Vol. 1. L’informatica giuridica e le
Technologies dell’informazione, G. Giappichelli Ed., Torino, 2008.
SEARLE, J.R. “Minds, Brains and Programs”, Behavioral and Brain Sciences, 3, 1980:
417-457.
SEARLE, J.R. The Construction of Social Reality. Simon and Schuster, New York,
1995.
SERGOT, M.J.; SADRI, F.; KOWALSKI, R.A.; KRIWACZEK, F.; HAMMOND, P.;
CORY, H.T. “The British Nationality Act as a Logic Program”. Communications of the
ACM, vol. 29, n. 5, 1986, pp. 370-386.
SHABOLT, N.; HALL, W.; BERNERS-LEE, T. (2006). “The Semantic Web
Revisited”. IEEE Intelligent Systems . May/June: 96-101.
SCHUMACHER, M.; OSSOWSKI, S. “The Governing Environment”, en D. Weyns, H.
Van Dyke Parunak, and F. Michel (Eds.), E4MAS 2005, LNAI 3830, Springer-Verlag
Berlin Heidelberg, 2006, pp. 88-104.
SIERRA, C; NORIEGA, P. “Towards layered dialogical agents” , Intelligent Agents III
Agent Theories, Architectures, and Languages ECAI'96 Workshop (ATAL) Budapest,
Hungary, August 12–13, 1996 Proceedings, LNCS 1193, Springer Verlag, Berlin,
Heidelberg, 1997, pp. 173-188.
SIMON, H.A. The Sciences of the Artificial (1996). The MIT Press. Spanish version by
P. Noriega, Las ciencias de lo artificial, Ed. Comares, Granada (Spain) 2006,
reprinted for the SMIA, México, 2006.
21
1
La idea de retroalimentación y control proviene de la cibernética (N. Wiener); la de red neuronal
distribuida proviene de la biología y la ciencia cognitiva ( W. Pitts, W. R. Ashby, W. McCulloch); la
de información, de la ciencia matemática de la comunicación (C. Shannon); la de programa y
organización, de la teoría de la mente como procesador de información (A. Newell, H. Simon); la de
jugada o movimiento, de la teoría matemática de juegos (O. Morgenstern, J.v. Neumann); la de corpus
y frecuencia simbólica, de la estadística avanzada (I.J. Good, G.K. Zipf); la de generación, de las
estructuras de la lingüística generativa (N. Chomsky). La filosofía tiene un papel importante, pero en
su vertiente lógica y matemática (A. Turing y A. Church). Cfr. Buchanan (2005: 56).
2
Searle (1980) plantea el experimento mental de la “habitación china” para mostrar que los ordenadores
no pueden en realidad razonar. Su argumentación se basa en dos aserciones: (i) los cerebros son causa
de las mentes, y (ii) la sintaxis no es suficiente para la semántica. Searle distingue entre “AI en sentido
débil” y “AI en sentido fuerte”. El primero se refiere a la AI solamente en cuanto a su poder
instrumental de computación. No habría problema con esto. Pero la AI en sentido fuerte sostiene la
tesis que la AI no sólo simula, sino que replica el pensamiento. El experimento mental propuesto es el
siguiente. Alguien se halla encerrado en una habitación con una lista de símbolos chinos, pero no habla
ni lee ese idioma, sólo inglés. Recibe del exterior una segunda lista con caracteres chinos al mismo
tiempo que un conjunto de reglas (en inglés) que correlacionan los símbolos de la primera lista con los
de la segunda. Finalmente recibe una tercera lista de caracteres chinos junto con un conjunto de
instrucciones (también en inglés) indicándole como correlacionar éstos con los de la primera y segunda
lista: cómo servir determinados caracteres contenidos en las dos listas anteriores en respuesta a
símbolos contenidos en la tercera. La primera lista contiene un guión [los scripts de Abel y Schank]; la
segunda una “historia”; la tercera, “preguntas”. El conjunto de reglas que recibe son, pues, un
“programa”. La AI en sentido fuerte, según Searle, sostiene la tesis que el ordenador programado
puede “comprender” las historias y que el programa en cierto modo explica (o da cuenta de) la
comprensión humana. Puesto que los símbolos que procesa el ordenador carecen de semántica (no
22
tienen “sentido”), no pueden tener estados mentales intencionales (con “sentido”). Un ordenador no
piensa ni razona.
3
En su famoso artículo en la revista MIND de 1950, Turing denominó el juego de la imitación lo que
hoy denominamos “el test de Turing”. Imaginemos a un hombre y a una mujer que se hallan en
habitaciones separadas y se comunican con un experimentador por medio de un teletipo. El
interrogador debe identificar correctamente al hombre y a la mujer y, para ello, puede plantear
cualquier pregunta. El hombre intenta convencer al experimentador de que es la mujer, mientras ésta
intenta convencerle de su identidad real. En un determinado momento, el hombre es sustituido por una
máquina. Si el interrogador es incapaz de distinguir la mujer de la máquina, ésta habrá pasado el test, y
diremos entonces que es “inteligente”. Para una síntesis de la historia posterior del test, cfr. R.M.
French (2000), Pinar et al. (2000).
4
Simon se refirió muchas veces a esta falacia, que ejemplificó en el ejemplo del camino de la hormiga en
la playa. La complejidad de su marcha no depende de la modularidad (inexistente) de sus procesos
internos de computar la información, sino de los obstáculos externos que tiene que sortear y a los que
reacciona. No por ello el organismo y su ambiente dejan de constituir un sistema. En mi opinión, la
respuesta de Simon a Searle se basa en el mismo argumento.
5
Simon y Einsestadt (2002) distinguen entre una “AI Empíricamente Fuerte” (SAI-E) y una “AI
Lógicamente Fuerte” (SAI-L). La tesis de Searle se refiere a la segunda. En cambio, es posible
elaborar un test que valga igual para humanos y programas en términos de “comprensión”
(understanding), con la ventaja de que en el caso de los ordenadores somos capaces de examinar
completamente sus partes internas. Esta noción de comprensión es empírica, y se refiere a la capacidad
de traducir lenguas naturales, e.g. Desde este punto de vista existe una noción de “comprensión” y
“razonamiento” que humanos y máquinas comparten.
6
Vid. La propuesta original del Seminario de Dartmouth en http://www-
formal.stanford.edu/jmc/history/Dartmouth/Dartmouth.html; cfr. con la revisión reciente de sus
resultados en AI@50 , http://www.dartmouth.edu/~ai50/homepage.html
7
Los programas se diseñaron para gestionar no solamente información, sino también los procesos y
operaciones cognitivas antes señalados: memoria, comprensión, expresión, planificación y
razonamiento. Hasta entonces, estas funciones cognitivas habían sido consideradas como exclusivas
de los seres humanos (o de los mamíferos y primates). Pero John McCarthy, Herbert A. Simon, Allen
Newell, Claude E. Shannon, Marvin Minsky y otros pioneros de la IA imaginaron la forma de
considerarlas en si mismas, como procesos que conducían a la resolución de problemas que podían ser
planteados y resueltos con éxito por programas de ordenador. “El deseo de construir un lenguaje de
pocesamiento de una lista algebraica para el trabajo de inteligencia artificial sobre el ordenador IBM
704 surgió en el verano de 1956 durante el Proyecto de Investigación de Verano de Darthmouth, que
fue el primer estudio organizado de IA. Durante este encuentro, Newell, Shaw y Simon, describieron
IPL2, un lenguaje de procesamiento de lista para el ordenador JOHNNIAC [John v. Neumann
Numerical Integrator and Automatic Computer] de la Rand Corporation, donde implementaron su
programa Logical Theorist. Hubo una leve tentación de copiar IPL, porque su forma estaba basada en
un loader de JOHNNIAC al que tenían acceso, y porque la idea de FORTRAN de escribir programas
en una forma algebraica resultaba atractiva. Se hizo evidente de forma inmediata que las
subexpresiones arbitrarias de las expresiones simbólicas podían obtenerse mediante la composición las
funciones que extrayeran subexpresiones inmediatas, y esto parecía una razón suficiente para acudir a
un lenguaje algebraico” (McCarthy 1978: 217).
8
Los años posteriores a la guerra fueron cruciales. Entre 1945 y 1950 aparecieron la teoría matemática de
la información, la teoría de la computación y la teoría de juegos. ENIAC (Electronic Numerical
Integrator And Computer), se construyó en 1946 para cálculos de balística. La Association for
Computing Machinery (ACM) fue fundada en 1947 (Lee, 1996, 1997). El desarrollo de la IA
simbólica y los lenguajes de programación en las décadas de los sesenta y setenta (i.e. FORTRAN,
LISP o PROLOG) permitieron una mejor formulación de problemas como encontrar técnicas efectivas
para el aprendizaje y encontrar métodos heurísticos para controlar la búsqueda por ensayo y error
[trial-and-error search] (Buchanan 2005). Sobre la historia de LISP, vid. McCarthy (1978, 1980);
sobre los orígenes de PROLOG, vid. Kowalski (1988).
9
“Ésta es la esencia de la teoría: cuando alguien se encuentra con una situación nueva (o se produce un
cambio sustancial en el planteamiento del problema), selecciona de su memoria una estructura
denominada Marco [Frame]. Este es un cuadro recordado para ser adaptado a una realidad mediante el
cambio de detalles particulares si es necesario. Un Marco es una estructura de datos para representar
una situación estereotípica, como hallarse en un cierto tipo de sala de estar, o ir a una fiesta infantil de
cumpleaños” (Minsky 1974) http://web.media.mit.edu/~minsky/papers/Frames/frames.html. Cfr. sobre
el estado actual de la investigación en redes sociales, Lozares (2007).
23
10
En la versión castellana (2006) de The Sciences of the Artificial (1969, 1981, 1996), Pablo Noriega ha
propuesto traducir el concepto de satisficing por el término satisficción para subrayar su oposición a la
noción económica de optimalidad.
11
George G. Miller (2003: 142) ha escrito retrospectivamente: “Newell y Simon tenían razón en subrayar
la importancia del año 1956, que no solo resultó crucial en su desarrollo sino en el de todos nosotros.
Puedo ser incluso más preciso. Fecho el nacimiento de la ciencia cognitiva el 11 de Septiembre de
1956, el segundo día del simposio organizado por el ‘Grupo de Interés Especial en Teoría de la
Información’ en el Massachussets Institute of Technology. Entonces, naturalmente, nadie se dio cuenta
de que había sucedido algo especial ni nadie pensó que necesitaba un nombre; esto ocurrió mucho más
tarde.”
12
“La inteligencia artificial es normalmente potente en capacidad deductiva, pero es mucho más débil en
la inductiva. Sin embargo, en el crisol de la inteligencia de la vida cotidiana, la inferencia inductiva es
ciertamente uno de sus ingredientes más significativos. Una forma de plantear el problema es que
necesitamos programas que en un determinado sentido sean capaces de inducir internamente ‘modelos
de ambientes externos’ almacenados. … Planteado de otra manera, éste es el problema de formación
de hipótesis por parte de la máquina [subrayado P.C.]” E. A. Feigenbaum, ([1961] 1992:4).
13
A mediados de los noventa, Doyle and Dean (1996: 654) dividían la investigación en el campo en diez
áreas primordiales interconectadas entre si: (i) representación y articulación del conocimiento; (ii)
aprendizaje y adaptación; (iii) deliberación, planificación y actuación; (iv) habla y procesamiento del
lenguaje natural; (v) comprensión y síntesis de imágenes; (vi) manipulación y localización; (vii)
agentes autónomos y robots; (viii) sistemas multiagentes; (ix) modelación cognitiva; (x) y
fundamentación matemática.
14
Vid. sobre la noción de “inteligencia social”, Davenport (2000); sobre “inteligencia artificial
incorporada (o encapsulada)” [embodied artificial intelligence], Pfeifer e Ilida (2004); sobre
“inteligencia incorporada” y robótica, Brooks (1999); sobre la noción de “computación evolutiva”
[evolutionary computing], Yao (1999). “En síntesis, podemos comprobar que el paisaje ha cambiado
sustancialmente: mientras que originariamente la inteligencia artificial era claramente una disciplina
computacional, dominada por las ciencias de la computación, la psicología cognitiva, la lingüística y la
filosofía, ahora se ha convertido en un campo multidisciplinar que requiere la cooperación y el talento
de muchos otros campos como la biología, la neurociencia, la ingeniería (electrónica y mecánica), la
robótica, la biomecánica, las ciencias de materiales y los sistemas dinámicos. Y esta comunidad nueva
y transdiciplinar se denomina ahora inteligencia artificial incorporada” (Pfeifer e Ilida, 2004: 10).
15
“Concebimos a los agentes como entidades computacionales que exhiben un comportamiento racional
complejo cuando actúan en un sistema multi-agente”. C. Sierra, P. Noriega, (1995: 173); un “agente
autónomo” es “un sistema situado en (y como parte de) un determinado ambiente que percibe [senses]
este ambiente y actúa temporalmente sobre él persiguiendo sus propios objetivos, de manera tal que
afecta lo que puede percibir en el futuro” , M. Schumacher y S. Ossowski (2006: 88).
16
“Una posición normativa [Sergot] es la ‘carga social’ asociada con agents individuales, esto es, sus
obligaciones, permisos y prohibiciones. Dependiendo de qué es lo que los agentes hagan, su posición
normativa puede cambiar —por ejemplo, los permisos/prohibiciones pueden ser revocados o las
obligaciones, una vez cumplidas, pueden ser eliminadas. Idealmente, las normas, una vez capturadas vía
algún formalismo apropiado, deberían ser ejecutadas directamente, realizando así un ambiente normativo
computacional donde interactúan los agentes. Esto es lo que entendemos por una ‘programación orientada
a las normas’ [norm-oriented programming].” García-Camino et al. (2006: 34).
17
“La semántica de nuestro formalismo define un tipo de sistema de producción donde las reglas son
exhaustivamente aplicadas a un estado de cosas, llevando al siguiente estado de cosas. Las posiciones
normativas se actualizan mediante reglas, dependiendo de los mensajes que mandan los agentes” (Ibid.:
40).
18
Cfr. D. Bourcier (2003); G. Sartor (1990, 1996, 2008).
19
En 1959, la American Bar Foundation (ABA) fundó la revista Modern Uses of Logic in Law, que a
mediados de los sesenta, justamente por el desarrollo de las técnicas de computación, cambió su
nombre por el actual: Jurimetrics. Journal of Law, Science, and Technology.
20
En España, la informática jurídica tuvo un desarrollo temprano, de la mano de E.Pérez-Luño (e.g.
1987) y de la obra lógica de M. Sánchez Mazas (vid. esp. 2003, y el programa Ars Judicandi, 1987).
Ambos autores muy vinculados a las orientaciones de filosofía del derecho de Bolonia y,
especialmente el segundo, al Instituto de Documentación Jurídica del CNR de Florencia, fundado por
A. A.Martino. Hubo dos tesis sobre este tema, R. González Tablas (1987) y J. Aguiló Regla (1989).
21
Ibid. Bourcier, Cap. 1; vid. También G. Sartor, ibid.
22
El conocimiento jurídico presenta rasgos que lo convierten en idóneo para ser modelado. Rissland
(1990: 1958) señalaba los siguientes (referidos al common law): 1. El razonamiento jurídico es multi-
modal, e incluye el razonamiento con casos, reglas, leyes y principios; 2. El razonamiento por casos
24
33
Cfr. Feteris (1997); para un buen estado de la cuestión actualizado, véase Read y Norman (2004);
sobre agentes y argumentación, Norman et al. (2004).
34
En España, la orientación de la racionalidad práctica de Alexy ha dado lugar a formulaciones
originales en esta misma línea, como la clasificación en árbol de los enunciados jurídicos efectuada por
M. Atienza y J. Ruiz Manero (1996). Que yo conozca, sin embargo, esta perspectiva no ha sido
formalizada con técnicas de IA.
35
Desde la filosofía del derecho, Hage discute el concepto de razonamiento jurídico derrotable con J.C
Bayón (2001).
36
Vid. el útil cuadro comparativo realizado por Bench-Capon et al. (2003: 113-14) de generación y
selección de argumentos sobre los programas ya existentes.
37
Por eso D. E. Forsythe y B. G. Buchanan (1989) recomendaban al final retornar a los métodos de la
antropología y de la sociología cualitativa para evitar las simplificaciones en los modelos y garantizar
su usabilidad. Proponían la distinción entre “adquisición de conocimiento”, y “elicitación de
conocimiento” para referirse a las conversaciones, entrevistas y procesos de comunicación necesarios
entre el equipo de ingenieros de conocimiento y el equipo de expertos en el dominio. Por experiencia:
la distinción sigue siendo válida.
38
James Hendler —uno de los creadores de la idea de Web Semántica junto con Tim Bernes-Lee— y Ed
Feigenbaum (2001) han recordado el camino que une las investigaciones semánticas vinculadas a los
sistemas expertos con la WS: (i) EDR [Electronic Dictionary Research]; (ii) CYC [de enciclopedia] el
proyecto industrial de Doug Lenat sobre la codificación del sentido común empezado en 1984 (hasta
hoy: contiene más de un millón de aserciones) [desde 2009, OPENCYC]; (iii) WordNet, la base de
datos léxica sobre las lenguas iniciado en Princeton para el inglés en 1985 por G. Miller (hasta hoy)
[para las lenguas europeas existe Euro-WordNet, incluyendo los synsets y gramáticas del castellano y
catalán] http://www.illc.uva.nl/EuroWordNet/ ; cfr http://www.pcb.ub.es/homePCB/live/es/p616.asp ;
(iv) HPKB [High-Performance Knowledge Base] y RKF [Rapid Knowledge Formation], los
proyectos de DARPA.
39
La definición más popular es la de Tom Gruber (1993): “una especificación formal explícita de una
conceptualización compartida de un determinado ámbito de interés.” Una ontología comprende
conceptos (clases), relaciones (propiedades), instancias y axiomas. Una definición más sucinta, debida
a Studer y Staab (2003) y Warren, Studer, Davies (2006: 4) es la siguiente: “un 4-tuplo ‹C,R,I,A›,
donde C es un conjunto de conceptos, R un conjunto de relaciones, I un conjunto de instancias y A un
conjunto de axiomas.”
40
Las ontologías jurídicas suelen dividirse en ontologías nucleares y de dominio, aparte de las upper o
top ontologies de carácter más general (como DOLCE +). Cfr. Casellas (2009) para una explicación
extensa actualizada de las ontologías jurídicas más importantes. Cfr. Valente (2005), Breuker et al.
(2009) para un repaso sintético de LRI-Core, LKIF, OPJK etc. Los Seminarios en JURIX o ICAIL que
se ocupan de este tema llevan el título de LOAIT, vid. el último en Casellas et al. (2009).
41
Téngase en cuenta que esta figura de la WS ha sido reproducida hasta la saciedad, y no constituye un
esquema fiel de su forma de operar. Cfr. Tauberer (2001). La mejor introducción técnica se debe a G.
Antoniou y F.v.Harmelen (2008), recientemente vertida al castellano por N. Casellas y M. Atencia
(2010).
42
El lector puede consultar los programas de investigación dedicados a IA y derecho en Casanovas et al.
(2008). Los principales han sido e-POWER, SEKT, ALIS, ARGUGRID, DALOS, ESTRELLA y
OPENKNOWLEDGE. Han sido elaborados modelos de documentos jurídicos, conceptos, casos,
normas, e interacciones. Aparte del conocimiento práctico argumentativo, también se ha modelado el
legislativo (DALOS) y judicial (SEKT). En la Universidad de Zaragoza, Fernando Galindo ha
organizado la red académica europea y latinoamericana LEFIS (http://www.lefis.org/ ).
43
Vid. sobre este punto, De Andrés y Hernández Marín (2009). CRONOLEX controla la dinámica del
sistema normativo, y ha sido uno de los puntos de inspiración del programa de análisis de la
Universidad de Bolonia AKOMA NTOSO, sobre la clasificación de textos legislativos de los
parlamentos africanos. Cfr. Barabucci et al. (2010), Palmirani (2010).
44
Cfr. Galindo y Aries (2009); Fernández-Barrera et al. (2009).
45
Cfr. e.g. el modelo argumentativo de A. Lodder y J. Zeleznikow (2005) y FAMILY WINNER, un
programa de cálculo de intereses y alternativas en casos de divorcio (Zeleznikow y Bellucci, 2003).
46
En Europa, e.g., compárese el contenido de revistas como AI & Law y los International Journal of
Law and Information Technology (desde 1993) (http://ijlit.oxfordjournals.org/ ) y el Journal of
Information, Law & Technology (JILT) (desde 1996) (http://www2.warwick.ac.uk/fac/soc/law/elj/jilt/).
Hasta hace relativamente poco, las revistas de derecho y tecnología (comprendiendo las clásicas de las
universidades americanas de Harvard, Stanford y Berkeley), y las revistas de IA mantenían una
distancia prudencial, puesto que se dirigían a comunidades profesionales distintas.
47
Cfr. Casanovas (2009), Casanovas y Poblet (2009), Poblet et al. (2010).
26
48
Vid. los artículos de M.. Greensleaf, T. Bruce y D. Poulin sobre los origenes y evolución del
movimiento en Peruginelli y Ragona (2009). Por poner sólo un ejemplo, la plataforma australiana
(Australian Legal Institute) aglutina 1.155 bases de datos, que tienen 100.000 visitas diarias. NO
tienen un modelo de negocio único (basado e.g. en la publicidad), sino que permiten el libre acceso
debido a los acuerdos entre usuarios, proveedores de servicio y proveedores de contenido.
49
Cfr. Benjamins et al. (2005), Breuker et al. (2009), Casanovas et al. (2010a), Casanovas et al. (2010b).
El lector puede encontrar los proyectos internacionales y nacionales realizados en este campo en
http://idt.uab.cat/projects/projects.htm .
50
Me he ocupado de ello y de la denominada “segunda generación de web semántica” para parques de
servicios jurídicos en Casanovas (2009).
51
Hay ya un cierto número de empresas y proveedores de servicios exclusivamente para este objetivo.
Vid. los Workshops DESI, el último: http://www.law.pitt.edu/DESI3_Workshop/ . Cfr. Attfield y
Bladford (2008).