Modelos Científicos Alejandro Cassini
Modelos Científicos Alejandro Cassini
Modelos Científicos Alejandro Cassini
Alejandro Cassini
Universidad de Buenos Aires
Los filósofos de la ciencia han reconocido, desde hace ya varias décadas, que una de las
principales actividades de la práctica científica normal consiste en la construcción y aplicación
de modelos. Una descripción de estas prácticas de la ciencia, que son tanto teóricas como
experimentales, muestra que hay numerosos tipos de modelos científicos, entre otros, mapas,
maquetas, íconos, prototipos, sistemas de ecuaciones y simulaciones computacionales. Un
modelo, por consiguiente, puede ser tanto un objeto concreto como uno abstracto. Además,
es evidente que los modelos desempeñan funciones muy diversas, que van desde la
predicción teórica hasta la enseñanza de la ciencia. La función heurística (método para
aumentar el conocimiento) de los modelos se admite de manera casi unánime. La capacidad
explicativa de los modelos, en cambio, ha sido más discutida. En cualquier caso, la finalidad
con la que se construyen los modelos depende de los intereses de los usuarios de tales
modelos. Un mismo modelo puede desempeñar varias funciones a la vez en un mismo
contexto de aplicación, así como migrar, usualmente luego de sufrir modificaciones, de un
contexto a otro, e incluso de una disciplina a otra diferente.
Los modelos científicos habían sido discutidos por científicos y filósofos desde mediados del
siglo XIX, particularmente en el campo de la física, como ha mostrado Daniela Bailer-Jones
(2009). En la década de 1960, Max Black (1962), Mary Hesse (1963) y Peter Achinstein (1968)
escribieron los primeros estudios filosóficos detallados sobre los modelos en ciencia. Antes ya
se había producido una buena cantidad de artículos sobre el tema, pero de manera
relativamente aislada (Bailer-Jones 2009 contiene una bibliografía detallada de estas obras
más antiguas). El cambio en el enfoque de los filósofos de la ciencia durante la década de 1970
se debe a dos razones principales. La primera de ellas es el surgimiento de la concepción
semántica o modelo-teórica de las teorías científicas como alternativa a la concepción clásica,
que había sido elaborada desde la década de 1930 y todavía se encontraba vigente. De
acuerdo con la concepción semántica (que se analiza con más detalle en la sección 4), una
teoría no es un conjunto de oraciones lógicamente cerrado, sino una colección de modelos. De
esta manera, los modelos pasan a concebirse como constitutivos de las propias teorías
científicas, cuando hasta entonces habían sido considerados como ajenos a las teorías, o al
menos, como meros complementos ilustrativos o ejemplificadores. La segunda razón proviene
de la creciente orientación de los filósofos de la ciencia hacia el análisis de las prácticas
científicas concretas, sobre todo a partir de la década de 1980. El estudio de las prácticas
científicas reveló a los filósofos, entre muchas otras novedades, que la producción de teorías
es un fenómeno relativamente poco frecuente y no ocupa un lugar preponderante en la tarea
científica cotidiana. En la práctica de la ciencia normal, en cambio, resulta mucho más
importante la elaboración y el empleo de modelos, frecuentemente con una finalidad
puramente instrumental y de carácter predictivo.
Ante todo, existe un significado unívoco y preciso del término modelo en la matemática y las
ciencias formales. Este es el sentido con que se lo emplea en la teoría de modelos, una rama
de la lógica matemática ya bien desarrollada (que se describe brevemente en la sección 3).
Sobre este concepto específico de modelo no hay mayores desacuerdos entre los filósofos de
la ciencia. La situación es muy diferente en el campo de las ciencias empíricas, tanto naturales
como sociales, donde existe una diversidad de usos del término, la mayoría de los cuales
presenta, además, un cierto grado de vaguedad. La gran mayoría de las discusiones entre los
filósofos de la ciencia se refieren a los modelos en las ciencias empíricas, sobre los cuales
existen pocos puntos de acuerdo generalizado y persisten muchos disensos.
Un examen, incluso muy parcial y somero, de la bibliografía científica en ciencias tales como la
física o la biología muestra que el término modelo se emplea de una manera altamente
informal y a menudo incluso descuidada. Muchos científicos no distinguen entre modelo y
teoría y usan estos dos términos de manera indistinta. Así, por ejemplo, cuando se discuten
las diferentes interpretaciones de la mecánica cuántica, los libros de texto de física se refieren
a la teoría de variables ocultas de David Bohm como “la teoría de Bohm” o “el modelo de
Bohm” (también “la interpretación de Bohm”), como si estas expresiones fueran sinónimas.
Existe, pues, un uso bastante extendido del término que, o bien identifica a los modelos con
las teorías, o bien considera a los modelos como una subclase de las teorías (esto es, como
teorías de dominio restringido). Cuando en los usos científicos se intenta distinguir entre
modelos y teorías, suelen señalarse algunas de estas características:
Todas estas características varían bastante según el contexto o la ciencia de que se trate, pero
se encuentran indudablemente presentes en el uso que los científicos hacen del término
modelo. Desde el punto de vista filosófico, sin embargo, no son propiedades que permitan
hacer una distinción clara y nítida entre modelos y teorías. Si se las empleara para ello, la
conclusión que podría obtenerse es que la diferencia entre un modelo y una teoría es una
cuestión de grado. Algunos filósofos estarían dispuestos a aceptar esta consecuencia, pero
otros la rechazarían sin dudarlo.
Cuando se atiende a los ejemplos de modelos que ofrecen los científicos, se obtiene una
diversidad que parece desconcertante (como ha señalado Bailer-Jones 2009). Se puede
constatar que se llama modelo, entre otras cosas, a los siguientes objetos: íconos, prototipos,
maquetas, mapas, diagramas, sistemas de ecuaciones, programas de computación, y la lista
podría continuarse. ¿Qué tienen en común todos estos objetos para ser llamados modelos?
Una respuesta ampliamente extendida entre los filósofos de la ciencia es que todos ellos se
emplean para representar un determinado fenómeno o dominio de fenómenos. Se admite, no
obstante, que los modelos no proporcionan una representación visual o fotográfica de los
fenómenos sino, inevitablemente, una representación aproximada, simplificada y a menudo
distorsionada de los fenómenos que caen bajo su alcance. Usualmente se engloba este hecho
bajo la categoría de idealización y se admite que los modelos proporcionan una representación
idealizada de los fenómenos. La siguiente, entonces, podría considerarse como una
caracterización minimal de los modelos científicos: Un modelo científico es una representación
idealizada de un determinado fenómeno o dominio de fenómenos.
Existe otro uso del término “modelo” que es el que se emplea cuando se hace referencia a los
modelos de los datos, cuyo análisis filosófico introdujo Patrick Suppes (1962). Generalmente
las predicciones derivadas de una teoría o de un modelo no se contrastan por medio de los
llamados “datos crudos” de la observación, sino mediante un modelo de tales datos. Este tipo
de modelo también se considera una representación idealizada, pero de los resultados de la
experiencia, por ejemplo, de mediciones repetidas de una magnitud. Los modelos de los datos
se obtienen mediante la aplicación de instrumentos estadísticos a los datos crudos. Primero, se
toman determinadas muestras de los fenómenos que se quiere observar o medir. Después, se
eliminan los datos que se consideran erróneos o divergentes, en el proceso llamado reducción
de datos. Luego, se analizan los datos seleccionados, por ejemplo, un conjunto de resultados
de mediciones repetidas de un determinado parámetro físico, y se determina la media (y otras
medidas de tendencia central), se calcula la desviación estándar (y otras medidas de
dispersión), se elabora un histograma, o se ajusta una curva, o bien se construye otra forma de
presentación de los datos que se estime adecuada. El resultado de este proceso es un modelo
de los datos con el cual se comparan las predicciones teóricas, que se consideran confirmadas
si caen dentro del margen del error experimental incorporado al modelo. Los modelos de los
datos plantean interesantes cuestiones filosóficas relacionadas con la epistemología de los
étodos estadísticos (véase, por ejemplo, Mayo 1996). No obstante, no han estado en el centro
de la discusión actual en el marco de la concepción representacionista de los modelos
científicos.
Otra perspectiva para el análisis de los modelos científicos consiste en atender a la función que
estos desempeñan en las prácticas científicas. Aquí también se puede constatar una amplia
diversidad de fines, usos y funciones. Indudablemente, la práctica de la modelización tiene
múltiples finalidades o, lo que es equivalente, los modelos se construyen para cumplir muy
diferentes funciones. A menudo un mismo modelo puede desempeñar varias funciones
simultáneamente, incluso en un mismo contexto de uso. Los modelos desempeñan
indudablemente una función heurística y exploratoria: permiten el acceso a fenómenos poco
conocidos o que no resultan tratables con los recursos del conocimiento vigente (teorías, datos
observacionales u otros modelos). Otra de sus funciones principales es la predicción de los
fenómenos: algunos modelos, como los modelos del clima, se construyen con la única finalidad
de predecir la ocurrencia de los fenómenos, pero no se proponen describir ni explicar tales
fenómenos, al menos no de manera primaria, esto es, como su objetivo principal. Una tercera
función bien establecida de los modelos es su función didáctica o pedagógica: los modelos son
particularmente útiles para introducir a los estudiantes en temas complejos mediante
representaciones simplificadas; los modelos de bolas y varillas que se emplean en la química
para ilustrar la estructura de las moléculas constituyen uno de los ejemplos mejor conocidos.
Las funciones heurística, predictiva y didáctica de los modelos son evidentes y muy pocos
filósofos están dispuestos a negarlas o discutirlas. Hay otras funciones, en cambio, que han
suscitado menos consenso. Una de las más discutidas es la función explicativa de los modelos.
Sin duda hay modelos que proporcionan explicaciones de los fenómenos, pero estas
explicaciones no siempre exhiben un mecanismo causal para la producción de dichos
fenómenos. Solo un número relativamente reducido de modelos se propone aislar
mecanismos causales, aunque, puede alegarse, hay modelos que proporcionan explicaciones
no causales. El problema se traslada, entonces, al tipo de explicación que se busque, o, desde
el punto de vista filosófico, a la clase de explicaciones que se esté dispuesto a aceptar como
legítimas en el dominio de cada ciencia (para un examen detallado de esta cuestión véase
Woodward 2003).
Estrechamente relacionada con la función explicativa de los modelos está la cuestión de si los
modelos nos proporcionan una comprensión de los fenómenos y, si es así, qué tipo de
comprensión son capaces de producir. Es bien conocido que Willian Kelvin sostuvo que sólo los
modelos mecánicos de un fenómeno son aceptables porque solo ellos nos permiten entender
realmente ese fenómeno (véase Bailer-Jones 2009 para un análisis detallado de este punto).
Todo modelo, según Kelvin debería proporcionar, entonces, una suerte de explicación
mecánico-causal. Pero es evidente que en la ciencia actual los modelos mecánicos son apenas
una minoría entre los múltiples modelos que se producen. Hay innumerables modelos que son
puramente matemáticos y computacionales. Tales modelos no permiten en muchos casos una
representación visual de los fenómenos modelados, como ocurre, por ejemplo, en la física
cuántica. Así pues, la cuestión de qué clase de comprensión nos permiten obtener esos
modelos abstractos permanece todavía abierta.
La pragmática de los modelos, esto es, el estudio de la relación de los modelos con sus
usuarios es un campo todavía poco explorado. Algunos aspectos, sin embargo, ya pueden
comprenderse con cierta claridad. Los modelos científicos tienen una diversidad de usos y
funciones que parecen ser irreductibles. Los modelos se construyen para resolver un problema
determinado en un cierto dominio de fenómenos, aunque frecuentemente tienen aplicaciones
en dominios de fenómenos no previstos. Con adaptaciones, son incluso capaces de migrar de
una ciencia o disciplina a otras muy diferentes y aparentemente alejadas entre sí (aunque los
cambios probablemente alteren la identidad del modelo, por lo que parece más razonable
afirmar que es una plantilla (template), o estructura formal o computacional, del modelo la
que se traslada, como hace Humphreys 2004). Los productores de los modelos y los usuarios
de tales modelos generalmente no coinciden; basta pensar, por ejemplo, en el caso de los
mapas. No obstante, los modelos siempre se construyen teniendo en cuenta los intereses de
los usuarios y están sujetos a cambios cuando estos intereses se modifican o se transforman.
Ante todo, una teoría formal (en adelante, llamada simplemente teoría) se formula en un
determinado lenguaje formal. Un lenguaje formal consta de un conjunto de símbolos que
constituyen su vocabulario y un conjunto de reglas de formación, que especifican cómo
combinar los símbolos para construir las fórmulas bien formadas de ese lenguaje. En un
lenguaje formal los símbolos no tienen significado descriptivo alguno, sino solamente una
categoría lógico-gramatical: constantes individuales, predicados (monádicos, diádicos, etc.) y
funtores (unarios, binarios, etc.). Por consiguiente, las fórmulas bien formadas de ese lenguaje
tampoco tienen significado, son meramente cadenas de símbolos construidas de acuerdo con
las reglas de formación. Un lenguaje formal, entonces, es un lenguaje puramente sintáctico, es
decir, dotado únicamente de una sintaxis lógica. Las fórmulas de ese lenguaje, por tanto, no
tienen valor de verdad, no son ni verdaderas ni falsas.
Un modelo de una teoría formal es una interpretación de dicha teoría en la cual todas las
fórmulas de esa teoría resultan verdaderas. Es evidente que todo modelo es una
interpretación de una teoría, pero no toda interpretación de dicha teoría constituye un modelo
de la misma. Las teorías que tienen al menos un modelo se denominan satisfacibles. Las
teorías inconsistentes (aquellas que contienen contradicciones) no son satisfacibles. Ello es así
porque la interpretación de una teoría, a menos que se especifique lo contrario, siempre
presupone la lógica clásica. Por consiguiente, no hay ninguna interpretación posible en la cual
una fórmula y su negación resulten verdaderas. Las teorías inconsistentes, por tanto, no tienen
modelos. Se sigue de allí que si una teoría es satisfacible, entonces, es consistente. Encontrar
un modelo de una teoría dada implica ofrecer una prueba de consistencia de dicha teoría. De
allí la importancia fundamental que tiene en matemática probar que una teoría es satisfacible.
Si una teoría tiene un modelo, casi siempre tiene un número infinito de modelos. Pero, por
cierto, eso no implica que podamos conocerlos. En verdad es muy difícil encontrar siquiera un
solo modelo para las teorías matemáticas. Una misma teoría puede tener modelos en
diferentes dominios de objetos, tanto abstractos (por ejemplo, conjuntos de números o de
funciones) como concretos (tales como conjuntos de partículas o de moléculas). Los modelos
de una teoría pueden ser tanto finitos como infinitos, según su respectivo dominio sea un
conjunto finito o infinito de objetos. Encontrar diferentes modelos de una misma teoría
implica encontrar nuevos dominios de objetos a los cuales dicha teoría resulta aplicable. Se
llama modelo pretendido a aquel al cual se quiere aplicar una determinada teoría, a veces
construida específicamente para ese fin. Algunas teorías, como la aritmética de Peano tienen
un modelo pretendido específico, en este caso la aritmética elemental en el dominio de los
números naturales, mientras que otras, como la teoría de grupos, no tienen un modelo
pretendido. En cualquier caso, toda teoría satisfacible tendrá siempre múltiples modelos no
pretendidos, no importa cuál sea su modelo pretendido.
Todo lo anterior relativo a las relaciones entre estructuras se aplica igualmente a las relaciones
entre modelos, ya que estos son precisamente cierta clase de estructuras: aquellas en las
cuales todos los teoremas de una teoría resultan verdaderos. Si todos los modelos de una
misma teoría son isomorfos entre sí, se dice que dicha teoría es categórica. La relación entre
teorías formales y modelos es el objeto de estudio de una de las ramas más desarrolladas de la
lógica matemática, la llamada, precisamente, teoría de modelos, acerca de cuyos resultados
fundamentales existe un amplio consenso en la comunidad científica (para una introducción
amplia al tema véase Manzano 1999; para una exposición más avanzada véase Hodges 1997).
La concepción semántica de las teorías se gestó desde la década de 1950, con trabajos como el
de Suppes (1957), pero se formuló claramente desde la década de 1970 en adelante. Hay
muchas versiones de esta concepción que son bastante diferentes entre sí, pero que
comparten un núcleo común de ideas, básicamente, que una teoría no debe identificarse con
un conjunto de oraciones, sino con una colección de modelos. Pero, obviamente, no toda
colección de modelos constituye una teoría, sino solo los que guardan entre sí cierta relación.
El núcleo de la concepción semántica de las teorías puede expresarse, entonces, de esta
manera: una teoría es una colección de modelos M relacionados entre sí por una relación R.
Muchos filósofos de la ciencia de diferentes posiciones epistemológicas coinciden en la
aceptación de esta idea general acerca de la naturaleza de las teorías empíricas (entre otros,
Suppes 1957, 1969 y 2002, Van Fraassen 1980, 1989 y 2008, Balzer, Moulines y Sneed 1987,
Giere 1988, 1999 y 2006, Suppe 1989, Da Costa y French 2003).
La otra versión del semanticismo es la propuesta por Ronald Giere (1988, 1999 y 2006), que es
la que más difiere del estructuralismo entre los miembros de la familia semanticista. Según
Giere, los modelos de una teoría deben concebirse de la manera más informal y amplia
posible, que es la que mejor se ajusta a los usos que los científicos hacen del término modelo.
Así pues, los modelos pueden ser tanto sistemas de ecuaciones, como prototipos, maquetas,
mapas o diagramas, e incluso conjuntos de oraciones. Por otra parte, la relación que liga a los
modelos de una misma teoría es una relación de semejanza, entendida también en un sentido
informal y muy amplio. Una teoría empírica es, entonces, una colección de modelos
semejantes entre sí. Una consecuencia de esta concepción es que las teorías científicas son
entidades esencialmente vagas que tienen límites poco definidos. Ello es así porque la
semejanza es una relación no transitiva, que va perdiéndose gradualmente, de modo que
algunos modelos de la teoría serán más o menos semejantes a los otros, sin que pueda
establecerse una demarcación tajante entre los modelos que forman parte de una
determinada teoría y aquellos que no forman parte de ella. Giere (1988) no solo acepta esta
consecuencia, sino que, además, considera que es una ventaja porque se adecua a la
naturaleza mal definida de las teorías científicas en la práctica concreta de las ciencias
empíricas. Giere, sin embargo, deja sin determinar cómo debe especificarse la semejanza entre
los modelos de una teoría. Considera que el grado y respecto en el cual los modelos son
semejantes es algo que debe establecerse en cada contexto específico. Si esto no se hace, es
decir, si no se limitan las propiedades relevantes para establecer la semejanza, se corre el
riesgo de que la relación se vuelva trivial, ya que cualquier modelo (o cualquier entidad) es
semejante a cualquier otro en algún grado y en algún respecto.
En razón de que según la concepción clásica las teorías tienen un carácter semántico y de que
según la concepción semántica las teorías tienen un componente proposicional o enunciativo,
no parece adecuado hablar de una concepción semántica o no enunciativa de las teorías, como
se hace a menudo. Resulta más ajustada la denominación de concepción modelo-teórica de las
teorías empíricas, que suele emplearse en algunas ocasiones, aunque el nombre “concepción
semántica” ya se halla establecido por el uso y parece que difícilmente sea desplazado en lo
inmediato.
En cualquiera de las variantes del semanticismo la relación entre modelos y teorías es la misma
y se encuentra bien definida: los modelos son elementos componentes de las teorías
empíricas. Así pues, la relación es intrínseca y no se establece entre dos clases de entidades
autónomas. Las teorías son, precisamente, colecciones de modelos, por lo que una teoría sin
modelos (por ejemplo, una teoría inconsistente) no es una teoría en absoluto. La consistencia
aparece, entonces, como una condición necesaria de toda teoría empírica. Los semanticistas
no extienden esta idea a las teorías de la matemática, donde obviamente no puede
presuponerse la consistencia.
Uno de los pocos autores clásicos que concede un lugar destacado a los modelos es Ernest
Nagel (1961). Sostiene que los modelos son uno de los tres componentes de las teorías, junto
con los postulados teóricos y las reglas de correspondencia. Los modelos proporcionan una
interpretación de los postulados teóricos en términos familiares o visualizables. No pueden
sustituir a las reglas de correspondencia, por lo cual no permiten deducir enunciados
observacionales de los postulados, pero, no obstante, desempeñan diversas funciones
importantes en la ciencia. Según Nagel, los modelos tienen valor heurístico por sí mismos y
pueden permitir el desarrollo de líneas de investigación novedosas que no habrían surgido del
análisis de la propia teoría. No solo pueden sugerir la necesidad de nuevas reglas de
correspondencia para los términos teóricos de una teoría, sino también conectar dicha teoría
con sus sucesoras o predecesoras. Con todo, los modelos de una teoría no deben confundirse
con la propia teoría. En algún sentido, entonces, una teoría ya está completamente formulada
con los postulados teóricos y las reglas de correspondencia y no requiere, al menos de manera
esencial, de un modelo.
Mary Morgan y Margaret Morrison (1999) consideran que los modelos son agentes autónomos
que funcionan como instrumentos para la investigación científica. Mediante esta expresión
quieren decir que los modelos científicos no dependen de una teoría determinada, sino que
son entidades híbridas en cuya construcción intervienen diversos elementos heterogéneos
entre sí. Usualmente un modelo se construye empleando hipótesis pertenecientes a una o
varias teorías diferentes (a veces incluso mutuamente incompatibles), así como apelando a
diversos datos empíricos de diferentes clases. No obstante, los modelos no pueden derivarse
solamente de la teoría o de los datos. De esta manera, Morgan y Morrison se oponen tanto a
la concepción clásica como a la concepción semántica de las teorías. De acuerdo con estas
autoras, los modelos no son constitutivos de una teoría determinada, pero tampoco son
completamente independientes de toda teoría, ni mucho menos prescindibles o irrelevantes
para la práctica científica. Al contrario, los modelos son instrumentos empleados en la ciencia,
tal como un termómetro o un voltímetro, pero, a diferencia de esta clase de instrumentos, los
modelos también cumplen una función representativa. Empleando una conocida distinción de
Ian Hacking (1983), Morgan y Morrison sostienen que los modelos sirven a la vez para
representar a los fenómenos como para intervenir sobre ellos.
Nancy Cartwright (1999), por su parte, también acepta que los modelos funcionan como
mediadores entre las teorías y el mundo real y que, en la mayoría de los casos, tienen un
carácter representativo. Su argumento principal es que, al menos en el dominio de la física, las
teorías son demasiado abstractas y alejadas de la experiencia como para poder ser
contrastadas o aplicadas. Para hacerlo se requiere de un modelo más concreto o, si se quiere,
menos abstracto, un modelo en el cual las relaciones entre conceptos abstractos formuladas
en la teoría sean ejemplificadas. Las teorías físicas, sostiene Cartwright, no representan lo que
ocurre en el mundo; únicamente los modelos tienen esta capacidad representativa. Sin
embargo, los modelos no forman parte de ninguna teoría determinada. Desde este punto de
vista, Cartwright se opone a la concepción semántica de las teorías. Su posición es que, aunque
los modelos puedan haber sido construidos a partir de ciertas teorías, tienen, no obstante, un
carácter independiente de toda teoría en particular (para un examen detallado de la
concepción de los modelos de Cartwright véase Hartmann, Hoefer y Bovens 2008).
5. Los modelos como representaciones de los fenómenos
El concepto de representación, ampliamente utilizado en diferentes ramas de la filosofía, es,
sin embargo, uno de los más elusivos y ha resistido hasta hoy los más diversos intentos de
elucidación. Se lo ha estudiado en los dominios de la filosofía del lenguaje y de la mente, en
relación con las ideas de representación lingüística y representación mental, así como en el
campo de la estética, en relación con la idea de representación artística. Más recientemente,
los filósofos de la ciencia se han ocupado de este concepto precisamente en relación con la
idea de que los modelos constituyen representaciones de los fenómenos. Existen numerosas
maneras en que ha sido enfocada la cuestión de la representación científica, pero hasta el
momento no puede decirse que exista una teoría sistemática y bien desarrollada acerca de
este tema. Es, por tanto, todavía una cuestión abierta que es objeto de discusión y disenso
entre los filósofos de la ciencia.
Se admite generalmente que los modelos científicos no son entidades mentales ni lingüísticas.
Pueden ser entidades concretas, como una maqueta o un prototipo, o entidades abstractas,
como una estructura conjuntista o un sistema de ecuaciones, pero, en cualquier caso, no
tienen un carácter mental o lingüístico. Dado este punto de partida, sobre el que hay amplio
consenso entre los filósofos de la ciencia, el problema de la representación científica, en
particular, el de la relación entre los modelos y los fenómenos, no puede reducirse al problema
de la representación mental o lingüística. Por otra parte, dado que los objetos artísticos, como
una pintura o una escultura, son entidades concretas, muchos filósofos consideran que la
cuestión de la representación artística es relevante para la representación científica e incluso
puede servir como inspiración y fuente de analogías (véase, por ejemplo, Frigg 2010a, 2010b,
Toon 2012, y, más en general, Suárez 2010).
Consideremos en primer lugar el isomorfismo, cuya situación es análoga para otros morfismos.
Los proponentes de esta posición, como los estructuralistas y otros semanticistas, sostienen
que un modelo M representa un fenómeno F si y solo si M y F son isomorfos entre sí (o tienen
una relación de morfismo más débil, como el isomorfismo parcial o el homomorfismo). El
primer problema de esta idea se encuentra en los relata de la relación. El isomorfismo, en
sentido literal y no metafórico, es una relación que solo está definida entre estructuras
conjuntistas. Por tanto, los relata de la relación deben ser ambos conjuntos. Ya se dijo que los
modelos son concebidos por los estructuralistas como estructuras conjuntistas, pero,
entonces, los fenómenos también tienen que serlo. ¿De qué modo tiene que entenderse,
entonces, la relación de representación entre la maqueta de un puente (el modelo) y el puente
real (el fenómeno)? Aquí se trata de objetos concretos, pero las estructuras son entidades
abstractas. La única salida parece ser admitir que los objetos concretos ejemplifican o
instancian estructuras abstractas. Entonces, debe decirse que la estructura instanciada por el
puente es isomorfa a la estructura instanciada por la maqueta. En virtud de esta identidad de
estructuras es que la maqueta representa al puente real. Al tomar esta vía aparecen
inmediatamente problemas metafísicos, ya que un mismo objeto puede, en principio,
instanciar muchas estructuras diferentes. La manera más natural de evitar estos problemas
metafísicos consiste en admitir que un modelo representa en realidad a otro modelo, por
ejemplo, un modelo teórico representa a un modelo de los datos. Pero esta estrategia obliga a
concebir a todos los modelos, incluso los aparentemente concretos, como estructuras
conjuntistas (algo que ya había advertido Suppes 1960). En cuanto a las propiedades de la
relación, el isomorfismo, al ser una relación de equivalencia, no tiene ninguna de las
propiedades que intuitivamente se adjudican a la relación de representación. Lo mismo vale
para otros morfismos. Por consiguiente, la representación no puede consistir en algún
morfismo entre estructuras.
Ronald Giere (2004, 2006, 2010 y 2012) también enfatiza los aspectos pragmáticos y sociales
de la representación científica. Sostiene que la representación es una relación tetrádica entre
un agente, un modelo, un fenómeno y un propósito. La relación de representación tiene,
entonces, la siguiente forma general: el agente A usa el modelo M para representar el
fenómeno F con el propósito P. La representación científica es, así, una práctica que realizan
los miembros de las comunidades científicas. Giere adopta una posición realista acerca de los
modelos, por lo que no se refiere a los fenómenos, sino al mundo real como el objetivo de la
representación. Considera, en consecuencia, que los modelos representan determinados
aspectos del mundo real. El carácter representativo de los modelos se funda en su semejanza
con ciertos aspectos de la realidad elegidos como objetivo de la representación. Pero un
modelo no representa un aspecto del mundo por el hecho de ser objetivamente semejante a
este, sino por el hecho de que un agente selecciona ciertos rasgos o propiedades del modelo
que considera semejantes a ciertos rasgos o propiedades de cierto aspecto del mundo real.
Para efectuar esta tarea no se requiere ninguna medida objetiva de la semejanza. El carácter
representativo de un modelo depende, pues, de las intenciones de los agentes. La semejanza
entre los modelos y el mundo es, entonces, relativa y varía según el contexto y los intereses de
los agentes. Giere (2012) distingue tres clases de modelos: teóricos, físicos y computacionales,
pero considera que la manera en que estos modelos representan el mundo real es la misma y
se basa en las semejanzas seleccionadas por los agentes. A esta posición la llama una
concepción intencional de la representación. Los modelos pueden ser tanto entidades
abstractas, como los modelos teóricos (especialmente, los matemáticos) y computacionales, o
bien entidades concretas, como los modelos físicos, pero la diferencia en el carácter ontológico
no cambia el modo en el que se los emplea para representar el mundo real. Toda
representación, según Giere, se funda en una semejanza selectiva, establecida por un agente,
entre el modelo y ciertos aspectos del mundo. Esta clase de semejanza es necesariamente
parcial, ya que hay rasgos del modelo que no representan propiedades de los sistemas reales
y, a la vez, hay propiedades del sistema real que no tienen contraparte en el modelo. Cada
modelo representa una perspectiva del mundo real, por lo que un mismo fenómeno físico
puede ser representado mediante diferentes modelos.
Diversos filósofos de la ciencia (como Frigg y Toon) han apelado a conceptos y teorías de la
representación estética como fuente de una analogía con la representación científica. En
particular, se han inspirado en las concepciones de la representación de Goodman (1968) y de
Walton (1990), concebidas originalmente para dar cuenta de la representación en las artes
visuales y en la literatura.
Roman Frigg (2010a, 2010b y 2010c) elabora una concepción indirecta de la representación
científica, para lo cual recurre a algunas ideas de Kendall Walton (1990) sobre la
representación en la literatura y el arte. Frigg considera que los modelos científicos, al menos
los de carácter teórico, como, por ejemplo, el modelo atómico de Bohr, son análogos en
muchos respectos a los personajes de la ficción literaria. Para elaborar esta analogía aplica la
llamada teoría de la pretensión (pretence theory) de Walton. De acuerdo con esta teoría, una
ficción literaria es una especie de juego de “hacer creer que” (game of make-believe). En estos
juegos, un determinado objeto funciona como la utilería (prop) que promueve la imaginación,
por ejemplo, una rama de árbol es imaginada como una espada en un juego infantil. La
modelización científica, según Frigg, funciona de una manera similar a la de esta clase de
juegos. La construcción de un modelo comienza con la descripción de un sistema modelo; este
sistema, a su vez, actúa como la utilería de un juego de hacer creer que. Constituye lo que
Frigg llama una p-representación (donde la p se refiere al prop), que da como resultado un
objeto imaginario que es el propio sistema modelo. Luego, a través de un acto que llama t-
representación (donde la t se refiere al target) se proclama que ese sistema modelo representa
su objetivo, por ejemplo, un determinado fenómeno físico. Así, la representación de los
fenómenos resulta indirecta, ya que está mediada por la previa representación del sistema
modelo. Esta p-representación es de carácter lingüístico porque se formula en un texto,
mediante definiciones, principios teóricos o ecuaciones matemáticas. El resultado es un
modelo que tiene el carácter de un objeto imaginario, semejante al de los personajes de
ficción.
Adam Toon (2012) también propone una concepción de la representación científica basada en
la ideas de Walton (1990). Distingue entre modelos físicos y modelos teóricos, pero considera,
a diferencia de Frigg, que las dos clases de modelos representan a su objetivo de manera
directa. De acuerdo con Toon, un modelo tiene carácter representativo si y solo si funciona
como una utilería en un juego de hacer creer que. Esto es, un modelo representa un
determinado sistema físico si prescribe ciertas cosas imaginarias (imaginings) acerca de dicho
sistema en el contexto de un juego de hacer creer que. En este juego los modelos funcionan
como utilería. Los modelos físicos, como las maquetas o prototipos, constituyen su propia
utilería, mientras que los modelos teóricos emplean como utilería descripciones preparadas y
conjuntos de ecuaciones, en particular, ecuaciones de movimiento que especifican la dinámica
de un sistema. Estas descripciones preparadas son las que prescriben cosas imaginarias acerca
del sistema que es el objetivo de la representación. Toon considera que su concepción de la
representación es derivativa: el poder representativo de los modelos deriva del poder
representacional de ciertos estados mentales, los de la imaginación. Ello no implica, sin
embargo, que los modelos sean entidades mentales.
Todas las concepciones representacionistas de los modelos deben afrontar el problema de la
llamada representación inadecuada (misrepresentation), es decir, deben dar cuenta de la
diferencia entre representar incorrectamente los fenómenos y no representarlos en absoluto.
El hecho de que un modelo sea representativo, en efecto, no implica que proporcione una
representación adecuada del objetivo que se propone representar. Así, por ejemplo, en 1953,
antes de construir el exitoso modelo de doble hélice del ADN, Watson y Crick intentaron
construir un modelo de triple hélice, que resultó un fracaso. Ambos modelos constituyen
representaciones de la estructura molecular del ADN, pero el de la triple hélice debe
considerarse más bien una representación inadecuada que un modelo no representativo. No
hay todavía consenso entre los filósofos de la ciencia acerca de cómo debe entenderse la
representación inadecuada ni acerca de cómo debe juzgarse si la representación que
proporciona un determinado modelo es adecuada o no. El problema se hace más agudo por el
hecho de que, siendo todo modelo más o menos idealizado, la representación del objetivo
siempre ha de ser más o menos inadecuada, apenas aproximada, en el mejor de los casos.
Otros filósofos, por el momento una minoría, han intentado desarrollar una concepción no
representacionista de los modelos científicos. Entre ellos se cuenta Tarja Knuuttila (2011) que
propone considerar a los modelos como artefactos epistémicos susceptibles de desempeñar
una pluralidad de funciones, entre las cuales la de representar los fenómenos podría ser solo
una más. Según Knuuttila, los modelos son instrumentos construidos con un propósito
específico y sirven como útiles externos al pensamiento. No son entidades puramente
abstractas, sino que tienen siempre un soporte material que permite considerarlos como
entidades concretas, aunque no son sistemas naturales, sino artificiales. En tanto son
concretos, los modelos pueden ser manipulados y tomarse como objeto de experimentación.
De estas características se deriva el valor epistémico o cognitivo de los modelos en la ciencia,
en particular, de su manipulabilidad. La alternativa no representacionista a la concepción
dominante de los modelos todavía se encuentra en proceso de elaboración, pero resulta
atractiva para quienes encuentran insuperable el problema de la representación inadecuada o,
más en general, para quienes adhieren a una concepción no realista de los fines del
conocimiento científico.
Ernan McMullin (1985) proporcionó uno de los primeros intentos sistemáticos de abordar el
tema, adoptando una perspectiva claramente realista acerca de los modelos científicos.
Entiende por idealización la “simplificación deliberada de algo complicado” con el fin de
volverlo al menos parcialmente comprensible o tratable. El proceso de idealización puede
implicar tanto la distorsión del fenómeno original como el hecho de “dejar de lado alguno de
sus componentes”, es decir, hacer abstracción de ellos. Según McMullin, un modelo es
siempre un constructo teórico idealizado que posee solamente las propiedades que el
modelador le asigna explícitamente. Todo modelo es, por consiguiente, incompleto, pero, en
principio, siempre puede completarse un poco más. Hay, pues, grados de incompletitud.
McMullin llama idealización formal a la que procede despreciando propiedades del objeto
modelado que se suponen relevantes para el problema que se quiere resolver. Por otra parte,
llama idealización material a la que consiste en dejar sin especificar determinadas propiedades
del objeto en cuestión que se consideran irrelevantes para los fines del modelo. Así, por
ejemplo, en el modelo atómico de Bohr, que concibe al átomo como un sistema planetario en
miniatura, la estructura interna del núcleo se deja sin especificar, efectuando de ese modo una
idealización material. Por otra parte, el núcleo se considera en reposo, las órbitas de los
electrones perfectamente circulares y se desprecian los efectos relativistas del movimiento de
los electrones. Todas estas son idealizaciones formales, que tomadas literalmente deberían
considerarse como supuestos falsos. El resultado de la idealización, según McMullin, es que los
modelos se apartan de la verdad (o de la verosimilitud) respecto de los objetos modelados.
Esta afirmación solamente tiene sentido en el contexto de una concepción realista de los
modelos, de acuerdo con la cual estos constituyen descripciones de sus respectivos objetivos.
Sobre la base de ese supuesto, McMullin considera que los modelos, en principio al menos,
pueden hacerse más realistas mediante un proceso de desidealización que elimine algunas de
las abstracciones y distorsiones introducidas originalmente. De esta manera, pueden volverse
más verosímiles, es decir, aproximarse más a la verdad.
Esta concepción realista de los modelos y las idealizaciones ha sido objeto de muy diversas
críticas. Morrison (2011 y 2015) señala que no todos los modelos que se emplean en la física
pueden desidealizarse incorporando nuevos parámetros y variables dinámicas, o cambiando
los valores a las ya existentes. Además, en la práctica muchas veces se emplean diferentes
modelos de un mismo fenómeno o dominio de fenómenos, donde cada modelo resulta útil
para explicar o predecir un determinado aspecto de tales fenómenos. En algunos casos, indica
Morrison, los modelos no son incompatibles entre sí, sino complementarios, como ocurre con
los diferentes modelos que representan el flujo turbulento de un fluido. Por tanto, podrían
considerarse como diferentes descripciones del mismo fenómeno. Aunque los modelos no
puedan unificarse ni desidealizarse, la situación todavía sería compatible con una posición
realista, tal como el perspectivismo de Giere (2006), para quien cada uno de estos modelos
proporcionaría una representación parcial de los fenómenos desde una determinada
perspectiva.
Sin embargo, existen modelos que son incompatibles entre sí, en el sentido más fuerte de que
son mutuamente inconsistentes. Un ejemplo clásico de esta situación lo proporcionan los
diferentes modelos del núcleo atómico que se construyeron desde la década de 1930 hasta
nuestros días (véase al respecto Cook 2006). No existe todavía una teoría acerca de la
interacción de los nucleones (protones y neutrones) que componen los núcleos de los átomos
que pueda explicar o predecir todos los fenómenos experimentalmente conocidos en el
dominio de la física nuclear. En vez de ello, hay una multitud de modelos diferentes, más de
30, cada uno de los cuales es exitoso para tratar acerca de algún aspecto del comportamiento
de los núcleos atómicos.
La situación puede ilustrarse con dos de los primeros modelos nucleares. El modelo de la gota
líquida considera que el núcleo es una esfera de fluido incompresible, cuya estructura interna
consiste en un centro de nucleones agrupados para los cuales la fuerza nuclear está
completamente saturada y una capa superficial de nucleones menos ligados, esto es, donde la
fuerza nuclear no está saturada. Es un modelo esencialmente clásico, donde las propiedades
cuánticas de cada nucleón no se tienen en cuenta. Este modelo permite predecir
correctamente las masas y las energías de ligadura de los núcleos y explicar los fenómenos de
fisión de núcleos pesados. El modelo de capas, en cambio, supone que el núcleo no tiene un
centro de nucleones, sino que estos se distribuyen en capas alrededor de un potencial central
que se supone que posee simetría esférica. Cada una de las capas corresponde a los estados
cuánticos de la misma energía. Los nucleones, al igual que los electrones en el átomo, tienden
a ocupar los estados de menor energía, es decir, las capas interiores, hasta que estas se
saturan. Este modelo explica los llamados “números mágicos”, esto es, el hecho de que los
núcleos con ciertos números pares de protones y/o neutrones (2, 8, 20, 28, 50, 82) sean
mucho más estables que otros núcleos con diferente composición. Ello se debe a que en esos
núcleos existe el número exacto de nucleones como para llenar un número determinado de
capas, sin dejar ninguna sin saturar.
Es evidente que estos dos modelos son incompatibles porque toman como punto de partida
hipótesis que son mutuamente inconsistentes. Además, cada uno de ellos es incompleto,
porque deja sin explicar muchos fenómenos conocidos sobre los núcleos; precisamente por
esa razón se construyeron posteriormente muchos otros modelos. Morrison (2011 y 2015)
considera que esta situación en la cual proliferan los modelos incompatibles constituye una
dificultad insalvable para la posición realista, ya que no puede admitirse que cada modelo
constituye una representación parcial del núcleo desde una determinada perspectiva. El
perspectivismo, si ha de ser una forma de realismo, está constreñido a sostener que las
diferentes perspectivas de un mismo fenómeno deben ser todas compatibles entre sí. Frente
al problema de los modelos inconsistentes, el realista solo puede responder que se trata de
una situación transitoria, debida a la incompletitud de nuestro conocimiento.
Muchos filósofos actuales de la ciencia se han inclinado por el ficcionalismo, adoptando una
posición afín a la de Vaihinger y Fine (véase por ejemplo los trabajos contenidos en Suárez
2009). En principio, el ficcionalismo puede resolver el problema de la existencia de múltiples
modelos incompatibles de un mismo fenómeno, dado que no le atribuye carácter descriptivo a
ninguno de ellos. Otros filósofos, en cambio, han intentado explorar la analogía entre los
modelos y los personajes de ficción en la literatura (por ejemplo, Frigg 2010a y 2010b). Los
resultados de esta línea de investigación todavía no son claros, dado que la ontología de las
ficciones literarias presenta serias dificultades, por lo cual puede correrse el riesgo de tratar de
aclarar un asunto oscuro por medio de otro aún más oscuro. Por otra parte, hay evidentes
analogías negativas entre ambos. En efecto, las ficciones literarias parecen ser entidades
incompletas, en el sentido de que los personajes ficticios solo tienen el reducido número de
propiedades que el autor les ha atribuido de manera explícita. Los modelos, en cambio,
permiten la exploración de las propiedades que no están explicitadas en su construcción, pero
que se siguen como consecuencia de ellas.
Los modelos concretos, como las maquetas o los íconos, difícilmente puedan concebirse como
obras de ficción. Los modelos teóricos, como el modelo del gas perfecto o el del péndulo ideal,
han sido considerados a menudo como entidades abstractas, productos de la imaginación
constructiva. En tanto tales, tendrían el mismo status ontológico que las entidades
matemáticas, como los números y los conjuntos. El ficcionalismo matemático considera a
todos los objetos de la matemática como meras ficciones, pero esta posición no puede
apoyarse en el solo hecho de que esos objetos sean entidades abstractas, ya que podrían
concebirse como ideas platónicas, habitantes de un mundo ideal independiente de la mente
humana (sobre el ficcionalismo matemático véase Bonevac 2009 y sobre el platonismo véase
Balaguer 1998). Algo análogo podría decirse de los modelos teóricos que se emplean en las
ciencias empíricas: del hecho de que sean entidades abstractas no se sigue que sean ficciones.
Diversos filósofos se han opuesto al ficcionalismo por muy diferentes razones. Algunos (como
Giere 2009 y Teller 2009) han señalado que el hecho de que un modelo contenga algún
elemento ficticio (y, por tanto, no representacional) no convierte al modelo como un todo en
una ficción, ya que este conserva otros componentes, tal vez la mayoría, que no son ficciones y
poseen capacidad de representación. Otros han enfatizado el hecho de que, cualesquiera sean
las analogías entre los modelos teóricos y las ficciones literarias, las diferencias funcionales son
más significativas que las semejanzas. Los modelos científicos desempeñan funciones
cognitivas que no tienen contrapartida en la literatura o el arte, como la explicación y la
predicción de los fenómenos. El debate acerca de la concepción ficcionalista de los modelos
continúa abierto y continuamente se presentan argumentos a favor y en contra de dicha
posición (véanse, entre otros, Godfrey-Smith 2009, Contessa 2010, Pincock 2012, Toon 2012,
Weisberg 2013, Woods 2014 y Morrison 2015).
Las simulaciones, al igual que los modelos, han sido caracterizadas apelando al concepto de
representación: una simulación proporciona la representación del comportamiento de un
objeto, o más precisamente, la evolución temporal de un determinado sistema físico.
Eric Winsberg (2010) señala la estrecha vinculación existente entre las actividades de
modelización y simulación. Sostiene que toda simulación computacional toma como punto de
partida un modelo de los fenómenos que se quieren simular, modelo frecuentemente, aunque
no siempre, respaldado en una teoría general. Ese modelo recibe luego un tratamiento
específico, que consiste en asignar valores a los parámetros y a las condiciones iniciales del
modelo. Sobre esa base se construye un solucionador, que es el algoritmo computacional
propiamente dicho a partir del cual se obtienen los resultados de la simulación. Para llegar a
estos resultados, el solucionador debe introducir ciertos cambios en el modelo inicial, que casi
siempre lo simplifican. En la mayoría de los casos, las ecuaciones diferenciales continuas del
modelo deben ser discretizadas para que puedan ser computacionalmente tratables. Además,
usualmente se introducen otras idealizaciones y aproximaciones en el modelo, a veces incluso
elementos ficcionales que son meros expedientes útiles para la computación. El resultado de
una simulación, señala Winsberg, no siempre es una imagen o un video de animación, sino, a
menudo, una larga lista de datos, a veces expresados en forma puramente numérica. Estos
datos deben ser objeto de análisis estadístico e interpretación hasta llegar a un modelo de los
datos (Winsberg lo llama “modelo de los fenómenos”, pero esta expresión es ambigua porque
podría aplicarse también al modelo teórico que sirvió como punto de partida de la simulación).
De esta manera, los modelos están presentes tanto al comienzo como al final de la
construcción de una simulación computacional.
La epistemología de las simulaciones computacionales es un tema muy debatido en la
actualidad, pero solo parcialmente relevante para la cuestión de los modelos científicos. El
problema básico es determinar si los resultados de la simulación son confiables. En el lenguaje
de la computación se llama verificación al proceso de determinar si el modelo computacional
proporciona una solución aproximada de las ecuaciones matemáticas del modelo teórico
inicial. Por otra parte, se llama validación al proceso de determinar si el modelo elegido
constituye una representación adecuada de los fenómenos que se quieren simular. Estos
términos tienen en filosofía un significado muy diferente, por lo que deben emplearse con
cautela, aunque ya están bien establecidos en el dominio de las ciencias de la computación
(para un tratamiento detallado del tema véase Oberkampf y Roy 2010)
Una manera habitual de validar las simulaciones consiste en comparar sus resultados con los
datos disponibles provenientes de la experiencia, es decir, de la observación y medición de los
fenómenos. Este proceso recibe el nombre de validación por correspondencia. Cuando no se
dispone de tales datos previos, la confiabilidad de la simulación resulta más difícil de
establecer. El procedimiento más habitual en tales casos consiste en efectuar un análisis de la
robustez de los resultados de la simulación. Por lo general, implica comparar los resultados
obtenidos mediante diferentes modelos de un mismo fenómeno con el fin de encontrar
propiedades o estructuras invariantes. Además, una simulación puede contrastarse por medio
de otra simulación que utiliza un algoritmo diferente o bien que emplea un modelo más
refinado. El resultado se considera robusto si es aproximadamente el mismo en todos los
casos. Finalmente, es posible apelar a la realización de un tipo de experimento virtual
denominado experimento de validación. Ninguno de estos procedimientos garantiza la
confiabilidad de los resultados obtenidos, pero es evidente que pueden complementarse y
reforzarse mutuamente. El tema de la robustez fue introducido en la filosofía de la ciencia por
Wimsatt (1981 y 2007) y ha tenido importancia en el ámbito de los modelos y las simulaciones,
donde resulta un caso específico de aplicación de un procedimiento mucho más general (véase
Soler y otros 2012, Weisberg 2013).
Muchos filósofos de la ciencia han seguido una línea de investigación que consiste en
comparar las simulaciones con los experimentos porque piensan que hay importantes
analogías en la manera en que se validan los resultados de unos y otros. Ante todo, las
simulaciones tienen semejanzas con los experimentos mentales (sobre esta clase de
experimentos véase Brown 2011) hasta el punto de que muchos piensan que los han
reemplazado en la práctica científica actual. Las analogías con los experimentos reales son más
discutibles y han sido mucho más debatidas (véase, entre muchos otros, Morgan 2003 y 2012,
Giere 2009, Morrison 2009, Parker 2009, y Parke 2014). Se ha acuñado la expresión
“experimentos virtuales” para caracterizar a las simulaciones, pero no es obvio cuál sea su
significado preciso. Parece claro que las simulaciones pueden cumplir algunas de las funciones
de los experimentos reales, tales como la exploración de nuevos dominios de fenómenos y el
control de otros experimentos. No obstante, hay otras funciones, como la de descubrir la
existencia de nuevas clases de entidades (un tipo de partícula postulado por una teoría, por
ejemplo, como el bosón de Higgs) que no parecen estar al alcance de ninguna simulación. Por
último, la función heurística de las simulaciones, como la de los experimentos mentales, está
fuera de toda duda, pero es más difícil aceptar que los resultados de una simulación puedan
considerarse como evidencia para la contrastación de teorías y modelos. Al menos, no como el
mismo tipo de evidencia que proporcionan los experimentos reales. El valor epistemológico de
las simulaciones computacionales es una cuestión importante que todavía no ha sido bien
explorada y permanece abierta a la investigación. El tema tiene, además, importancia práctica,
ya que cada vez más frecuentemente deben tomarse decisiones políticas sobre la base de
simulaciones, como ocurre, por ejemplo, en el caso del cambio climático global, donde hay un
grado considerable de incertidumbre (sobre este punto véase Frigg, Thomson y Werndl 2015a
y 2015b; Bradley y Steele 2015).
8. Conclusión
Los modelos científicos en el ámbito de las ciencias fácticas han sido objeto de estudio
intensivo por parte de los filósofos de la ciencia durante las dos últimas décadas. En las
ciencias formales, en cambio, la teoría de modelos ya estaba bien establecida hace ya medio
siglo. Los filósofos de la ciencia han tomado conciencia del uso extensivo de los modelos y las
simulaciones tanto en las ciencias naturales como sociales, reconociendo que la modelización
de los fenómenos es una de las actividades principales, aunque no la única, por supuesto, en la
práctica de la ciencia normal. No obstante, a pesar de la extensa bibliografía producida,
todavía hay muchas cuestiones que no han podido esclarecerse, en particular, el concepto de
representación que está a la base de todas las concepciones representacionistas de los
modelos. Por su parte, la filosofía de las simulaciones computacionales se encuentra recién en
sus comienzos. La filosofía de los modelos y simulaciones aún no ha madurado lo suficiente
como para fijar una terminología clara y precisa, lo cual se refleja en los diferentes sentidos
con que se emplean términos clave, como “idealización” y “abstracción”, entre muchos otros.
Puede preverse, entonces, que el estudio de los modelos científicos permanecerá activo en los
próximos años, aunque, por cierto, se encuentra lejos de abarcar todos los temas y problemas
de la filosofía general de la ciencia.