Resumenes Final Ipc
Resumenes Final Ipc
Resumenes Final Ipc
Página 2 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Enunciados complejos constituyen una combinación de enunciados mediante el uso de expresiones lógicas. Ej.: Leibniz y Newton
inventaron de modo independiente el cálculo infinitesimal.
Expresiones lógicas (o conectivas porque sirven para conectar o combinar oraciones y dar lugar a las oraciones complejas) y, o,
pero, si… entonces, siempre y cuando, no.
Las expresiones lógicas pueden combinarse para formar enunciados cada vez más complejos. Por ejemplo, para unir un enunciado
complejo con uno simple y entonces formar uno aún más complejo que el primero.
Condiciones veritativas de un enunciado condiciones en las cuales una oración resulta verdadera o falsa. Es sencillo determinar
estas condiciones en los enunciados simples. Sin embargo, para los complejos, es preciso determinar el valor de cada enunciado
simple que lo compone y la forma en que los afectan las expresiones lógicas.
Otras distinciones de los enunciados alcance (singulares, universales, existenciales y probabilísticas) y acerca de si son verdaderos
o falsos (contingentes, tautológicas y contradictorias)
Conjunciones
Son un tipo de enunciado complejo.
En ellos se afirman con juntamente dos o más enunciados llamados conyuntos que se combinan entre sí por una conjunción.
Ejemplo: El artículo 87 y el artículo 88 del Código Penal Argentino penalizan el aborto.
Tabla de verdad muestra los valores de verdad de una proposición compuesta.
Para que una conjunción resulte verdadera, sus dos enunciados deberán ser verdaderos.
Tabla de verdad de una conjunción:
A A y B (.) B
Verdadera Verdadera Verdadera
Falsa Falsa Verdadera
Verdadera Falsa Falsa
Falsa Falsa Falsa
Existen diferentes métodos para expresar conjunción. Tal vez la más expresada sea y pero hay otras como pero, sin embargo y
aunque.
Disyunciones
Las raciones disyuntivas combinan dos o más enunciados pero no afirman que las dos proposiciones involucradas sean el caso, sino
que al menos una lo es.
Ejemplo: Los argumentos a favor de la legalización del aborto se basan en negar el carácter de persona al feto o en destacar la
importancia del derecho de la madre sobre su propio cuerpo.
Este caso DISYUNCIÓN INCLUSIVA porque afirma que al menos uno de los conyuntos es verdadero, sin excluir la posibilidad de que
ambos lo sean.
A A o B (v) B
Verdadera Verdadera Verdadera
Falsa Verdadera Verdadera
Verdadera Verdadera Falsa
Falsa Falsa Falsa
Página 3 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
A A o B (v con rayita abajo) B
Verdadera Falsa Verdadera
Falsa Verdadera Verdadera
Verdadera Verdadera Falsa
Falsa Falsa Falsa
Usualmente, el carácter exclusivo o inclusivo de una disyunción está indicado por el sentido de lo que se afirma, por el contexto de
emisión o por el uso de ciertas expresiones, tales como y/o, en el caso de la disyunción inclusiva, y o bien…, o bien…, para la
exclusiva.
Si no tenemos indicadores, lo más conveniente es juzgar la oración compleja suponiendo que ambas partes sean verdaderas. Si no es
posible que ambas lo sean, entonces estaremos ante una disyunción exclusiva.
Condicionales
Los enunciados condicionales se expresan mediante la cláusula “si… entonces…” o “si…,…”.
Ejemplo: Si un tsunami azota Buenos Aires, la ciudad se inunda.
Combina dos enunciados simples pero no afirma ninguno de ellos. Solo expresa que existe una relación entre ambos. No puede
resultar que un enunciado sea falso y el otro verdadero.
Símbolo:
Si A, entonces B = A B
Antecedente Consecuente
Los enunciados pueden estar en un orden distinto. Sin embargo, siempre se analizan del modo (Antecedente consecuente). El
antecedente suele estar precedido por la cláusula “si”.
Ejemplo: Buenos Aires se inunda si un tsunami azota la ciudad.
Un tsunami azota la ciudad (antecedente) Buenos Aires se inunda (consecuente)
La correcta identificación del antecedente y del consecuente será crucial a la hora de evaluar las condiciones de verdad de la oración.
Y para ello debemos introducir una distinción entre condiciones suficientes y necesarias.
Condiciones suficientes
En el ejemplo de Buenos Aires, existe una condición suficiente (lo que le sigue al sí) y otro enunciado que expresa lo que ocurrirá en
caso de que se cumpla esa condición (lo que viene después del entonces). Sin embargo, no expresa que esa es la única forma en la
cual Buenos Aires se puede inundar. Por lo tanto, es una condición suficiente pero no la única (suficiente pero no necesario).
Formas de expresar las condiciones suficientes: Si…, entonces….; es suficiente… para…; basta que… para…
Todo enunciado condicional con antecedente verdadero y consecuente verdadero, es verdadero.
Toda oración condicional con antecedente verdadero y consecuente falso, es falsa.
toda oración condicional con antecedente falso y consecuente verdadero, es verdadera. (porque no es la única ocasión en la
que puede cumplirse el consecuente)
toda oración condicional con antecedente falso y consecuente falso, es verdadera.
Tabla de verdad de los condicionales suficientes:
A AB B
Verdadera Verdadera Verdadera
Falsa Verdadera Verdadera
Verdadera Falsa Falsa
Falsa Verdadera Falsa
Página 4 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Condiciones necesarias
Ejemplo: Solo si un tsunami azota Buenos Aires, la ciudad se inunda.
Expresiones de condiciones necesarias: Es necesario que… para que…; Únicamente si…,…; …, solo si…
Lo que expresan estos enunciados disponen que es necesario que algo pase para que ocurra otra cosa. Sin embargo, puede que no
sea suficiente (necesario pero no suficiente)
Utilizaremos la misma tabla de verdad que en las condiciones suficientes aunque no sean verdad en los mismos casos. Lo que si
cambia es la forma de identificar a los antecedentes y a los consecuentes.
Lo que 2 afirma es que cabe esperar una inundación solamente frente a un tsunami. La opción que excluye esta oración es que
Buenos Aires se inunde y que no haya ocurrido un tsunami. Esto es, la oración no es equivalente a 1 sino a:
1’’’’. Si Buenos Aires se inunda, un tsunami la ha azotado.
Por lo tanto, “Un tsunami azota Buenos Aires” cumple el rol de condición necesaria y, por lo tanto, ocupa el lugar del consecuente
(no del antecedente como en las condiciones suficientes)
LA CONDICIÓN NECESARIA CUMPLE EL ROL DE CONSECUENTE.
Expresiones: solo si…, es necesario que…, únicamente si.
La oración resultará ser falsa solo cuando su antecedente (“Buenos Aires se inunda”) es verdadero y su consecuente (“Un tsunami
azota Buenos Aires”) falso.
Es decir, poder traducir ambos tipos de enunciados condicionales a un mismo esquema de la forma:
Antecedente → Consecuente.
Sin embargo, es importante destacar la diferencia en la reconstrucción: la condición suficiente será ubicada en el antecedente; en
tanto que la condición necesaria será ubicada en el consecuente.
Condición suficiente → Condición necesaria.
Condiciones suficientes y necesarias
Existe un tipo de oraciones que se llaman bicondicionales. Estas establecen entre las partes de la oración una relación condicional
que va en ambos sentidos. Es tanto suficiente como necesaria.
Suelen expresarse con expresiones como: si y solo si o siempre y cuando.
Ejemplo: Buenos Aires se inunda siempre y cuando sea azotada por un tsunami.
Ambas condiciones deben tener el mismo valor de verdad para que la afirmación resulte verdadera.
Tabla de verdad:
A A siempre y cuando B B
Verdadera Verdadera Verdadera
Falsa Falsa Verdadera
Verdadera Falsa Falsa
Falsa Verdadera Falsa
Negaciones
En las negaciones, simplemente se dice que no es el caso que ocurra algo.
Expresiones: es falso que, no, no es cierto que, nadie; utilizando la partícula des- o in-.
El valor de verdad de la negación depende del valor de verdad de la oración que está siendo negada.
Tabla de verdad:
A No A (-)
Verdadera Falsa
Falsa Verdadera
Página 5 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
OJO Las oraciones pueden tener bastantes estructuras lógicas adentro. Hay que ir resolviendo de lo menos general a lo más
general.
CASO ESPECIAL “no es cierto que” niega todo lo demás.
Ejemplo: No es cierto que si la Tierra está en movimiento, ella o la Luna son el centro del sistema solar.
En este caso, la conectiva que tiene mayor alcance es no es cierto que…, pues esta expresión niega todo lo que sigue. La
oración será verdadera si aquello que niega es falso.
Lo que la oración niega es una oración condicional: Si la Tierra está en movimiento, ella o la Luna son el centro del sistema
solar. De modo que será falsa si el antecedente es verdadero y el consecuente es falso.
Dado que la condición expresada es suficiente, el antecedente es La Tierra está en movimiento y el consecuente La Tierra o la
Luna son el centro del sistema solar.
Para que el antecedente sea verdadero basta que la Tierra esté en movimiento, y efectivamente lo está.
En cuanto al consecuente, hay allí una disyunción inclusiva, la cual, para ser falsa, tienen que ser ambos disyuntos falsos. Lo
cual es el caso. Podemos afirmar, entonces, que la oración 4 es también verdadera.
Enunciados singulares, universales. Existenciales y probabilísticos
Existen otros tipos de expresiones lógicas que no conectan oraciones.
Enunciados singulares: hablan de un individuo específico.
Ejemplo: Marte tiene dos satélites.
Para comprobar si este enunciado es verdadero basta con comprobar la oración.
Enunciados universales: hablan sobre todos los miembros de un conjunto.
Ejemplo: Todos los planetas del sistema solar tienen una órbita elíptica.
Para comprobar si este enunciado es verdadero es necesario comprobar todos los casos del conjunto. En cambio, para comprobar si
es falso basta con encontrar solo un caso falso.
Enunciados existenciales: nos dicen que algunos miembros de determinado conjunto cumplen determinada propiedad.
Ejemplo: Algunos planetas tienen satélites.
Para probar que el enunciado es verdadero basta con encontrar un solo caso que cumpla la propiedad. En cambio, para demostrar
que es falso debemos recorrer todos los casos y concluir que ninguno del conjunto cumple la propiedad.
Enunciados estadísticos o probabilísticos: estos hablan de un conjunto determinado y asignan una probabilidad a que los miembros
de dicho conjunto tengan cierta propiedad.
Ejemplo: El jueves hay 60% de probabilidad de lluvia.
Generalizaciones estadísticas: establecen la frecuencia relativa de dos propiedades, la de ser F y la de ser G. En otras palabras,
establecen el porcentaje de F que es G o que probabilidad hay de que F sea G.
Ejemplo: El 90% de los enfermos de cáncer de pulmón son fumadores o exfumadores.
Acerca de los enunciados probabilísticos es difícil probar su verdad o falsedad está en discusión cómo comprobarlo.
Contingencias, tautologías y contradicciones
Contingencias oraciones que pueden resultar ser verdaderas o falsas según sea el caso. Aun siendo verdaderas o falsas, su verdad
o falsedad no resulta necesaria a la luz de la estructura de la oración, sino que por su contenido.
En cambio, en las contradicciones y las tautologías, su valor de verdad si queda reservado a partir de la estructura de la oración y no
de su contenido.
Tautologías: son verdad en cualquier circunstancia. Ejemplo: Diana vendrá o no vendrá.
Contradicciones: son falsas en cualquier circunstancia. Ejemplo: Llueve y no llueve.
Los argumentos deductivos y su evaluación
La evaluación de argumentos
Argumento: damos por supuesto ciertos elementos (las premisas) y en base a ellos inferimos una determinada conclusión.
Para analizar un argumento nos preguntamos: ¿Logran las premisas ofrecer apoyo a la conclusión? ¿En qué grado lo hacen? ¿Son las
premisas verdaderas? ¿Qué tan confiables son?
Página 6 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
A veces premisas logran ofrecer razones a favor de la conclusión pero pueden ser cuestionables. Difícilmente aceptemos
un argumento con premisas falsas o inaceptables.
Otras veces premisas confiables pero por sí mismas no logran establecer la conclusión, es decir, son insuficientes. Por ello,
el salto hacia la conclusión puede resultare falso.
En el peor de los casos se combinan los dos errores.
Lógica disciplina que provee estrategias para evaluar los argumentos, en el sentido de verificar qué tanto respaldan las premisas a
la conclusión. Aparte de esto, permite estudiar la verdad de las oraciones involucradas en un argumento, evaluar cuáles son sus
condiciones de verdad y determinar si deben o no ser aceptadas.
Tipos de argumentos: deductivos e inductivos
Argumentos por medio de ellos obtenemos conclusiones a partir de la información de la que disponemos, damos razones o
establecemos enunciados a partir de otros enunciados. Un argumento es un fragmento del lenguaje en el que se presenta una
conclusión elaborada a partir de las premisas, que buscan afirmarla.
Argumentos deductivos ofrecen premisas de las cuales se sigue a la conclusión de manera concluyente.
Ejemplo:
Todos los perros son mamíferos
Simón es un perro
Simón es mamífero
Argumentos inductivos ofrecen solo algunas razones a favor de la conclusión.
Ejemplo:
Simón es un perro y mueve la cola
Frida es una perra y mueve la cola
Ñata es una perra y mueve la cola
Tim es un perro y mueve la cola
Todos los perros mueven la cola
Argumentos deductivos
Quien acepta las premisas, debería aceptar la conclusión, ya que esta resulta de ellas.
Se asocia a los argumentos deductivos la noción de necesidad. Decimos que la conclusión se sigue necesariamente de las premisas.
De este modo, si las premisas son verdaderas, la conclusión también lo es.
Resulta imposible que las premisas sean verdaderas y la conclusión falsa a la vez.
Característica de los argumentos deductivos formalidad. La necesidad con la que se sigue la conclusión de las premisas esta dad
por la forma o estructura del argumento garantiza que si las premisas fueran verdaderas, la conclusión también lo sería.
Estructura de los argumentos: A y B, por lo tanto A o A y B A. En estos casos, en el de una conjunción, resulta evidente que si las
premisas fueran verdaderas, la conclusión también lo sería.
Pero, cuando hablaos de una disyunción, no resulta lo mismo. Esto se debe a que modificamos la estructura del argumento, y por otro
lado, no tenemos la certeza de que nuestra concusión sea verdadera. A o B A.
En los argumentos deductivos No es posible afirmar sin contradicción, la verdad de las premisas y la falsedad de la conclusión.
Se dice que los argumentos deductivos son válidos, ya que las premisas dan apoyo absoluto a la conclusión. Sin embargo, esto no
significa que las premisas sean efectivamente verdaderas. Un argumento válido, que a su vez tiene todas sus premisas verdaderas es
un argumento sólido.
Si asumimos que las oraciones que componen un argumento son verdaderas o falsas, entonces tenemos 4 opciones:
Opción 1: que las premisas y la conclusión sean todas verdaderas.
Opción 2: que tanto las premisas como la conclusión sean falsas.
Opción 3: que las premisas sean falsas y la conclusión verdadera.
Opción 4: la inversa, que las premisas sean verdaderas y la conclusión falsa.
Página 7 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
La única opción en al que un argumento no podría ser válido es en la 4. Ya que no puede tener premisas verdaderas y que la
conclusión resulte falsa.
Modus Ponens: ejemplo con la siguiente estructura Si A entonces B / A B (con forma de suma tipo A raya B.
Ejemplo: Si se despenaliza el aborto en la Argentina, disminuirá la mortandad materna.
Se despenaliza el aborto en la Argentina.
Disminuirá la mortandad materna.
Dado que la validez de los argumentos deductivos depende únicamente de su forma podemos afirmar que cualquier argumento con
la forma de Modus Ponens resultará valido sin importar la verdad o falsedad de sus premisas y conclusión.
Argumentos inválidos
Argumentos inválidos es posible que las premisas sean verdaderas y la conclusión falsa. La conclusión no se infiere
necesariamente de las premisas, por lo que es posible que aunque estas sean verdaderas, la conclusión termine siendo falsa.
Ejemplo: Dos más dos es igual a cuatro o La ciudad de Buenos Aires se inundó
La Tierra está en movimiento Un tsunami azotó Buenos Aires
Es sencillo imaginar el caso en el que ambas cosas sean verdaderas. Sin embargo, la verdad de las premisas no garantiza la verdad de
las conclusiones (bien podrían ser falsas aunque las premisas fuesen verdaderas). Porque podemos imaginar también una situación
en que las premisas fueran verdaderas y la conclusión falsa. Por ejemplo, si bien sabemos que la ocurrencia de un tsunami bastaría
para inundar la ciudad, también sabemos que la ciudad de Buenos Aires se ha inundado muchas veces sin que ocurriese tsunami
alguno.
Forma de argumento llamado Falacia de afirmación del consecuente: Si A entonces B
B
A
Esta forma de argumento es inválida y por lo tanto se pueden formular contraejemplos.
Contraejemplo de una forma o esquema de argumento ejemplo de argumento particular formulado en castellano que tiene la
forma en cuestión y sus premisas son verdaderas y su conclusión es falsa.
Ejemplo: contraejemplo de la falacia de afirmación del consecuente: Si la Tierra es un asteroide, entonces orbita alrededor del Sol
La Tierra orbita alrededor del Sol
La Tierra es un asteroide
Contraejemplos se pueden construir cuando la forma del argumento no s válida.
¿Cómo determinar si un argumento es válido o inválido aún si n sabemos los valores de verdad de las premisas? pensar si
podrían o no ser falsas las conclusiones cuando las premisas fueran verdaderas. Si la conclusión resulta necesariamente verdadera,
entonces el argumento resultará válido. Si la conclusión puede resultar falsa, entonces estaremos ante un argumento inválido.
Crítica a un argumento mostrar que es inválido o cuestionar su solidez cuestionando que determinada premisa sea verdadera.
Reglas de inferencia y deducciones
Cómo comprobar que un argumento es inválido encontrar un contraejemplo.
Ahora ¿qué pasa con los válidos? si no encontramos un contraejemplo vamos encaminados pero esto no asegura que sea válido.
Forma 1 considerar las condiciones de verdad de las premisas y de la conclusión y determinar si la verdad de las primeras garantiza
o no la verdad de las segundas.
Forma 2 construir deducciones utilizando las reglas de inferencia.
Esto es: podemos pensar a las formas de argumentos válidos como reglas que sugieren cómo inferir, cómo obtener conclusiones de
ellas.
Si sabemos por ejemplo que Si juega Messi, la Argentina gana. Y efectivamente juega Messi, podemos inferir que la Argentina gana.
Como el argumento resultante de agregar la conclusión a la información brindad previamente tiene la forma del Modus Ponens,
podemos considerar el argumento como válido.
Página 8 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Si pensamos en el argumento:
Si juega Messi, Argentina ganará
Si Messi se recupera de su lesión, jugará
Messi se ha recuperado de su lesión
Argentina ganará
No tiene la forma de Modus Ponens pero podemos utilizar esta forma válida para probar su validez. Así, crearemos una deducción de
la conclusión a partir de la información que disponemos en las tres premisas. Las oraciones de 1 a 5 constituyen una deducción:
1. Si juega Messi, la Argentina gana (premisa)
2. Si Messi se recupera de su lesión, jugará (premisa)
3. Messi se ha recuperado de su lesión (premisa)
4. Messi jugará (por Modus Ponens entre 2 y 3)
5. La Argentina ganará (por Modus Ponens entre 1 y 4)
Deducción secuencia de oraciones que parten de un supuesto o premisas y donde cada una de las líneas o pasos siguientes se
obtiene aplicando alguna de las reglas de inferencia a alguna de las líneas anteriores, y donde la última es la conclusión.
En el caso de arriba fuimos aplicando el Modus Ponens a las premisas y obtuvimos la conclusión dada, cosa que la prueba como
válida.
Ahora bien, la regla Modus Ponens no es la única regla aceptada. Existen otras:
1. Modus Ponens:
Si A entonces B
A
B
Nos autoriza a obtener como conclusión el consecuente de un enunciado condicional cuando sabemos que el antecedente es el caso.
Sabemos que los condicionales son falsos únicamente en el caso de que las premisas sean verdaderas y la conclusión falsa.
Por lo tanto, si sabemos que el condicional resulta verdadero (así podría llamarse a la primera premisa de la regla si a entonces b), no
puede pasar que el antecedente A sea verdadero y el consecuente B falso.
Entonces, si entendemos la segunda premisa como una afirmación de la verdad de A, resulta que el consecuente B también tiene que
ser verdadero.
2. Modus Tollens:
Si A entonces B
No B
No A
Nuevamente, si sabemos que el condicional es verdadero (nótese que la primera premisa de esta regla es igual a la del Modus
Ponens), sabemos que no puede pasar que su antecedente sea verdadero y su consecuente falso.
Ahora bien, la segunda premisa puede entenderse como negando la verdad del consecuente (no B). De ello resulta entonces que el
antecedente A, debe ser falso también (no A).
3. Silogismo hipotético:
Si A entonces B
Si B entonces C
Si A entonces C
Nos permite concluir un condicional sobre la base de otros dos condicionales tales que el consecuente del primero (B) es el
antecedente del segundo (B). El condicional de la conclusión lleva el antecedente del primer condicional (A) y el consecuente del
segundo (C).
4. Simplificación:
AyB
A
Si sabemos que dos cosas ocurren, sin duda podríamos afirmar cualquiera de ellas por su cuenta (por eso debajo de la línea podría
estar B también). Si entendemos la afirmación de una conjunción como la afirmación de su verdad, podemos inferir que ambos
conyuntos son verdaderos.
Página 9 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
5. Adjunción:
A
B
AyB
Si sabemos que dos oraciones son verdaderas, podemos estar seguros de que su conjunción también lo es.
6. Silogismo disyuntivo.
AoB
No A
B
Para que una disyunción sea verdadera, al menos uno de los disyuntos tiene que serlo. Si afirmamos la verdad de la disyunción (A o B)
y descartamos que uno lo sea (No A), podemos concluir que el otro disyunto tiene que ser verdadero (B).
7. Instanciación del universal:
Todos los R son P
x es R
x es P
En este caso, R y P actúan como propiedades. Y además, sabemos que los enunciados universales son verdaderos cuando todos los
casos cumplen lo que anuncian.
Por lo tanto, si sabemos que es verdad que todos los R, son P y determinado x es R, podremos concluir que también es P.
Pruebas indirectas
Pruebas por absurdo tipo de prueba indirecta que se aplica cuando las otras no se pueden aplicar.
Las 7 mencionadas anteriormente son directas, ya que desde las premisas procedimos paso a paso hasta dar con la conclusión.
Suponiendo que tenemos un conjunto de premisas y la conclusión C:
En las pruebas por absurdo se parte por suponer que aquello que se pretende probar (C) no es el caso (es decir, se supone “No C”) y
se intenta arribar a una contradicción (del tipo A y no A). Si se obtiene la contradicción, quedará en evidencia que No C es falso, ya
que si fuese verdadero no hubiese ocurrido la contradicción. De este modo, queda comprobado que C es verdadero.
Ejemplo: si queremos probar “no es cierto que estamos en verano” a través de las siguientes premisas:
1. Si estamos en verano, hay humedad.
2. Si estamos en verano, no hay humedad.
El Modus Ponens nos permite inferir sus consecuentes pero en presencia de sus antecedentes. Como acá no hay nada que afirme el
antecedente, entonces tendremos que recurrir a otra herramienta.
Como queremos probar que no es cierto que estamos en verano, entonces crearemos un supuesto provisional que sea estamos en
verano.
3. Estamos en verano (supuesto provisional).
Ahora que si tenemos un antecedente podemos utilizar las condiciones 1 y 2 y con el Modus Ponens arribar a:
4. Hay humedad (Modus Ponens entre 1 y 3)
5. No hay humedad (Modus Ponens entre 2 y 3)
Utilizando la regla de adjunción entre nuestras dos inferencias, arribaremos a:
6. Hay humedad y no hay humedad (Adjunción entre 4 y 5)
Hemos obtenido una contradicción lo que prueba que “Estamos en verano” (3) es falso. Podremos concluir entonces que:
7. No es cierto que estamos en verano.
Llegado a este punto, el supuesto debe ser cancelado ya que ya cumplió su función. Lo que hemos probado es que no estar en
verano se sigue de suponer simultáneamente que si estamos en verano, entonces hay humedad, y si estamos en verano, entonces no
hay humedad.
Página 10 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Los argumentos inductivos y su evaluación
Los argumentos inductivos
Argumentos inductivos las premisas no ofrecen un apoyo absoluto a la conclusión. Desde el punto de vista deductivo, los
categorizaríamos como inválidos. Pero hay argumentos que ofrecen buenas razones. Por lo tanto, al hablar de inductivos, hablaremos
de argumentos buenos o malos, fuertes o débiles, y no de válidos o inválidos.
En este sentido, todo argumento deductivo es inválido la verdad de las premisas no garantiza la verdad de la conclusión.
La fortaleza de un argumento inductivo, no puede plasmarse en un criterio unívoco. La fortaleza es una cuestión de grado. Existen
diferentes tipos de argumentos inductivos y cada uno de ellos obliga a considerar criterios específicos.
Tipos de argumentos inductivos
Argumentos inductivos por analogía
Descansan en la comparación entre dos o más cosas, entidades o eventos y, a partir de la constatación de que estos son similares
en ciertos aspectos, se concluye que también lo son en otro.
Estructura:
X1 tiene las características F, G, …, Z.
X2 tiene las características F, G, …, Z.
…………….
Xn tiene las características F, G, …
Por lo tanto, Xn tiene la característica Z.
Puede haber muchas características o propiedades, no solo dos o tres.
Puede haber ilimitados números de casos, eventos o entidades contemplados.
Ejemplo:
El lunes 21 de marzo salí a las 8:00 hs., tomé el 60 y demoré aproximadamente 40 minutos en llegar a la universidad.
El martes 22 de marzo salí a las 8:00 hs., tomé el 60 y demoré aproximadamente 40 minutos en llegar a la universidad.
El miércoles 23 de marzo salí a las 8:00 hs., tomé el 60 y demoré aproximadamente 40 minutos en llegar a la universidad.
El jueves 24 de marzo salí a las 8:00 hs., tomé el 60 y demoré aproximadamente 40 minutos en llegar a la universidad.
El viernes 25 de marzo salí a las 8:00 hs., tomé el 60 y demoré aproximadamente 40 minutos en llegar a la universidad.
El lunes 28 de marzo (hoy) salí a las 8:00 h y tomé el 60.
El lunes 28 de marzo (hoy) demoraré 40 minutos en llegar a la universidad.
Argumentos inductivos por enumeración incompleta
Tal como ocurría en la analogía, acá también partimos de información respecto de ciertos casos observados. Pero no la utilizamos
para establecer similitudes entre distintos casos sino que para generalizar en la conclusión.
Como partimos de casos y generalizamos una conclusión más allá de la evidencia disponible, los argumentos no logran establecer una
conclusión de modo concluyente.
Estructura:
X1 es Z.
X2 es Z.
X3 es Z.
…
Xn es Z.
Por lo tanto, todos los X son Z.
Página 11 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Ejemplo:
César tiene grupo sanguíneo 0, factor negativo y es donante universal.
Paola tiene grupo sanguíneo 0, factor negativo y es donante universal.
Verónica tiene grupo sanguíneo 0, factor negativo y es donante universal.
Todos las personas con grupo sanguíneo 0 y factor negativo son donantes universales.
Silogismos inductivos
A diferencia de los argumentos inductivos por enumeración, los silogismos inductivos parten de una generalización estadística o
probabilística.
La primera premisa enuncia la generalización. La segunda subsume un caso en dicha generalización para concluir que dicho caso
cumple con lo establecido por la generalización.
Las generalizaciones estadísticas establecen qué porcentaje de F son G o cuál es la probabilidad de que un F sea G.
Estructura:
El n por ciento (o la mayoría, o muchos) de los F son G.
X es F.
Por lo tanto, X es G.
Ejemplo:
La mayoría de los peces tienen escamas.
El salmón es un pez.
El salmón tiene escamas.
La evaluación de argumentos inductivos
No podemos usar los mismos criterios que con los argumentos deductivos. Acá juzgaremos “cuánto” apoyo le brindan las premisas a
la conclusión. En otras palabras, dada la verdad de las premisas, la verdad de la conclusión será probable (más o menos probable) y
siempre subsistirá la posibilidad de que las premisas sean verdaderas y la conclusión falsa.
Diferencia con los deductivos para determinar la validez de un deductivo debíamos observar su forma. En los inductivos, debemos
prestar especial atención al contenido para determinar que tan fuerte o débil es un argumento.
La evaluación de los argumentos inductivos depende de qué tipo de argumento se trate. Existen diferentes criterios para analizar
cada uno de ellos y para determinar qué tanto apoyo brindan sus premisas a la conclusión.
Evaluación de argumentos por analogía
Criterios de evaluación (3):
Relevancia del aspecto –o los aspectos– sobre los que se asienta la analogía tiene que haber una conexión entre las
características de los casos mencionados y la característica que se pretende atribuir al caso mencionado en la conclusión.
Ejemplo:
Durante cada día de la última semana, Félix ha comprado vegetales en la verdulería Todo verde y estos resultaron muy
buenos.
Hoy Félix comprará vegetales en la verdulería Todo verde.
Probablemente, los vegetales resulten muy buenos.
Es diferente a:
Durante cada día de la última semana Félix ha ido a comprar vegetales luciendo su sombrero azul y estos resultaron muy
buenos.
Hoy Félix irá a comprar vegetales luciendo su sombrero azul.
Probablemente, los vegetales resulten muy buenos.
Porque parece razonable suponer que la elección de una verdulería determinada es relevante en la calidad de los
vegetales adquiridos, mientras que la elección de un vestuario específico no garantiza nada respecto de la calidad de los
vegetales que podamos adquirir luciendo dicho vestuario.
Página 12 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Cuanto mayor sea el número de aspectos relevantes en que los casos se parecen, más fuerte será el argumento Si
agregamos datos relevantes a eso que intentamos concluir, el argumento será más fuerte. Por ejemplo, si al ejemplo anterior
le agregamos el dato de que todas las veces que Félix ha comprado vegetales en el pasado, la verdulería acababa de recibir
verduras frescas provenientes del Mercado central y que hoy nuevamente ese será el caso, esta nueva información vuelve la
conclusión más probable.
Por el contrario, cuanto más disímiles en un sentido relevante resulten los casos comparados, más débil será el argumento.
Por ejemplo:
Durante cada día de la última semana Félix ha comprado vegetales en la verdulería Todo verde, luego de que recibieran
mercadería fresca del Mercado central y estos resultaron muy buenos.
Hoy Félix comprará vegetales en la verdulería Todo verde.
Hoy ninguna verdulería recibió mercadería fresca por un paro de conductores de camiones en el Mercado central.
Probablemente, los vegetales resulten muy buenos.
Este argumento resulta más débil que el original ya que es una característica que el caso no tendrá “a favor”.
De más está decir que el agregado de datos irrelevantes con lo que se quiere concluir no agrega fuerza al argumento. Por
ejemplo, sería inútil agregar que todas las veces que Félix fue a comprar a la verdulería en el pasado lo había hecho después
de comerse una barrita de cereal y que hoy hará lo mismo, ya que no tiene que ver con la calidad de las verduras.
Cantidad de casos o instancias que se ofrecen como premisas cuanto mayor sea la cantidad de casos o instancias que son
similares en uno (o más) sentido(s) relevante(s) respecto de la característica que se pretende inferir, más fuerte será el
argumento.
Ejemplo: Si decimos que Félix ha comprado durante los últimos 6 meses en la verdulería Todo verde y los vegetales
resultaron buenos, es más fuerte el argumento que establece que probablemente lo sigan siendo. Mientras que si decimos
que solo ha comprado ayer, nuestro argumento tendrá menos fuerza.
Ejemplo de ambas:
María Gómez es porteña y está en contra de la despenalización del aborto.
Pedro Álvarez es porteño y está en contra de la despenalización del aborto.
Francisco Godoy es porteño y está en contra de la despenalización del aborto.
Todos los porteños están en contra de la despenalización del aborto.
Página 13 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Evaluación de los silogismos inductivos
Teniendo en cuenta que una de las premisas posee la forma de una generalización estadística, que establece la frecuencia relativa de
dos propiedades, la de ser F y la de ser G, es decir, qué porcentaje (o, cuantitativamente, qué cantidad) de los F son G, resulta preciso
señalar que:
Cuanto mayor sea la frecuencia relativa, más fuerte será el razonamiento también a la inversa, cuanto menor sea, más
débil será el razonamiento.
Ejemplo:
El 95% de los pacientes que padecen de una infección causada por estreptococos se recuperan al ser tratados con penicilina.
Jorge padece una infección causada por estreptococos y es tratado con penicilina
Por lo tanto, Jorge se recuperará.
Si el porcentaje de eso fuera 2, dudaríamos de la fortaleza del argumento aunque aceptaríamos una conclusión contraria
(Jorge no se recuperará).
Se ha de considerar el total de la evidencia disponible (Como antes) agregar información que resulte relevante y coincida
con el caso del cual queremos genera una conclusión.
Ejemplo:
La probabilidad de recuperación del tratamiento con penicilina de un paciente que padece una infección causada por
estreptococos en una variedad resistente a la penicilina es casi nula.
Jorge padece una infección con estreptococos en una variante resistente a la penicilina y es tratado con penicilina.
Por lo tanto, Jorge no se recuperará.
Este argumento resulta más fuerte que el primero, porque incluye más evidencia (relevante).
Unidad 2
Introducción a la unidad “La ciencia y su historia”
En esta sesión se presentarán casos históricos que permiten entender algunas cuestiones metodológicas y que permiten anclar las
reflexiones de las distintas corrientes epistemológicas. Se presentarán algunos momentos claves del desarrollo de la geometría e
introduciremos la noción de “sistema axiomático”. A este lo conceptualizaremos desde la perspectiva de Euclides y desde la
“contemporánea”. Luego veremos la Revolución darwiniana y algunas teorías que hicieron que Darwin llegara al concepto de
“selección natural” en la biología.
Origen de los primeros conocimientos geométricos
Documentos encontrados en Mesopotamia y Egipto contienen conocimientos aislados no vinculados entre sí. Allí aparecen
resueltos algunos problemas, no su procedimiento, sino su resultado.
Textos matemáticos egipcios:
Tratamiento de números y figuras era de carácter concreto, no abstracto. Por ejemplo, se habla de que 15 aceitunas + 25
aceitunas son 40 aceitunas pero no de que 15+25=40. Al igual, se habla de terrenos rectangulares y vasijas circulares, no de
las figuras geométricas abstractas (círculo y rectángulo).
Geometría prehelénica técnica cuyo fin fundamental era la práctica. Daba respuesta a problemas concretos y de índole cotidiana.
Muchos de sus resultados fueron, por esta razón, aproximados.
Conocimientos no configuraban un sistema pero fueron de gran importancia ya que permitieron la realización de obras de gran
envergadura, repartir tierras, calcular áreas y volúmenes, etc.
Geometría griega
Siglo VII a.C. comienza a desarrollarse una forma de pensamiento para tratar de explicar los fenómenos de la naturaleza. Ocurre en
las ciudades griegas de la costa egea del Asia Menor que recibieron influencia de:
Fenicios, egipcios y cretenses por vía marítima.
Pueblos del Asia Menor por vía terrestre.
Surgimiento del GENIO (la imaginación creativa del pueblo griego) favorecida por la posición geográfica y razones de índole
política y social (que permiten explicar el desarrollo intelectual de los griegos, cuya nueva actividad frente a la naturaleza se basaba en
intentar buscar explicaciones de los fenómenos naturales sin apelar a elementos míticos o sobrenaturales).
Página 14 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
En este contexto surgieron algunos pensadores que inauguraron una forma de especulación racional acerca de la naturaleza (origen
histórico de la ciencia) y además reconocieron la importancia de la teoría como organizadora de la práctica. Esto quiere decir que los
conocimientos basados en las experiencias tenían que poder ser explicados a partir de nociones teóricas.
Sobre estas ideas los conocimientos de carácter concreto y sin articulación de los egipcios y babilónicos se fueron desarrollando y
adquirieron un carácter más abstracto y un grado mayor de generalización, articulándose en un único cuerpo de conocimiento.
Uno de los pensadores Tales de Mileto (nacido alrededor del 585 a.C.) matemático y astrónomo griego que aplicó el método
deductivo (permite justificar un enunciado a partir de otros ya conocidos) a la geometría.
Principal contribución de Tales tratamiento general de los problemas geométricos. Esto permitió formular y aplicar propiedades
de carácter general y dar importancia a los métodos involucrados en la solución de problemas.
Diferencia:
Hallar soluciones particulares a problemas concretos:
Supongamos que tenemos un campo rectangular de 200 m de largo por 100 m de ancho. Si queremos averiguar cuántos
metros de alambre se necesitan para cercar el campo, tendremos que calcular el perímetro de ese campo sumando las
medidas de sus lados: P = 200+100+200+100 = 600.
Y allí tenemos la respuesta: se necesitan 600 metros de alambre. Hemos resuelto un problema de forma particular.
Tratamiento general de los problemas:
Queremos obtener una expresión que nos permita calcular el perímetro de cualquier rectángulo sin importar la medida de
sus lados.
b
Si llamamos a y b a sus lados, podremos calcular su perímetro: P = a+b+a+b = 2a + 2b.
Ahora, hemos resuelto el problema de forma general.
Euclides y la geometría
Euclides (367 a.C. durante el reinado de Ptolomeo en Alejandría [Fundada por Alejandro Magno en el año 331 a.C. en la
desembocadura del Río Nilo]) matemático considerado padre de la geometría.
Euclides logró sistematizar los conocimientos geométricos cuyo fin inmediato no era la resolución de problemas concretos.
Sistematizar presentar los enunciados articulados, organizados, estructurados entre sí y mostrar cómo se van deduciendo unos de
otros.
“Elementos” su obra más importante, en la que se perfeccionan y se sistematizan los conocimientos geométricos anteriores. No
solo los geométricos, sino que todos los conocimientos matemáticos del momento.
En esta obra, el autor adopto la perspectiva aristotélica según la cual:
La ciencia es un conjunto de afirmaciones (generales y verdaderas) sobre un determinado objeto. La exigencia de
generalidad radica en la convicción de que la ciencia trata sobre lo general y no sobre las entidades particulares. Y el
enunciado de las oraciones necesariamente verdaderas, no puede ser de otro modo.
Las afirmaciones deben estar articuladas de modo orgánico mediante la aplicación de un razonamiento lógico que permita
apoyar ciertas afirmaciones en otras que se toman como punto de partida y respecto de las cuales no se exige
demostración (porque son verdades evidentes). El vocabulario utilizado en dichos enunciados distingue entre los términos
primitivos y los que se definen a partir de aquellos.
Elementos: se desarrolla en 13 libros:
1-4: geometría plana. En el primero: Euclides establece una serie de enunciados que se aceptan sin demostración y que
constituyen los principios por los cuales se va a poder demostrar el resto de los enunciados del sistema. Euclides distingue
tres tipos de principios:
Los postulados (hoy en día, axiomas) son aquellos que se refieren a una ciencia en particular. En este caso, la
geometría. Son los siguientes:
1) Desde un punto a otro siempre se puede trazar una recta.
2) Una recta se puede prolongar indefinidamente en cualquiera de sus direcciones.
3) Dado un punto y un segmento, se puede construir un círculo que tenga ese punto como centro y a ese
segmento como radio.
4) Los ángulos rectos son iguales entre sí.
Página 15 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
5) Si una línea recta corta a otras dos rectas de manera que la suma de los ángulos interiores de un mismo
lado sea menor que dos ángulos rectos, entonces dichas rectas, prolongadas suficientemente, se cortarán
del mismo lado de la primera línea recta en que se encuentren aquellos ángulos cuya suma es menor que
dos rectos.
Este postulado es el más complejo y se conoció como el Postulado de las paralelas generará discusiones
y cambios grandes en la historia de la geometría.
El enfoque euclideano de la geometría era muy diferente al enfoque empírico que, por ejemplo, empleaban los
egipcios. Euclides no tenía en cuenta ni hacía referencia a ningún problema concreto que pueda ocurrir en
circunstancias reales. Por ejemplo, en la superficie terrestre puede haber obstáculos que impiden el trazado de una
línea recta de un punto a otro. Sin embargo, para él, en teoría, una línea recta puede trazarse entre dos puntos
aunque no podamos hacerlo en la práctica. Lo mismo ocurre con la prolongación de las rectas y el trazado de los
círculos.
(Los postulados se toman como verdaderos sin que sea necesaria su demostración)
Las nociones comunes hacen referencia a cuestiones generales que pueden aplicarse a la geometría como a
otros ámbitos de la ciencia o vida cotidiana. Algunos ejemplos son:
Cosas iguales a una misma cosa son iguales entre sí.
El todo es mayor que cualquiera de sus partes.
(Las nociones comunes se toman como verdaderas sin que sea necesaria su demostración)
Las definiciones (acá se despega de los lineamientos aristotélicos según los cuales es necesario tomar ciertos
términos como punto de partida y no definirlos) Euclides define todos los términos con los que trabaja incluso punto
o recta:
Un punto es lo que no tiene partes.
Una línea es una longitud sin anchura.
Su intención fue dar descripciones de los objetos con los que se trabaja para evitar que en la práctica, se cometieran
errores causados por la vaguedad de los términos. Sin embargo, las presentaciones axiomáticas de la actualidad
siguen las recomendaciones aristotélicas y no el método de Euclides.
A partir de los postulados y las nociones comunes Euclides obtiene deductivamente una serie de enunciados llamados por él
proposiciones, o en terminología contemporánea, teoremas.
Proposiciones/teoremas (frecuentemente tienen forma de enunciados universales) son enunciados verdaderos (porque se
obtienen de forma deductiva de los postulados y nociones comunes y estos dos son verdaderos sin que sea necesaria su
demostración)
Demostraciones de las proposiciones/teoremas construidas por Euclides a partir de las premisas se deduce la conclusión por las
reglas de inferencia. Pero, no explicita las reglas de inferencia. Solo parte de principios y va obteniendo conclusiones será una
preocupación de los matemáticos y lógicos del siglo XIX la explicitación de la lógica subyacente a las demostraciones geométricas.
El problema del quinto postulado
“Si una recta c corta a otras dos a y b formando de un mismo lado ángulos internos menores que dos rectos, esas dos rectas a y b
se cortan del lado donde se encuentran los ángulos mencionados.”
Representada en el siguiente gráfico:
Si la recta c corta a las rectas a y b y la suma de los ángulos α y β es menor que dos rectos (α + β es menor que 180º), entonces las
rectas a y b se cortan en el punto P.
Para Euclides, un requisito de los axiomas (o postulados) era que su verdad fuera evidente. Sin embargo, este postulado era mucho
menos evidente que los otros 4. El propio Euclides debió tener dudas al respecto, ya que no lo utilizó para explicar ningún teorema
hasta el 29 del Libro I.
Esta falta de evidencia que surge de la postulación de este postulado hizo que los geómetras posteriores a la época de Euclides
plantearan que el postulado era en realidad, un teorema. Es decir, que podría ser demostrado a partir de los postulados. Si esto
Página 16 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
fuera así, implicaría que el quinto postulado no era independiente de los otros cuatro (un postulado/axioma es independiente si no
puede deducirse del resto de los axiomas del sistema).
A lo largo de los siglos se intentó demostrar el quinto postulado. Pero siempre se advertía que no se había partido únicamente de
los 4 postulados, sino que se utilizaba otro enunciado, que siempre resultaba equivalente al quinto postulado (el cual era el que se
querías demostrar).
Matemático escocés John Playfair (1748-1719) elaboró una versión del quinto postulado que es la que sigue vigente: “Por un
punto exterior a la recta, puede trazarse una única paralela a dicha recta”.
Gráfico de esta versión:
Los primeros intentos de demostración de este postulado I a.C. Posidonio y Gémino astrónomos y matemáticos. Y en las
traducciones al griego y al latín de los textos árabes se encuentran algunos comentarios referidos al quinto postulado. Sin embargo,
porque la ciencia permaneció aletargada en Europa un largo período, los intentos de demostración del quinto postulado se retomaron
recién en el siglo XVI.
El trabajo de Saccheri
1733 se publicó un trabajo de Giovanni Gerolamo Saccheri (1667-1733) presenta un enfoque metodológico diferente a los
intentos anteriores de demostrar el quinto postulado. Se trata de una demostración indirecta o por el absurdo. En vez de tratar de
demostrarlo a partir de los cuatro postulados, lo intenta por vía indirecta, partiendo de los 4 postulados y de la negación del quinto.
Saccheri creía que negando el postulado encontraría una contradicción que lo llevaría a concluir que el supuesto era falso, y por lo
tanto el quinto postulado quedaría demostrado, probando que este no era independiente.
Si como se sospechaba, el postulado 5º se deducía de los anteriores (es decir, no era independiente) y se introducía, ahora, su
negación, la contradicción habría de surgir inexorablemente.
Saccheri analizó la versión original de Euclides, aunque analizaremos la de Playfair (Por un punto exterior a una recta, pasa solo una
paralela de dicha recta).
Negar este postulado podría hacerse de dos maneras (Saccheri uso 3 pero con dos alcanza):
Primera: Por un punto exterior a una recta, no pasa ninguna paralela.
Segunda: Por un punto exterior a una recta, pasan más de una paralela.
Saccheri avanzó en la deducción de los enunciados que resultaban de la negación del quinto postulado. Las contradicciones
esperadas surgieron en el primer caso, en el segundo no. En el segundo caso, no llego a una contradicción. Pero llegó a una cantidad
de teoremas extraños por lo que supuso que la contradicción estaba cerca, y de este modo creyó haber vindicado la figura de
Euclides.
La contribución de Saccheri abrió las puertas al desarrollo de nuevas geometrías (recién en el siglo XIX)
Durante mucho tiempo los geómetras rechazaron los dos postulados que negaban el quinto postulado debido a:
La autoridad de Euclides.
La confianza en la intuición.
El contexto.
Años posteriores al trabajo de Saccheri continuó el intento de demostrar el quinto postulado. Varios trabajos franceses lograron
avances importantes. Pero, ninguno pudo demostrar el postulado. A fines del siglo XVII, todos estaban de acuerdo con D’ Alambert,
quien opinaba que “La definición de las paralelas es el escándalo de la geometría”.
Nadie lograba quitarle la categoría de postulado. Por eso se creía que el sistema euclídeo era el único sistema geométrico posible.
Geometrías no euclideanas
El alemán Carl Friedrich Gauss (1777-1855) fue el primero que vio la independencia del quinto postulado y la posibilidad de
construir una geometría distinta a la euclídea.
Un postulado es independiente cuando no puede deducirse del resto de los postulados. Si el quinto postulado lo fuera, podría
reemplazarse por otro diferente y, junto con el resto de los postulados, desarrollarse una nueva geometría. Esto fue lo que hizo
Gauss.
Página 17 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Reemplazó el quinto postulado por el siguiente: “Por un punto exterior de una recta, pueden trazarse infinitas paralelas a dicha
recta” (lo que había sido el segundo caso de Saccheri).
Gauss trabajó con este axioma y con los otros cuatro y demostró propiedades y teoremas que no lo llevaban a ninguna contradicción.
Saccheri ya había explorado estas ideas, pero las rechazó pensando que no había llegado a una contradicción por algún error en
el desarrollo.
Nueva geometría de Gauss demuestra teoremas distintos a los de la geometría euclídea. Por ejemplo, mientras que a partir de los
postulados de la euclídea se puede demostrar que la suma los ángulos interiores de un triángulo es igual a dos rectos, partiendo de
los postulados de Gauss se puede demostrar que es menor a 180º.
Gauss no publicó su trabajo en forma pública en 1829, porque creía que sus ideas iban a ser consideradas insensatas para la
mentalidad del momento. No quería arriesgar el prestigio que había logrado con otras investigaciones, por las cuales lo llamaban “el
príncipe de las matemáticas”. Sin embargo, la idea de geometrías no euclídeas ya estaba instalada.
1823 se publicó el texto del húngaro János Bolyai (1802-1856) que antes se había publicado como anexo de un libro de su padre
se exploraba la hipótesis de la existencia de infinitas paralelas. Gauss lo revisó y dijo que eran las mismas conclusiones a las que
había llegado él pero que no pensaba publicarlas.
1826 el ruso Nikolái Lobachevski (1792-1856) presentó un trabajo en el que desarrolló un sistema geométrico que retomaba los
cuatro primeros axiomas de Euclides y agregaba otro que afirma la existencia de infinitas paralelas (tal como los otros dos). Esta
geometría (conocida como geometría hiperbólica) incluye teoremas que coinciden con la geometría euclídea (los que se deducen de
los primeros cuatro postulados) y otros que no (los que se deducen incluyendo el quinto postulado).
Geometría hiperbólica surge de tomar la hipótesis de Saccheri de que existen infinitas paralelas. Faltaba estudiar la otra hipótesis,
la de la existencia de ninguna paralela. Cuando Saccheri la estudió creyó encontrar una clara contradicción.
1854 el alemán Bernhard Riemman (1826-166) presentó una tesis doctoral ante un jurado integrado por Gauss y otros. En esta
se exploraban las consecuencias de negar el quinto postulado (suponiendo la no existencia de las paralelas). Esta geometría se
denomina geometría elíptica e implica otras modificaciones además de la del quinto postulado.
En esta geometría la recta es cerrada (lo que también niega el segundo postulado, por el cual una recta se puede prolongar
infinitamente por cualquiera de sus extremos). Si la recta es cerrada, no puede ser infinita.
Al abandonar el segundo postulado, Riemman evitó las contradicciones de Saccheri. Como consecuencia de los axiomas de Riemman,
se puede probar como teorema que la suma de los ángulos interiores de un triángulo es mayor que 180º.
Cuadro resumen:
Suma de los ángulos de un
Tipo de Geometría Cantidad de paralelas Recta
triangulo
Euclides (euclídea) Una 180º Infinita
Lobachevski (hiperbólica) Infinitas Menor que 180º Infinita
Riemman (elíptica) Ninguna Mayor que 180º Cerrada
Los matemáticos lograron desarrollar diferentes sistemas, todos indiscutibles desde el punto de vista lógico (los conjuntos de
axiomas permitían deducir nuevos teoremas) y tal conjunto de enunciados no mostraba contradicciones entre sí (por más extraños
que resultaran para la geometría anterior). Surgió entonces el problema de cómo interpretar tantos sistemas axiomáticos se
interpretaron como juegos. Como muestras de los alcances del ingenio humano.
Por más de veinte siglos la geometría euclideana fue considerada la única geometría, la cual describía el espacio físico y podía
reflejarse en la vida cotidiana. (Allí los ángulos interiores de un triángulo suman 180º y por un punto exterior a una recta, pasa una
paralela y solo una).
El surgimiento de nuevas geometrías originó un cambio en la forma de concebir la disciplina. A partir de ahí se hizo una distinción
entre geometría pura (geometría matemática que describía estructuras posibles) y geometría aplicada (geometría física que
pretendía describir la realidad física).
Progresivamente, los sistemas axiomáticos se fueron concibiendo como estructuras formales, que partiendo de ciertos enunciados
permitían construir estructuras coherentes desde el punto de vista lógico, pero que no referían a ninguna entidad concreta. Así, al
hablar de punto o recta, no hace referencia a algo en particular, sino que son términos cuyo comportamiento queda establecido a
partir de los axiomas.
Página 18 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Ejemplo para aclarar el último punto: Tenemos el siguiente sistema axiomático
1. El presidente es electo por el pueblo.
2. El mandato del presidente dura cuatro años.
3. Luego de un primer mandato, el presidente puede ser reelecto.
4. Luego de un segundo mandato, el presidente no puede ser reelecto.
Podemos pensar que los axiomas son verdaderos. En efecto, lo son en el caso de Argentina pero no en el de otros países. Pero en
todo caso, un sistema que contase con estos principios es CONSISTENTE.
Conjunto de axiomas consistente no se deriva de ellos contradicción alguna.
Sin embargo, este sistema también es consistente:
1. El presidente es electo por el pueblo.
2. El mandato del presidente dura cuatro años.
3. Luego de un primer mandato, el presidente puede ser reelecto.
4. Luego de un segundo mandato, el presidente puede ser reelecto.
Si bien este sistema no describe el tipo de organización de la Argentina, sigue siendo una estructura política posible dentro del punto
de vista lógico (y también dentro del punto de vista práctico porque hay países que se organizan asi).
Por el contrario, no podría implementarse esta organización:
1. El presidente es electo por el pueblo.
2. El mandato del presidente dura cuatro años.
3. Luego de un primer mandato, el presidente puede ser reelecto.
4. El presidente nunca puede ser reelecto.
Como se observa, surge una contradicción entre los axiomas 3 y 4. Por lo que este sistema no es consistente. No puede
implementarse, ya que el sistema falla desde un punto de vista lógico.
Desde un punto de vista lógico, el siguiente sistema también es consistente, aunque no puede implementarse desde el punto de vista
práctico.
1. El presidente electo desarrolla superpoderes.
2. Los superpoders duran mientras dure el mandato.
3. Luego de su mandato, el presidente no puede recuperar sus superpoderes.
Advirtamos que los cuatro sistemas axiomáticos presentados no se refieren a ningún país determinado. En tal sentido, en tanto no
hacen referencia a ninguna entidad concreta, los llamamos sistemas formales.
El punto por destacar es que, a partir de estos axiomas, podemos obtener las consecuencias que de ellos se derivan. Desde ya,
podríamos, luego aplicarlo para el estudio de casos particulares. Para ello, habría que interpretar los términos involucrados en el
sistema para que refieran a algo concreto. En nuestros ejemplos, deberíamos precisar el país al que nos estamos refiriendo cuando
hablamos del régimen de gobierno.
Volviendo a la geometría, la geometría euclideana pareciera ser la que se aplicaba al espacio mientras que las otras eran más afines a
la ficción, siendo sistemas meramente formales. Pero la historia tuvo un desenlace inesperado. Las geometrías no euclideanas no
fueron simple ejercicios de la lógica, sino que permiten interpretar el universo en el que vivimos. Encontraron aplicaciones
concretas en ramas de la física, por ejemplo. Incluso Einstein no hubiese podido desarrollar las ecuaciones de la teoría de la
relatividad si no hubiera contado con las herramientas que estas nuevas geometrías aportaron.
Sistemas axiomáticos desde una perspectiva contemporánea
Sistema axiomático de Euclides siguió el modelo de ciencia demostrativo propuesto por Aristóteles.
Sistemas axiomáticos desde la perspectiva formal contemporánea son diferentes.
Similitud con el planteo de Euclides y Aristóteles se parte de axiomas y se deducen teoremas mediante reglas de inferencia.
Diferencia interpretación de los términos utilizados:
Para la concepción clásica se hace referencia a una entidad concreta.
Concepción contemporánea los términos no refieren a nada en específico.
En un sistema axiomático encontramos dos tipos de enunciados: axiomas y teoremas.
Axiomas son los enunciados que se aceptan sin demostración y que constituyen los puntos de partida de las demostraciones (eran
denominados postulados por Euclides). Pero a diferencia de Euclides y Aristóteles, no se exige que los axiomas sean verdades
Página 19 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
evidentes. Es así porque, de acuerdo con el nuevo enfoque formal, los axiomas no refieren a entidades específicas, sino que son
meros constructos formales de los cuales no tiene sentido predicar su verdad o falsedad.
Teoremas son enunciados que se demuestran, es decir que se obtienen deductivamente, a partir de otros enunciados mediante
reglas de inferencia.
Sistemas axiomáticos deben incluir las reglas de inferencia que se utilizan para demostrar los teoremas las reglas lógicas
garantizan que, si se parte de enunciados verdaderos, la conclusión también lo será. En nuestro caso, si se parte de axiomas
verdaderos, los teoremas también lo serán.
Las demostraciones parten de axiomas o de teoremas ya demostrados previamente, y por aplicación de las reglas de inferencia,
permiten obtener nuevos teoremas. Los axiomas de una demostración juegan un papel similar al de las premisas de una deducción, y
los teoremas (último enunciado de una demostración) pueden ser asimilados a su conclusión.
Todos estos enunciados están compuestos por términos (expresiones lingüísticas con significado) y podemos distinguir dos tipos:
Términos lógicos: expresiones como todos, son, pasan por, si…entonces, y, o, etc.
Términos no lógicos: por ejemplo, en el caso de la geometría se refieren a entes geométricos (recta, punto, triángulo, círculo,
ángulo, etc.)
Dentro de los no lógicos podemos distinguir entre:
Términos primitivos: se aceptan y emplean sin definición.
Términos definidos: se definen a partir de los primitivos.
Es claro que Euclides no empleó dicha distinción y presento una definición incluso de aquellos términos que hoy consideramos
primitivos.
Siglos después el alemán David Hilbert 81862-1943) desarrolló una nueva sistematización de la geometría euclideana. En sus
trabajos toma punto, recta y plano como términos primitivos (sin incluir definición). El resto de los términos son definidos a través de
esos. De modo que los sistemas axiomáticos actuales incluyen también definiciones pero solo de los términos definidos.
Los sistemas axiomáticos también incluyen reglas de formación indican cómo combinar los diferentes términos para dar lugar a
expresiones complejas bien formadas. Indican cómo construir sintácticamente los enunciados que podrían cumplir el rol de axiomas o
teoremas.
Ejemplo: Indican cómo construir "2+2=4" y no "224+=".
La selección de los axiomas
Axiomas se toman como punto de partida y se los acepta como verdaderos sin que sea necesario demostrarlos.
¿Por qué se los toma como punto de partida? Por ejemplo, si tenemos el enunciado A y queremos justificarlo, recurriríamos al B, y
para justificar este, al C y así sucesivamente. Si no tomáramos un punto de partida, seguiríamos en este proceso indefinidamente y
caeríamos en lo que se conoce como regresión al infinito. Gráficamente:
Se podría evitar esta regresión infinita si C se dedujera de A. En este caso, no se necesitaría otro enunciado para probarlo pero
caeríamos en un círculo vicioso. Gráficamente:
Para evitar estas dos circunstancias es necesario aceptar algunos enunciados sin demostración.
¿Cuáles son los enunciados que se tomarán como axiomas? En la época de Euclides, debían ser enunciados cuya verdad fuera
evidente. Este criterio de evidencia (que ha sido dejado de lado en la modernidad) presenta dificultades ya que la evidencia es un
criterio subjetivo, y por lo tanto, no es confiable.
En los sistemas axiomáticos modernos no se utiliza este criterio de verdad evidente. Solo son puntos de partida que se eligen de
manera convencional. Esto hace que, por ejemplo, lo que es un axioma en un sistema pueda ser un teorema en otro.
Página 20 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Carácter formal de los axiomas están compuestos por términos que no refieren a un objeto concreto. Por lo tanto, no pueden
resultar verdaderos o falsos. Solo cabe preguntarse por su verdad cuando se asigna referencia a los términos del sistema y los
enunciados son aplicados a un dominio de objetos. Es decir, cabe preguntarse por su verdad cuando el sistema ha sido interpretado.
Propiedades de los sistemas axiomáticos
Requisitos que deben cumplir los sistemas axiomáticos:
Independencia un enunciado es independiente cuando no puede demostrarse a partir de los otros enunciados del
sistema. Para que un sistema lo sea, todos sus axiomas deben serlo, si alguno no es, pasaría a ser un teorema y no tendría
sentido conservarlo como axioma. Este requisito, no es estrictamente necesario ya que un sistema redundante (no
independiente), no es pasible de ninguna objeción lógica. Sin embargo, la independencia permite una deducción más simple
de los teoremas.
Consistencia un enunciado y su negación no pueden ser probados simultáneamente dentro de un mismo sistema. No se
puede incluir A y no A. Este requisito si es necesario, porque el sistema no puede incluir falsedades (A y no A es una
contradicción).
Completitud un sistema es completo cuando permite demostrar todo lo que se pretende demostrar a la hora de construir
el sistema. Es decir, cuando hay garantía de que ninguna verdad quedará fuera del sistema. Euclides intentó sistematizar
todas las verdades conocidas pero estrictamente, no lo logró. Fue David Hilbert en su “Fundamentación de la Geometría”
quien logró subsanar este error.
Unidad 3
Introducción a la unidad “El cambio científico”
Políticas científicas
Página 21 de 21
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
IPC – UBA XXI – Segundo Parcial
La revolución Darwiniana
En este material estudiaremos una de las teorías más influyentes de la historia de la ciencia aquella expuesta por Charles Darwin
(1809-1882). Tuvo gran impacto a nivel científico. Porque articuló de un modo inusual teorías ya existentes con su nueva teoría. Esto
marcó un quiebre en el modo de pensar la dinámica de las ciencias biológicas.
Sus propuestas puesta en duda de un conjunto de conceptos centrales para la cosmovisión cristiana y moderna occidental.
Teleología
Naturaleza presenta una gran diversidad de organismos con rasgos variados y altamente adaptados al medio algunos se
mimetizan con el entorno para evitar a sus predadores o engañar a sus presas, otros pueden auto-regular su temperatura interna,
algunas plantas desarrollan colores fuertes en sus flores para atraer a los insectos que las polarizan, u otras plantas pueden seguir la
luz solar.
Esto lleva a dos preguntas ¿Qué función cumple determinado rasgo? ¿Cómo llego ese organismo a tener ese rasgo?
Para responder a la primer pregunta debemos fijarnos en el papel que cumple dicho rasgo en la vida del organismo. Por ejemplo,
los camaleones logran mimetizarse con el entorno para así pasar desapercibido frente a sus presas, logrando mayor efectividad en la
obtención de alimentos.
Para responder a la segunda pregunta es preciso realizar una analogía con los artefactos. Precisamente, estos son fabricados en
torno a un propósito o un objetivo. Estas explicaciones, que dan cuenta de la existencia de eventos, estados o procesos actuales en
virtud de un propósito, finalidad, o meta futura son denominadas explicaciones teleológicas. (Existen las explicaciones teleológicas
por funciones o metas por un lado y las explicaciones teleológicas por propósitos o intenciones, por otro)
Antigua Grecia mundo natural explicado de manera teleológica era coherente pensar en la naturaleza como producto de un
diseño o bien, sirviendo un propósito ulterior. Así, por ejemplo, los animales se podían mimetizar con el entorno con el propósito de
engañar a sus presas. U otros podían controlar su temperatura con el fin de resistir a bajas temperaturas.
Pensamiento filosófico griego (Siglo IV a.C.) Aristóteles pensaba que las explicaciones teleológicas se aplicaban tanto al ámbito
de los artefactos como a los procesos naturales. Pero, existía una diferencia. Para él, la meta de los artefactos es extrínseca
(imaginada por un creador o diseñador), mientras que la finalidad de los procesos naturales debía ser intrínseca (dad por la esencia
de las cosas) ya que consideraba que el universo no había sido creado, sino que era eterno.
Idea de finalidad intrínseca de los procesos desplazada por la cosmovisión cristiana del mundo natural (que se volvió hegemónica
en Europa durante la Edad Media) para esta, las características de los artefactos se explican en virtud del propósito con el que
fueron creadas y diseñadas por el hombre. Mientras que, los procesos y eventos naturales se explican en virtud del propósito con el
que fueron creados y diseñados por Dios.
Dios todopoderosos y omnisciente que de acuerdo con un plan o diseño propio constituyó el mundo natural tal como hoy lo
conocemos (la idea según la cual las especies animales y vegetales son el resultado de un único proceso de creación y han
persistido así hasta la actualidad suele denominarse fijismo).
Esta postura denominada creacionismo es defendida aun en la actualidad en numerosas comunidades cristianas. Constituye la
principal oposición religiosa a l teoría de Darwin.
Antes de la publicación del texto de Darwin “El origen de las Especies” (1859) las explicaciones biológicas eran principalmente
teleológicas. Así, numerosos filósofos (como Kant), defendieron la idea de que no es posible encontrar otras explicaciones que no
fueran teleológicas.
Pero, desde la perspectiva de la ciencia, estas explicaciones representaban un problema.
Para los contemporáneos de Darwin el modelo paradigmático de teoría científica era el de la física desarrollado por Newton
(1642 – 1727). En física, para la explicación de un hecho se identifican sus causas y se las conecta con los efectos de una manera
regular. En cierto modo, las explicaciones físicas apelan a mecanismos y causas que preceden al fenómeno que buscan explicar y que
están conectadas con ciertos efectos.
Ejemplo: Para explicar la dilatación del metal con el calor, la física diría que la temperatura de una sustancia puede entenderse como
la expresión del grado de agitación de sus moléculas. Así, al calentarse un metal, el movimiento de las partículas se intensifica. Esto
hace que las moléculas estén más alejadas entre sí, lo que genera que el metal aumente su volumen.
Página 1 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
En este caso, una explicación teleológica sería inaceptable. No diríamos que el metal se calienta con el fin de dilatarse, o que posee
esta propiedad porque fue creado con el propósito de dilatarse.
Biología apelaba a explicaciones teleológicas que hacen uso de causas futuras por lo que no se ajustaba a lo que se suponía
debía ser una buena explicación científica. La idea misma del futuro parecía problemática. ¿Cómo algo que no ocurrió todavía podía
causar algo en un evento del pasado?.
Además de esto, las explicaciones teleológicas apelaban a un plan divino sospechoso como explicación científica.
Sumados estos puntos la Biología parecía estar un paso detrás del resto de las ciencias.
Teoría desarrollada por Darwin marca un punto de inflexión en este sentido. Introdujo a la biología la idea de la selección natural.
Y, junto con otras tesis, permitió explicar el origen, la variedad, la complejidad y el carácter adaptativo de los rasgos de los organismos
en virtud de un conjunto de causas antecedentes.
Teoría darwiniana marca el abandono de las explicaciones meramente teleológicas del mundo natural y el comienzo de la biología
como una ciencia en el sentido en el que la entendemos hoy en día (aunque la pregunta de las funciones de los rasgos aún sigue
preocupando a los biólogos).
Antecedentes de la teoría darwiniana
Teoría darwiniana de selección natural incorpora varias tesis adicionales:
Tesis evolucionista según esta las especies cambian sus rasgos a lo largo de las generaciones, dando lugar incluso a nuevas
especies. Uno de los defensores más notables de las ideas evolucionistas fue el francés Jean Baptiste Lamarck (1744 – 1829). Él
sostenía que los animales evolucionan de acuerdo con una jerarquía preconcebida por dios (que va de lo más simple a lo más
complejo). Fundamentalmente, Lamarck afirmó que los rasgos adquiridos son heredables y que este mecanismo es el motor de la
evolución. De acuerdo con esto, el uso o desudo de algunos órganos provoca que estos se hipertrofien o atrofien, haciendo que el
organismo adquiera un nuevo rasgo, que luego será traspasado a las siguientes generaciones. Este proceso, moviliza la evolución de
una especie.
Ejemplo conocido de Lamarck: “El cuello largo de las jirafas”. Según él, este surgió ante la necesidad de las jirafas de adquirir hojas de
los arboles ante la escasez de alimentos. Esto llevó a que su cuello sea cada vez más largo hasta llegar a como las conocemos hoy.
Aclaración En “El origen de las especie” Darwin acepta la idea de la herencia de rasgos adquiridos pero le otorga un lugar
secundario en la dinámica evolutiva, por detrás de la selección natural.
La teoría darwiniana es gradualista De acuerdo con la tesis gradualista, la selección natural obra solamente mediante la
conservación y acumulación gradual de pequeñas modificaciones heredadas. Con respecto a esto, una de las influencias de Darwin
fue la obra de Charles Lyell (1797 – 1832). Éste se opuso a las teorías geológicas catastróficas, que sostenían que el estado geológico
actual de la Tierra se debía a una sucesión de catástrofes naturales. El líder de esta teoría catastrofista fue el naturalista George
Cuvier (1769 – 1832) quien propuso la teoría como una manera de explicar los grandes saltos que se observaban en el rudimentario
registro fósil disponible, que parecían indicar la existencia de fenómenos de extinción abrupta de algunas especies. (Puntualmente,
Cuvier especuló con la ocurrencia de un gran diluvio localizado en Eurasia). Frente a esta teoría, Lyell sostuvo una posición gradualista
y actualista, de acuerdo con la cual los accidentes geológicos conocidos se deben a la acción gradual, a lo largo de un período muy
extenso de tiempo (gradualismo) , del mismo tipo de procesos geológicos observados por la ciencia de ese entonces (actualismo).
Sin duda estas ideas influyeron en Darwin quien mantiene que los procesos naturales son graduales ya que son extendidos en el
tiempo y actuales. Es decir, impulsados por los mecanismos de selección observables por el científico.
La tercera tesis es la del origen común Sostiene que muchas especies descienden de otras especies, en muchos casos de
una en común. Esto va en contra de la idea de creación independiente divina del momento. Y, según esta, caben dos distinciones. Que
todas las especies desciendan de una misma o que hayan existido varias especies independientes que sirvieron como antepasados de
las especies actuales.
La cuarta tesis, es la de la obra del matemático Thomas Malthus (1766 – 1834), quien observó que, mientras la población
tiende a crecer exponencialmente, la producción de alimentos solo crece de forma lineal. Esto es, que la población crece más rápido
que la producción de alimentos. En virtud de esto, el matemático estipuló que podría producirse alguna vez una lucha por la
supervivencia relacionada con la escasez de recursos, idea que inspiró a Darwin.
La teoría de la selección natural
Como se mencionó anteriormente, mientras que los organismos aumentan exponencialmente, los recursos disponibles en su medio
ambiente crecen únicamente de forma lineal. Como consecuencia, la capacidad de determinado ambiente para sustentar una
población de organismos resultará eventualmente insuficiente. En otras palabras, existirá una lucha por la supervivencia entre los
organismos de una población.
Página 2 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Al mismo tiempo, existen dos variables que funcionan simultáneamente: la herencia y la variación. Por un lado, la descendencia
hereda sus rasgos en gran medida de sus progenitores. Pero por el otro, no todos los rasgos presentes en un organismo son
heredados, ya que existe cierta variación.
La variación puede producir que una diferencia en términos de eficacia. Es decir, una diferencia en cuanto a la capacidad parta
desarrollar determinad función. Esta ganancia o pérdida de eficacia puede volver a dicho organismo más o menos apto en relación a
las condiciones del medio.
Las variantes más aptas son las que tienen más probabilidades de sobrevivir y reproducirse. La herencia garantiza que la
descendencia posea a su vez, varios de estos rasgos que los hacen más o menos aptos, afectando sus posibilidades de sobrevivir y
reproducirse. Este proceso se repite de generación en generación, y así los organismos evolucionan gradualmente.
En la teoría de la evolución, aparecen bastantes conceptos claves:
Variación En las sucesivas generaciones, Darwin observó que los organismos presentan rasgos novedosos. Es decir, no
presentes en sus progenitores. Esta variación, es para Darwin inagotable (ya que en todas las generaciones aparece un rasgo nuevo) y
aleatoria (porque los rasgos de los organismos no aparecen como respuesta a necesidades adaptativas impuestas por el ambiente,
pero esto no significa que no exista un mecanismo para explicar la aparición de ese rasgo novedoso). Además de esto, la aparición de
nuevos rasgos puede ser tanto beneficiosa, como neutral o perjudicial. En el ejemplo de las jirafas, así como algunas habrán nacido
con el cuello más largo del promedio, otras pudieron también haber nacido con el cuello más corto.
Herencia la mayoría de los rasgos de los progenitores son heredados por la descendencia. Gran parte de la evidencia que
Darwin tenía a favor de este punto provino de un estudio que hizo e la actividad de los criadores de animales. Esto es, de la selección
artificial. Notó que seleccionando para la procreación únicamente a animales con ciertos rasgos, los criadores podían generar la
voluntad animal con los rasgos en cuestión.
Eficacia y aptitud El concepto de eficacia concierne a una determinada función (por ejemplo para camuflarse, cazar,
escapar de los depredadores, etc.) La eficacia con que cierto organismo desarrolla cierta función impacta en su aptitud en relación
con el medio ambiente. Esto es, impacta en la probabilidad de supervivencia (viabilidad) y/o de reproducirse y dejar descendencia
(fertilidad). Puede ocurrir que un rasgo otorgue viabilidad pero resulten poco aptos en términos de fertilidad. O viceversa (en estos
casos importa el grado de eficacia que otorgará el rasgo después de la superposición de ambos aspectos y cómo impacta en la aptitud
general del organismo en relación con las necesidades del medio). Cabe destacar que la aptitud es una noción comparativa. En primer
lugar, cierto rasgo vuelve a un organismo más apto únicamente en relación con un medio ambiente. El mismo rasgo podría resultar
neutro o incluso poco apto en otro. En segundo lugar, los rasgos son más o menos aptos en comparación con los rasgos de otros
organismos de la misma especie que compiten por los recursos.
A través de estos aspectos, la teoría de la selección natural explica la diversidad y el carácter adaptativo de las diferentes especies de
organismos en virtud de la aparición aleatoria de variaciones heredables con diferentes rasgos de eficacia y en relación con el medio
ambiente que habitan.
Explicación del ejemplo de las jirafas desde la perspectiva de Darwin: En virtud de un proceso de variación aleatoria de rasgos, ciertas
jirafas nacieron con el cuello un poco más largo que el promedio. En virtud de este accidente del azar, dichas jirafas poseían una
diferencia en eficacia con respecto al resto: concretamente, podían alcanzar las hojas más altas de los árboles, teniendo así acceso a
una fuente de alimento adicional en un medio ambiente donde la escasez de recursos presionaba a los individuos de la especie en una
lucha por la supervivencia. La consecuencia es que las jirafas con cuello más largo eran más aptas o, en otras palabras, poseían mayor
probabilidad de alcanzar la vida adulta y, por lo tanto, de reproducirse y dejar descendencia. Dado el carácter heredable de este
rasgo, la descendencia también tenía predominantemente el cuello largo y, por ende, también poseía una ventaja en la competencia
por el alimento respecto de las jirafas con cuello corto. Vale decir que, dentro de la población de jirafas en ese medio ambiente
particular, las jirafas con cuello largo tenían mayor probabilidad de llegar a la vida adulta, reproducirse y dejar descendencia, que las
jirafas con cuello corto. De esta manera, gradualmente y luego de muchas generaciones, las jirafas con cuello corto dejaron de existir
y el rasgo ‘cuello largo’ se volvió predominante.
Evidencia para la teoría Darwiniana
La selección natural, junta con las tesis gradualista, evolucionista, de origen común y de lucha por la supervivencia permiten dar
cuenta de una amplia variedad de fenómenos, incluyendo la diversidad y variación de los rasgos de los organismos y su carácter
adaptativo. Pero, ¿qué evidencias existen a favor de dicha teoría?
1) Selección natural una primera evidencia proviene de la observación directa de la selección natural. El ejemplo más
común es el de las polillas del sur de Inglaterra, que eran blancas y se camuflaban fácilmente en los troncos de los árboles del
bosque de la región, los cuales eran pálidos, evitando así a sus depredadores. Sin embargo, a fines del siglo XIX, el desarrollo
industrial que tuvo lugar en la zona hizo que la polución de las fábricas volviera los troncos de los arboles más oscuros, volviendo
Página 3 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
presa fácil a las polillas. Sin embargo, las variaciones aleatorias de rasgos hicieron que algunas polillas tuvieran alas negras. De
este modo, ostentaban una ventaja en eficacia: podían camuflarse en los troncos y escapar exitosamente de los depredadores.
Estas polillas tenían mayor probabilidad de supervivencia y de dejar descendencia. Luego de muchas generaciones, la población
de polillas pasó a tener alas negras.
2) Selección artificial un tipo de evidencia recolectado por Darwin fue su estudio de la selección artificial. Darwin observó el
trabajo de los criadores de animales y plantas y el modo en que pueden seleccionar características que deseen haciendo que
solo se apareen entre sí los que las tienen. Estas prácticas, aportaron evidencia para la herencia de los rasgos. Además, observó
que a veces llegaban a resultados inesperados, cosa que evidenció la variación de rasgos.
En el momento en que Darwin presentó la obra, varios científicos mantenían algunas dudas al respecto. Incluso lo que la
apoyaban. Por ejemplo, argumentaban que, que muchas adaptaciones hayan surgido por selección natural, no implica que esta
explique toda la diversidad y complejidad que podemos encontrar en el mundo natural.
En particular, había dudas con respecto a que la selección natural pudiese explicar la especiación (proceso en el cual una especie
se ramifica en dos especies distintas), en particular porque esta no había sido observada puntualmente.
Que la evolución pudiese producir especies totalmente nuevas representaba una apuesta muy radical, no así que la selección
produjera pequeños cambios y adaptaciones en los organismos.
En la actualidad biólogos observaron que pueden causar a voluntad acontecimientos de especiación.
Especie dos individuos pertenecen a la misma especie si y solo si no pueden producir descendencia fértil viable.
Modificando genéticamente las plantas los biólogos pueden producir nuevos organismos reproductivamente aislados de sus
progenitores. De este modo, hoy en día contamos con evidencia directa del modo en que la selección natural puede producir
nuevas especie.
Paleontología
Paleontología ciencia que estudia el origen y el cambio de los seres vivos en el pasado, principalmente a través del análisis del
registro fósil.
Varias de las teorías sostenidas pro Darwin reciben apoyo de esta ciencia se encontraron registros fósiles de “nexos” o especies
intermedias, que sugiere que ciertas especies evolucionaron a partir de formas más antiguas. Esto proporciona evidencia tanto a
favor de la teoría del origen común como a favor de la teoría gradualista.
Bigeografía
Biogeografía estudia la distribución de los organismos alrededor del planeta. A partir de las observaciones realizadas en su viaje
alrededor del mundo en Beagle, Darwin pudo presenciar algunos fenómenos de la distribución de especies en las islas oceánicas.
El caso más conocido es el del Archipiélago Galápagos, donde Darwin observó especies endémicas (no presentes en ningún otro
lugar del mundo). Estas tenían grandes similitudes con especies del continente más cercano, América. Sin embargo, las condiciones de
vida, el clima y las proporciones numéricas entre las especies no se parecían en nada con el continente.
Otro caso conocido Cabo Verde Condiciones similares a Galápagos pero especies muy distintas. Porque las especies de Cabo
Verde presentaban similitudes con las especies del continente más cercano, África.
Aparte de esto, Darwin observó que las islas oceánicas no poseen mamíferos terrestres más allá de los introducidos por humanos,
mientras que si poseen otros tipos de mamíferos, como por ejemplo murciélagos. Esto no puede ser explicado según la teoría vigente
en el momento de la creación divina, pero si a través de la selección natural: las especies presentes en los continentes emigraron
hacia las islas. Una vez allí, las condiciones del medio llevaron a la selección de algunos rasgos particulares, hasta producir especies
nuevas, que no se encuentran en el continente pero que tienen un ancestro en común. Además de esto, los mamíferos terrestres
no son capaces de emigrar hacia las islas oceánicas, lo que explica su falta.
Por otro lado, también se explica que las islas tengan flora y fauna disímiles entre sí aunque tengan condiciones parecidas.
“Homología entre diferentes especies” evidencia tomada por Darwin. Refiere por ejemplo, a las similitudes en la estructura ósea
de las extremidades de diferentes animales tan diversos como humanos, monos y aves. Darwin piensa en las homologías como
estructuras que parecen ser del mismo tipoy que están presentes en diferentes organismos, aunque difieran en forma o función. En
este sentido, la homología estructural proporciona evidencia de la existencia de un ancestro en común.
Página 4 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Otro tipo de homología que proporciona evidencia homología embrionaria Darwin observó que muchas especies poseen
características muy parecidas cuando se encuentran en estado embrionario. Así, este hecho proporciona evidencia acerca de un
antepasado en común, que luego se diferencia en virtud de un proceso de selección natural pero del cual permanecen vestigios en el
estado embrionario.
La teoría de la selección natural ofrece una explicación para la gran variedad que se puede observar en el mundo natural. Esta
explicación apela a ciertos fenómenos como la herencia y la variación. Sin embargo, no había una explicación adecuada de los
mecanismos a través de los cuales estos fenómenos tenían lugar.
Para lograr una teoría que combinara la teoría de la evolución y una explicación de estos fenómenos, fue necesario esperar hasta la
integración de la teoría de la evolución y la teoría genética en la “Teoría Sintética de la Evolución” (1930).
Inicios de la genética trabajo de Gregor Mendel (1822 – 1884). Su gran contribución fue demostrar que las características
heredadas son portadas por unidades que se reparten por separado en cada generación. Estas unidades son las que conocemos
como genes. Actualmente, sabemos que estos se encuentran en los cromosomas y estos, a su vez, constituye las moléculas del ADN
(Ácido Desoxirribo Nucleico) presentes en el núcleo de las células.
Explicación de la herencia las moléculas de ADN presentes en el núcleo de cada célula contienen la información genética de un
individuo y poseen la capacidad de replicarse. Si pensamos en el ejemplo de un organismo duploide (con dos juegos de cromosomas),
que se reproduce sexualmente, cada organismo replica su información genética y pasa parte de ella a los gametos (óvulos o
espermatozoides) que contienen un juego de cromosomas (haploides). En la reproducción sexual, las gametas de dos organismos se
unen para constituir nuevamente una célula diploide (cuyo material genético estaría compuesto por partes iguales de los de sus
progenitores). Esto permite explicar los rasgos hereditarios, que pasan a través del material genético a los descendientes.
Explicación de las variaciones muchas veces la copia del material genético no es perfecta, pos lo que se producen mutaciones que
producen cambios genéticos visibles en la conformación del ADN, que luego son heredados por la descendencia. Así se producen los
rasgos novedosos.
Así, de acuerdo con la Teoría Sintética de la Evolución, la selección natural actúa en los genes seleccionando los que tienen una
ventaja en eficacia.
Para comprender mejor esta idea, considérese la siguiente reformulación, en términos genéticos, del largo del cuello de las jirafas. En
cierto momento, apareció aleatoriamente en ciertas jirafas un gen que determinaba un cuello más largo que el promedio. Aquellas
jirafas que poseían este gen gozaban de una ventaja en términos de eficacia, pues eran capaces de alcanzar las hojas más altas de los
árboles, teniendo así más probabilidad de llegar a la vida adulta y dejar descendencia. Al reproducirse (recuérdese que la
reproducción de las jirafas es sexual), estas jirafas pasaban parte de su material genético a su descendencia, de manera que al menos
cierta proporción de sus crías tenían el gen que determina un cuello largo, con la consiguiente ventaja en eficacia. Dado que las jirafas
con el gen ‘cuello largo’ tenían más probabilidad de dejar descendencia, con cada generación fue aumentando la cantidad de
individuos con el gen en cuestión y las que no lo tenían fueron desapareciendo.
Teoría de Darwin atenta contra la cosmovisión predominante de la época en dos formas. Por un lado, su propuesta evolucionista
es incompatible con la idea de la creación divina de las especies como las conocemos actualmente. Además, el evolucionismo
presupone que el desarrollo de la vida no responde a un plan, sino que el proceso de selección es pasivo, parecido a un filtrado de
variaciones heredables por parte del medio ambiente.
El origen del hombre (1871) agudiza la ruptura. Visión naturalista del origen del hombre según la cual el ser humano tuvo lugar
por la evolución a través de la selección natural a partir de ancestros compartidos con otras especies como los simios. Esto atenta
Página 5 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
contra la teoría antropocéntrica cristiana según la cual Dios había creado un hombre y una mujer a “imagen y semejanza” y desplaza
al ser humano de ese lugar privilegiado.
Tradición filosófica moderna (a partir del siglo XVIII) concebía al desarrollo de la historia y del hombre como proceso continuo de
avance (idea del concepto de progreso).
Palabra “evolución” idea de algo mejor, de más complejo Pero la teoría darwiniana no apela a esta idea.
En la historia de la ciencia, los hitos más destacados parecen haber sido llevados a cabo por varones. Pero, ¿participaron también las
mujeres? ¿Pueden identificarse sesgos de género en las obras de los científicos que protagonizaron las revoluciones científicas a lo
largo de la historia?
Mujeres muchos aportes científicos que han sido olvidados y que están siendo recuperados por historiadores feministas de la
ciencia. Por ejemplo, es gracias a ellos que podemos considerar a Hipatía, matemática, filósofa y astrónoma, vinculada a la
revolución copernicana.
De su padre Teón de Alejandría (siglo IV) recibió conocimientos de matemática, astronomía y filosofía y se dice que incluso formó
numerosos discípulos.
Obras destacadas:
Además crítica a los sesgos androcéntricos y/o sexistas de las teorías. Que, en muchos casos, extendieron su influencia hasta
hoy en día.
Es el caso de la teoría de Darwin, según la cual afirma la filósofa Martínez Pulido que no modificó la visión de la inferioridad “natural”
de la mujer con respecto de los hombres. Ya que, Darwin afirma que algunas de las características típicas del sexo femenino son
propias de razas inferiores, mientras que el hombre desarrolló facultades mentales superiores, como la imaginación. El único cambio
destacable fue que las diferencias jerárquicas entre los sexos humanos fueron traspasadas del dios o los dioses a la ciencia.
Epistemología feminista desafío de identificación y desarticulación de los sesgos. Esta labor crítica tiene como objeto la mejora
de la ciencia. Y es por esto, que la crítica no es denunciatoria sino que cada teoría se estudia en el contexto, para ver cómo influyeron
las ideas de la época y cómo podemos cuestionarlas, interrogarlas, y conservar lo valioso desde una nueva mirada.
Unidad 3
Introducción a la unidad “El cambio científico”
Son muchas las preguntas que surgen al pensar disciplinas que construyen teorías para entender y explicar el mundo, y predecir lo
que ocurrirá. Este será el momento de familiarizarnos con una serie de distinciones tendientes a comprender cómo se estructuran las
teorías científicas. También presentaremos nociones centrales como la de “hipótesis” y estudiaremos cómo es que pueden ser éstas
testeadas y cómo es el proceso de contrastación de hipótesis y sus posibles resultados. Ahora bien ¿qué peso otorgar a la
contrastación en el destino de las teorías? ¿Cómo interpretar sus resultados? ¿Han de ser abandonadas aquellas hipótesis que no
tengan un buen desempeño? Por el contrario, que el resultado de la contratación resulte favorable, ¿quiere decir que la hipótesis es
verdadera? Veremos que diferentes corrientes epistemológicas ofrecen respuestas muy diversas a estos interrogantes.
Página 6 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
La estructura y contrastación de las teorías científicas
Los inicios de la Filosofía de la ciencia
Reflexión sobre la ciencia se remonta a los inicios de la filosofía. Un ejemplo es el modelo de ciencia propuesto por Aristóteles que
consiste en la sistematización de saberes, y que luego inspiró a la geometría de Euclides.
Primera mitad del siglo XX La Filosofía de la ciencia se constituye como una disciplina autónoma y se institucionaliza. Este
proceso coincide con la formación del Círculo de Viena y con el surgimiento en su seno de la corriente conocida como Positivismo
lógico (luego llamado Empirismo lógico).
Siglo XX importantes desarrollos científicos que inspiraron a la conformación de la filosofía de la ciencia. Específicamente, los
trabajos de Einstein (quien mostró que una geometría no euclideana funcionaba, desarrolló la teoría de la relatividad y abrió
discusiones acerca de la naturaleza y la legitimidad del conocimiento científico) y la actividad intelectual en Lógica y Matemática
(fines siglo XIX, principios del siglo XX).
Círculo de Viena integrado por científicos y filósofos, que se reunían en esa ciudad convocados por Moritz Schlick para discutir
problemas filosóficos acerca del conocimiento científico
Participantes destacados: Gustav Bergmann, Philipp Frank, Friedrich Weismann.
Cercano al círculo, se formaría en Alemania la Sociedad de Berlín de Filosofía Empírica, encabezada por Hans Reichenbach.
Participantes destacados: Ludwig Wittgenstein (quien realizó la obra Tractatus lógico-philosophicus que fue recibida con entusiasmo
por los positivistas lógicos) y Carl Hempel.
Manifiesto “La concepción científica del mundo” los miembros del Círculo de Viena declararon que su objetivo es “promover y
diseminar la concepción científica del mundo”. Esta agrupación abordó, con carácter cooperativo, los problemas filosóficos en torno a
la ciencia (especialmente los de carácter lógico, epistemológico y metodológico).
Esta corriente de pensamiento pretendió eliminar el pensamiento metafísico y teologizante de la ciencia, de la filosofía y de la
vida, e imponer un “modo de pensar fundado en la experiencia y contrario a la especulación”. Para ello, propuso una “purificación”
de la ciencia y una transformación radical en la filosofía, que debía tomar un tenor más científico.
En este contexto, se instala la Filosofía de la ciencia como disciplina autónoma.
La Filosofía de la ciencia como reconstrucción racional
Nuevo modo de concebir la filosofía delineaba un propósito y una metodología. Se orientaba a la clarificación y análisis de la
ciencia, específicamente de sus teorías. Estas eran concebidas como sistemas de enunciados y se trataba de analizar las relaciones
lógicas entre estos y de estos con la experiencia.
Nueva orientación de la Filosofía apuntaba a la reconstrucción racional de la ciencia.
Herramienta para esta tarea La nueva lógica de los “Principia Mathematica” de Russell y North Whitehead se volvió la forma de
abordaje para el análisis de la ciencia empírica a través del empleo de formalismos lógico-matemáticos.
Harold Brown resume “Para el positivista lógico hay dos formas de investigación que producen conocimiento: la investigación
empírica (que es tarea de diversas ciencias) y el análisis lógico de la ciencia (que es tarea de la filosofía)”
Análisis lógico de las teorías permitiría descomponer los enunciados en otros cada vez más simples hasta llegar a enunciados
elementales de carácter empírico.
El rechazo de la metafísica
Esta concepción científica del mundo rechazaba la metafísica y se orientó a establecer una distinción clara entre ciencia y
pseudo-ciencia, entre ciencia y metafísica.
En la reconstrucción aplicada a la ciencia y la filosofía, el análisis lógico podía clarificar los problemas y transformarlos en empíricos a
ser resueltos, o bien revelar su carácter de pseudo-problemas y disolverlos.
En el manifiesto “La concepción científica del mundo”, los miembros declaran que los problemas que los ocupan son:
Los fundamentos de la aritmética, la física, la geometría, la biología, la psicología y las ciencias sociales
La naturaleza del método axiomático, la construcción de sistemas axiomáticos para distintos ámbitos de la matemática, la
aplicación de los sistemas axiomáticos a la realidad y su uso en las distintas ramas de la ciencia.
Página 7 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Michael Friedman advierte que esto no debe entenderse como una intención de “fundar” las ciencias (en el sentido de ofrecer
una justificación filosófica del conocimiento científico), sino como un esfuerzo por comprender los objetos con los que trata,
esclarecer su metodología y ofrecer clarificación lingüística y conceptual (tratando de reconstruir axiomáticamente sus teorías).
La filosofía debe adaptarse a los desarrollos de la ciencia, identificar la estructura lógica de las teorías, su relación con la evidencia
observacional y con otras teorías.
Objetivos del Círculo excedían lo meramente científico y filosófico. Buscaban una transformación social, cultural, educativa y
política. Querían lograr “una nueva organización de las relaciones económicas y sociales, hacia la unión de la humanidad, hacia la
renovación de la escuela y la educación” porque creían que “el espíritu de la concepción científica penetra en las formas de vida y
ayuda a guiar la estructuración social y económica de la vida de acuerdo con principios racionales”.
“La concepción científica del mundo sirve a la vida y la vida la acoge”.
1933 aparición del nazismo muchos miembros del círculo migraron a EEUU y a Inglaterra. Ya en otro contexto social, político y
cultural, la expansión del movimiento tuvo como consecuencia su debilitamiento.
Los problemas de la Filosofía de la ciencia
La propuesta de la Filosofía de la ciencia marcó la agenda de sus defensores así como también articuló la discusión de sus críticos.
A continuación se presentarán algunas de estas cuestiones y se ofrecerá el marco conceptual y metodológico necesario para que se
vuelvan entendibles. Muchas de estas elaboraciones son parte del acervo conceptual y metodológico que forma parte de la formación
y práctica científica usual.
A continuación, se enumerarán algunas de las preguntas que constituyeron el núcleo de las reflexiones de la filosofía de la ciencia en
su etapa inicia o clásica.
La distinción contexto de descubrimiento vs. contexto de justificación
Cuestión central delimitar el ámbito de acción de la Filosofía y deslindarla de la metafísica.
Tarea de la filosofía lograr una reconstrucción racional de la ciencia, identificar su estructura lógica. (Con ciencia nos referimos a
sus productos, las teorías). Más precisamente, el interés estaba en el análisis de esas teorías y en su relación con la experiencia. No
en cómo se arriba a su formulación.
Distinción entre contexto de descubrimiento y contexto de justificación crucial para delimitar la tarea de la Filosofía de la ciencia.
Originalmente, dicha distinción fue formulada por Reichenbach en 1938 en su libro “Experiencia y Predicción” (pero no es claro que el
la haya introducido con el sentido de que sería retomada).
Contexto de descubrimiento proceso de generación de nuevas hipótesis. Allí se reconocen factores psicológicos, sociológicos, etc.
Contexto de justificación testeo y validación de las hipótesis ya formuladas.
Lo que incumbe a las Filosofía es claramente el contexto de justificación. Allí es donde se puede llevar adelante un análisis lógico-
filosófico.
Una vez formulada una teoría, podía estudiarse su estructura y su relación con la experiencia, para lograr así su justificación.
Dada una teoría y ciertas hipótesis (enunciados que componen las teorías), es posible llevar a cabo una validación de esas hipótesis a
partir de sus consecuencias Contrastación de hipótesis.
Pregunta central de la Filosofía ¿Cómo se justifican las teorías e hipótesis? Porque se responde atendiendo a factores lógicos,
metodológicos y empíricos.
Criterio de demarcación
El rechazo a la metafísica llevó a los positivistas a interesarse específicamente en distinguir ciencia de metafísica. Pero, ¿cómo se
podía determinar si un enunciado era científico o meramente una especulación metafísica?
Objetivo de la Filosofía desde el punto de vista clásico establecer un criterio de demarcación entre ciencia y pseudo-ciencia. Más
precisamente, entre enunciados que pertenecen a las ciencias empíricas y los pseudo-científicos que deben ser excluidos de ellas.
Solo en el caso que un enunciado tenga carácter científico, se encarará su justificación a través de un proceso de contrastación de
esas teorías.
Página 8 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
La estructura de las teorías científicas
Abordaje filosófico de la ciencia se centra en el análisis lógico de las teorías científicas. Por lo tanto, es importante preguntarse por
la estructura de las mismas.
Física, astronomías, biologías, química, economía “ciencias empíricas” la investigación científica se centra en dar cuenta de los
fenómenos, explicarlos, y por qué no, predecirlos. Para lograrlo, construyen teorías, las cuales son concebidas como sistemas de
enunciados, o más precisamente, de hipótesis.
Hipótesis posibles respuestas a las preguntas que se hacen los científicos. Precisamente, son enunciados que proponen en un
determinado momento para dar cuenta de un problema. Ni bien e formulan, se desconoce si son verdaderas o falsas, pero se trabaja
para demostrar que son correctas.
Ciencia se desarrolla sobre estas versiones provisorias de la realidad e investiga si, efectivamente, dan cuenta del fenómeno que
deben explicar.
Proceso de contrastación de hipótesis lugar donde se dirime la suerte de las hipótesis.
El modo de entender las teorías como sistemas de enunciados inició una tradición en la filosofía de la ciencia y también en la ciencia
en sí. Por lo tanto, cabe preguntarse ¿qué quiere decir que las teorías sean sistemas de enunciados?
Proyecto del Círculo de Viena extender el método axiomático a otras ramas de la ciencia. Un sistema axiomático, desde una
perspectiva contemporánea, es concebido como un conjunto de elementos:
Por un lado, un lenguaje: con términos y reglas sintácticas de formación de esos términos, entre los cuales se distinguen los
primitivos y los que se definen. Así, los sistemas incluyen enunciados que funcionan como definiciones explícitas de esos
términos.
Por el otro, incluyen otros enunciados: los axiomas y teoremas. Los axiomas son los puntos de partida, que se aceptan sin
justificación alguna. Mientras que, los teoremas son enunciados que se obtienen por aplicación de las reglas de inferencia del
sistema, a partir de axiomas u otros teoremas ya demostrados. (Las reglas de inferencia permiten deducir lógicamente
enunciados de otros)
Ahora bien los axiomas, son pensados como meros puntos de partida, sin ser ni verdaderos ni falsos, hasta tanto no fueran puestos
en correlación con algo más, hasta tanto no fueran interpretados.
Una vez que se aplicaba e interpretaba el sistema axiomático para reconstruir una serie de saberes específicos, entonces si cabía
preguntarse por si los axiomas y teoremas eran o no verdades de la disciplina en cuestión. Una vez interpretado el sistema para
obtener un sistema empírico axiomatizado, se abre la pregunta acerca de la verdad o falsedad de la teoría y los enunciados que la
componen. Así, hasta tanto no se lo determine, puede pensarse en ellos como hipótesis: enunciados cuya verdad solo se supone.
En este sentido el Positivismo Lógico consideró que se podía extender el método axiomático al ámbito empírico y que se entendió
que las teorías podían pensarse como sistemas axiomáticos interpretados o aplicados para dar cuenta de una realidad natural o
social.
Una vez que los términos son interpretados, la teoría adquiere contenido empírico y los axiomas son concebidos como hipótesis
fundamentales de las cuales pueden deducirse otras hipótesis (llamadas hipótesis derivadas). Finalmente, de esas hipótesis es
posible deducir las consecuencias observacionales (enunciados que pueden ser evaluados por la experiencia).
Entonces “sistema hipotético-deductivo” puede entenderse como un sistema axiomático interpretado o aplicado.
Teorías sistemas de enunciados de distintos tipos por lo tanto, si son sistemas es porque los enunciados guardan relaciones
entre sí y esas relaciones son deductivas (garantizan la transmisión de verdad). Si los enunciados fuesen verdaderos, las consecuencias
que se obtengan deductivamente también lo serían. La constatación empírica de esas consecuencias es el modo de decir si lo son.
Esa es una respuesta aproximada a la pregunta sobre las estructuras de las teorías. Pero, no hay solo una respuesta posible. Sino que,
existen elementos comunes a todas. Por ejemplo, que tengan la estructura de un sistema axiomático de oraciones.
Ahora bien esta primera aproximación no hace justicia al carácter empírico que los positivistas reconocían en las teorías empíricas.
Las teorías científicas empíricas son mucho más complejas. Y por eso es necesario aclarar algunos conceptos.
Los términos que componen las teorías
La primera distinción que se relaciona al vocabulario de las teorías es entre términos teóricos y términos observacionales.
Página 9 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Esta distinción ha sido objeto de debate desde el mismísimo momento en que fue planteada por el Empirismo lógico.
Precisamente, las críticas a esta distinción motivaron la creación de concepciones epistemológicas alternativas. Pero, su presentación
resulta crucial para comprender la reacción y motivaciones de lo que se denominó la Nueva Epistemología, como así también para
entender el modo en que se conciben las teorías científicas y para presentar el proceso de contrastación de hipótesis.
Términos lógicos sirven para formar oraciones complejas.
Términos no lógicos hacen referencia a ciertos objetos, sus propiedades o relaciones entre ellos. Estos términos pueden ser
teóricos u observacionales, la diferencia reside en aquello a lo que hacen referencia.
Términos observacionales refieren a objetos, propiedades o relaciones accesibles de modo directo por medio de la experiencia. Es
decir, por medio de los sentidos. Ejemplo: mono, vaca, tener rayas, balanza.
Términos teóricos aquellos a los que se accede de modo indirecto, por medio de instrumentos o teorías. Por ejemplo, si
disponemos de un microscopio podemos observar las células. Recientemente, otro ejemplo de la física se presentó. El bosón de Higgs
fue postulado hace medio siglo y refiere a una de las partículas elementales que componen la materia. Esta partícula, recién fue
observada en 2012, de manera muy indirecta. En sí, no se observó la partícula sino que ciertos efectos esperables de su presencia.
En síntesis, algunos ejemplos de términos teóricos podrían ser gen, bosón de Higgs, microorganismos, fotón, quark, etc.
Para los partidarios de la distinción ambas partes del vocabulario son importantes en las prácticas científicas porque el
desarrollo teórico presupone la introducción de vocabulario específico que no refiere a entidades observables de modo directo como
también se utiliza el vocabulario observacional para los registros de observaciones y resultados experimentales y la posterior
contrastación empírica de las teorías desarrolladas.
Distinción entre términos teóricos y observacionales dista de ser clara. De hecho, los mismos promotores penaron en la idea de
pensarla como una de carácter gradual y con límites difusos.
Rudolf Carnap uno de los que propuso la distinción refiere a los términos observacionales como “los que designan propiedades
y relaciones observables” y a los teóricos como los “aspectos no observables de los hechos”.
Claramente, la distinción acá no resulta clarificadora. A los efectos de volver más claro este punto, se habla de “acceso inmediato o
directo”, pero esto tampoco es claro. No existe una línea demarcatoria clara y el mismo Carnap se vio obligado a debilitar esta
distinción.
Tal como sugieren José Diez y Ulises Moulines “Carnap en su monografía de 1966 acabó aceptando explícitamente que la
distinción es gradual”. Por ejemplo, si miramos a través de un telescopio, ¿igual hablamos de términos observacionales?
Existen propuestas que ponen en tela de juicio la posibilidad de llevar adelante una distinción entre términos teóricos y
observacionales.
Los enunciados que componen las teorías
Es posible clasificar los enunciados que conforman las teorías y que intervienen en la práctica científica de acuerdo al tipo de términos
que contienen, de acuerdo a su carácter empírico o teórico y su alcance.
Enunciados empíricos básicos Lo primero refiere a que se formulan en vocabulario observacional: todos sus términos no
lógicos son observacionales. Lo segundo refiere a que son enunciados singulares o muestrales. Los singulares son los que hablan de un
individuo específico (para determinar su verdad o falsedad basta con observar el caso en cuestión). Ahora, los muestrales, son
aquellos que refieren a un conjunto de individuos pequeño. Un conjunto finito y accesible, es decir, lo suficientemente pequeño como
para ser evaluados del mismo modo que los singulares. Por ejemplo, al hablar de “todos los monos que realizaron viajes espaciales
entre 1948 y 1949, pareciéramos estar hablando de algo universal, pero en realidad solo hablamos de 4 monos.
Ejemplos de enunciados empíricos básicos:
Este mono utilizó una piedra para partir el fruto.
El grupo de personas convocadas para el experimento C134 marcó el mismo casillero en la hoja 43.
Característica importante de los enunciados empíricos básicos efectividad (podemos decidir de manera directa, por simple
observación, acerca de su verdad o falsedad). Por esto, estos enunciados son cruciales en la contrastación de hipótesis, porque juegan
el rol de consecuencias observacionales.
Generalizaciones empíricas Estas también contienen exclusivamente términos no lógicos de carácter observacional. Pero,
se refieren a clases infinitas o potencialmente infinitas estableciendo regularidades o uniformidades. Existen tres tipos de
generalizaciones empíricas que se dividen según el alcance de dichas generalizaciones:
Página 10 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Generalizaciones empíricas universales Son empíricas porque solo incluyen términos observacionales como términos no
lógicos (se refieren a la presencia o ausencia de una propiedad o relación observable en entidades observables) y son
universales porque tienen carácter irrestricto, pretenden que aquello que se afirma, se cumpla en todo lugar y tiempo sin
excepción. Las generalizaciones de este tipo requieren de una evaluación indirecta (para determinar verdad) porque no es
posible abarcar la totalidad de objetos a los que se refiere para probar su verdad. Pero, bastaría con un solo contraejemplo
para determinar su falsedad.
Ejemplo: Los cerebros de los monos son más grandes que los de las ratas.
Generalizaciones empíricas estadísticas o probabilísticas Refieren a un porcentaje de una población o asignan una
probabilidad de que ocurra un fenómeno en una población infinita o inaccesible. Los términos descriptivos son
exclusivamente empíricos. Además de estos, estos enunciados tienen un problema adicional, tanto como para probar su
verdad como su falsedad.
Ejemplo: Los embarazos múltiples se dan de manera natural con una incidencia de 1 cada 80 embarazos e el caso de gemelos
o mellizos.
Generalizaciones empíricas existenciales Son enunciados empíricos existenciales que poseen únicamente términos
observacionales. Para probar su falsedad, tenemos un problema ya que implicaría recorrer un conjunto demasiado extenso.
No así para probar su verdad, para lo cual basta encontrar un solo ejemplo que cumpla con lo afirmado (A la inversa de las
generalizaciones empíricas universales).
Ejemplo: Existen seres vivos que no requieren oxígeno para vivir.
Enunciados teóricos Se caracterizan por la presencia de vocabulario teórico. Contienen, al menos, un término teórico.
Más allá de esto, pueden ser:
Singulares.
Muestrales.
Generales (universales o probabilísticos).
Suele distinguirse a los enunciados teóricos entre puros y mixtos:
Puros solo contienen términos teóricos como vocabulario no lógico.
Ejemplo: Los átomos están compuestos por electrones.
Mixtos Contienen al menos un término teórico y al menos uno observacional.
Ejemplo: Las infecciones causadas por bacterias estreptococos producen enrojecimiento de la garganta.
Con respecto a los puros, por referirse a entidades que no son accesibles de modo directo (átomo, electrón, quark, gen, etc.) –y en
algunos casos por ser enunciados universales o probabilísticos-, estos enunciados solo pueden evaluarse mediante un proceso de
contrastación empírica.
Para que pueda llevarse adelante este proceso, es necesario conectar estos enunciados con el ámbito de lo observacional. Esta
función es la que desempeñan los enunciados teóricos mixtos (también llamados Reglas de correspondencia). Los enunciados teóricos
mixtos, son los que vinculan lo puramente teórico con lo observacional (ver ejemplo).
Teorías empíricas sistemas axiomáticos interpretados. Algunas hipótesis que se consideran fundamentales juegan el rol de axiomas
y otras derivadas de ellas, el de teoremas.
Si pensamos en que las ciencias empíricas pretenden dar cuenta de cómo es el mundo, es necesario que se conjuguen dos
componentes. El teórico y el empírico. Por otro lado, no basta con construir sistemas de hipótesis que gocen de virtudes tales como la
coherencia. Es necesario comprobar que estos sistemas se corresponden con la realidad, con la experiencia. Pero, ¿qué rol cumple la
experiencia?
Resulta importante destacar que las hipótesis que integran las teorías científicas son de carácter general. Además, suelen ser teóricas.
Se presentan acá varios problemas. ¿Cómo podría constatarse su verdad? ¿Qué problemas surgirían al intentar comparara estas
hipótesis con la experiencia? Es aquí donde radica la importancia de los enunciados teóricos mixtos. Son estos los encargados de
vincular el plano netamente teórico con el observacional, para permitir que la experiencia funcione como tribunal de estos
constructos teóricos.
Por otro lado, las hipótesis no son aceptadas al instante de ser presentadas como una posible solución o explicación de un fenómeno.
Las hipótesis han de ser probadas. Pero ¿cómo puede llevarse a cabo la prueba si la mayoría de las hipótesis son de carácter general?
Dado su alcance, su verdad o falsedad no se puede constatar al instante.
La contrastación empírica es el proceso mediante el cual las hipótesis (y con ello las teorías) son sometidas a prueba. Para llevar a
cabo este proceso, es imprescindible derivar nuevos enunciados. En este caso, se tratará de enunciados empíricos básicos.
Página 11 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
El proceso de contrastación de hipótesis
Filosofía de la ciencia se orienta al análisis de las teorías empíricas y a su relación con la evidencia empírica disponible. No solo
intenta estudiar cómo están formadas, sino que también analiza cómo están justificadas. La contrastación de hipótesis desempeña un
rol central desde la perspectiva clásica en tal justificación.
Primera aproximación a la contrastación
Para explicar cómo se contrastan las hipótesis científicas consideraremos un ejemplo contemporáneo tomado de la neurobiología.
Desde tiempos muy antiguos los seres humanos se preguntaron por lo que había dentro de nuestras cabezas, nuestros cerebros. El
primer registro que tenemos de su estudio es de un papiro que data del siglo XVII a.C., en el que se habla del cerebro como un
órgano del cuerpo y se describen los tratamientos sobre dos pacientes que presentan lo que hoy en día se denomina fractura craneal.
Un poco más adelante, en el 1500 a.C., se escribió un papiro con 48 descripciones clínicas sobre fracturas expuestas de cráneos, en
las que se explican las distintas funciones de cada parte del cerebro.
En la segunda mitad del siglo I a.C., el filósofo Alcmaeon de Crotona escribió un tratado de medicina del cual hoy no se conservan
partes pero se conoció a través de las menciones de otros. El filósofo griego Hipócrates, por ejemplo, comentó en su obra sobre el
pensamiento de Alcmaeon, a quien le adjudicó ser el primero en postular que la mente residía en el cerebro. Antes, no existía
consenso respecto de donde residían nuestras habilidades cognitivas. De hecho, Aristóteles pensaba que las habilidades cognitivas
residían en el corazón y que, la función del cerebro, era enfriar el sistema sanguíneo para controlar los impulsos pasionales.
Con el correr de los años se consolidó la idea de que nuestros pensamientos, ideas y capacidad de razonar están físicamente
ligados a nuestro cerebro.
Avances del científico español Santiago Ramón Cajal (a comienzos del siglo XX) permitieron conocer más sobre este órgano, como
la existencia de neuronas y su particular estructura.
Hoy en día, el cerebro es el centro de atención no solo en laboratorios y centros de investigación, sino que también en muchas obras
de ficción que juegan con la idea de los estímulos y la adquisición de nuevas habilidades por alteraciones en el cerebro.
Universidad Federal de Río de Janeiro allí se encuentra el Laboratorio de Neuroanatomía Comparada, donde se estudia nuestro
cerebro en relación con el de otros animales. Las ciencias comparadas son una práctica muy común en la actividad científica, consiste
en tomar como parámetro lo que sucede en otras especies para entender los que pasa en nuestros propios órganos.
En este laboratorio Suzana Herculano-Houzel, se propuso entender cuánta energía utiliza nuestro cerebro y de donde la
obtenemos.
2003 comenzó a trabajar en el tema. Ahí sus colegas creían que los cerebros de todos los mamíferos son muy parecidos en
estructura. Esto es, con un número de neuronas presentes en el cerebro proporcional a su tamaño. Esto significaba, que lo
importante a analizar era el tamaño del cerebro. Como no existían métodos precisos para conocer el número exacto de neuronas, se
recurría a cálculos estimativos y puramente teóricos basados en el tamaño de la corteza cerebral. Y como, las neuronas son las
responsables de nuestras actividades cognitivas, tener mayor cantidad de ellas significaba el acceso a más y mejores habilidades.
En resumen de esto, dos cerebros con el mismo tamaño tienen las mismas habilidades cognitivas.
Sin embargo, la Dra. Herculano-Houzel, descubrió un problema con esto. Comparó el cerebro de un chimpancé y el de una vaca, que
comparten tamaño pero observo que las facultades y el comportamiento del primer animal son superiores a las del segundo animal.
Por esto, pudo concluir que esto no se cumplía.
No solo eso, sino que también parecía que el tamaño del cerebro parecía ser coherente con el tamaño del resto del cuerpo. Sin
embargo, esto tampoco se cumple. Ya que, por ejemplo, los gorilas tienen un cuerpo dos o tres veces más grande que el nuestro pero
su cerebro a veces no alcanza el medio kilo, mientras que el nuestro pesa aprox. un kilo y medio.
Por estos puntos, decidió rechazar el supuesto de que todos los cerebros de mamíferos comparten la misma estructura y son, por
lo tanto, similares.
Cuando empezó a buscar respuestas a su pregunta sobre la energía, la Dra. Se dio cuenta que necesitaba someter a una evaluación
crítica algunos supuestos que hasta entonces la comunidad científica tomaba como ciertos. Es aquí donde estudiaremos el método
de contrastación de hipótesis.
Página 12 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Los colegas de la Dra., expertos en neuroanatomía comparada, después de varios análisis, llegaron a la conclusión de que los cerebros
de los mamíferos tenían la misma estructura y distribución de hipótesis. Esta respuesta a la pregunta acerca de la estructura de los
cerebros de mamíferos es lo que puede llamarse una hipótesis.
Enunciándola de modo claro, hipótesis: Todos los cerebros de mamíferos comparten la misma estructura.
La Dra. sospechó que esta hipótesis no era correcta. Por lo tanto, la puso a prueba. Si efectivamente era correcta, los animales con
cerebros del mismo tamaño tendrían las mismas habilidades cognitivas. Pero, al comparar los cerebros del chimpancé y la vaca,
corroboró que esto no era cierto.
Averiguar si una hipótesis es correcta o no proceso de contrastación de hipótesis esto consiste en inferir deductivamente
consecuencias de las hipótesis que queremos contrastar y luego comprobar si estas se cumplen o no. Las consecuencias que debemos
deducir de la hipótesis son enunciados básicos, es decir, enunciados singulares o muestrales con términos observacionales y no
teóricos.
Así, consecuencia observacional de la hipótesis: Los chimpancés y las vacas analizados por el equipo de la Dra. Herculano-Houzel
tendrán las mismas habilidades cognitivas.
Como se puede notar, en sentido estricto, esta oración no se sigue deductivamente de la hipótesis que se somete a contrastación.
Solo cuando explicitamos cierta información presupuesta se logra tal vínculo.
Cuando decimos que tendrán las mimas habilidades cognitivas lo hacemos porque presuponemos que:
Se mide el tamaño del cerebro de los chimpancés y de las vacas estudiados por el equipo dando por resultado que tienen
igual tamaño.
Las habilidades cognitivas están ligadas con la cantidad de neuronas (y, consecuentemente, con el tamaño del cerebro).
Lo primero, funciona como condiciones iniciales de las cuales partimos para lograr esa consecuencia. Lo segundo, funciona como
una hipótesis auxiliar.
Si observamos, notaremos que la consecuencia observacional no se cumplió. Por lo tanto, deberíamos dudar que la hipótesis esté en
lo correcto. El papel de las consecuencias observacionales es muy importantes ya que, como se mencionó anteriormente, las
hipótesis no pueden ser puestas a prueba directamente, mientras que las consecuencias que se deducen de ellas sí, porque son
formuladas con términos observacionales.
Método científico procedimiento por el cual la ciencia pone a prueba sus conjeturas y, eventualmente, le confiere a lo obtenido el
status de “saber” o “conocimiento”. Muchos científicos creen que no se puede hablar de un único método científico. Sin embargo, en
líneas generales, se trata de un mecanismo propio de la práctica científica, aunque las formas de llevarlo a cabo pueden variar.
La asimetría de la contrastación
Lógica disciplina que nos permite discernir entre los razonamientos válidos y los que no lo son. Es por esto que desde la filosofía de
la ciencia, se consideró que el mejor camino para entender el proceso de puesta a prueba o contrastación de hipótesis consiste en
detectar la forma de los razonamientos involucrados y tratar de descubrir con ayuda de la lógica si estamos ante deducciones válidas
o no.
Tenemos primero la puesta a prueba de la primera hipótesis que mencionamos.
H1: Todos los cerebros de mamíferos comparten la misma estructura.
La forma de poner a prueba esta hipótesis, dijimos que era con las consecuencias observacionales. En este caso, la de la Dra.
Herculano-Houzel.
CO1: Los chimpancés y vacas analizados por el equipo de la doctora Herculano-Houzek tendrán las mismas habilidades cognitivas.
Para la puesta a prueba de la hipótesis, se obtienen entonces una consecuencia observacional de la misma. Para que CO1 se deduzca
efectivamente de H1, es necesario agregar alguna información adicional, que por el momento no agregaremos.
Dado que la consecuencia se deduce de la hipótesis, entonces se puede formular el siguiente condicional.
Si H1, entonces CO1.
La hipótesis, ocupa el lugar del antecedente y la consecuencia del consecuente. Dado que el razonamiento es deductivo, ese
condicional ha de ser verdadero. Recordemos que, un argumento es deductivo o valido si no puede darse que las premisas sean
Página 13 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
verdaderas y la conclusión falsa. Por otro lado, en los condicionales, únicamente podemos afirmar su falsedad si el antecedente es
verdadero y el consecuente es falso.
La observación de la conducta de los chimpancés y las vacas dio por resultado que sus capacidades cognitivas no son idénticas. Por lo
tanto,
No es cierto que CO1.
Si recordamos las reglas de inferencia, nos daremos cuenta que estamos ante una de la forma Modus Tollens. Por la cual, podemos
observar que, si el consecuente no es verdadero, el antecedente tampoco lo es. En este caso, que la hipótesis no lo es. Cuando se
demuestra que una hipótesis no es verdadera, los científicos dicen que queda refutada.
Si pensamos todo el proceso de refutación de una hipótesis como un razonamiento, su forma sería:
Si H1, entonces CO1.
No es cierto que CO1.
Por lo tanto, no es cierto que H1.
Queda clara así, la forma de razonamiento de Modus Tollens:
Si A entonces B.
No B.
Por lo tanto, no A.
Como vimos, se trata de unan forma de razonamiento válido, dado que si las premisas fueran verdaderas, la conclusión también lo
sería.
La contrastación de hipótesis a partir de la deducción de consecuencias observacionales y el posterior testeo de estas con la
experiencia es lo que se llama “método hipotético deductivo”.
Una buena manera de confirmar que no todos los cerebros de los mamíferos son iguales, es entonces mostrando que la relación entre
el tamaño del cerebro y la cantidad de neuronas no es proporcional. La Dra. Herculano-Houzel creyó que esto se podría probar
comparando los cerebros de distintos cerebros pero de la misma familia de animales entre sí. Sostuvo que, se encontraría con
distribuciones de neuronas muy diferentes.
El inconveniente no existía un método fiable para contar neuronas. Por lo tanto, ella y su equipo crearon uno que consistía en
disolver el cerebro en detergente hasta conseguir un líquido que ellos llamaron “sopa”. En esta, se habrían de destruir las membranas
que dividen a las neuronas pero se mantendrían los núcleos celulares intactos. Entonces, esta sopa podría ser agitada para que su
contenido se distribuya de forma uniforma y luego se pueda tomar una pequeña muestra, contar cuantos núcleos tiene, y a partir de
ahí calcular el contenido total de la sopa original.
Ahora que tenían el método, compraron el cerebro de un roedor con el de un primate. En el caso del roedor, descubrieron que los
cerebros de roedores grandes tenían un promedio bajo de neuronas, lo que indica una pequeña densidad de neuronas por centímetro
cúbico. Cuanto más chico el roedor, más pequeño su cerebro, por lo tanto, menor cantidad de neuronas y menos habilidades para
desarrollar.
En los primates, en cambio, descubrieron una altísima densidad de neuronas, ya que su cerebro es menor que el de las ratas.
Queda claro así, que no existe relación entre el tamaño del cerebro y la cantidad de neuronas y que no todos los cerebros de los
mamíferos son iguales.
Concentrémonos ahora en la puesta a prueba de la hipótesis propuesta por la Dra. Herculano-Houzel:
H2: Los cerebros de los mamíferos no tienen una misma distribución de las neuronas.
En relación con los primates y roedores, cabía esperar que la relación tamaño-cantidad de neuronas no fuera proporcional.
CO2: La cantidad de neuronas en los mamíferos analizados por el equipo de investigadores no será proporcional al tamaño del
cerebro.
Luego de las investigaciones, los investigadores descubrieron que, si bien los cerebros de los roedores aumentaban la cantidad de
neuronas a medida que aumenta el tamaño del cerebro, el aumento de tamaño es mayor al de neuronas (pues las neuronas también
Página 14 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
aumentaban su tamaño). Por su parte, las neuronas de los primates mantenían su tamaño al incrementarse su número. Esto indicaba
que, la cantidad proporcional de neuronas es diferente en uno y otro caso, por lo que se afirma lo sugerido en H2.
Si pensamos en términos lógicos:
Si H2, entonces CO2.
CO2
Por lo tanto, H2.
La hipótesis dos no queda refutada. Pero ¿podría decirse que queda verificada? Si observamos bien, nos daremos cuenta que
estamos ante una falacia de afirmación del consecuente.
Si a entonces B.
B.
Por lo tanto, A.
No tenemos garantías de que H2 sea verdadera. Si atendemos a la estructura de la contrastación de hipótesis, es posible afirmar la
falsedad de la hipótesis a través del Modus Tollens. Sin embargo, la constatación de CO2 no nos permite inferir la verdad de H2.
Esto es lo que se conoce como asimetría de la contrastación es lógicamente posible afirmar la falsedad de una hipótesis a partir de
una consecuencia observacional gracias al Modus Tollens pero es imposible decir que es verdadera a partir de la verificación de su
consecuencia observacional.
“Refutación” rechazo de una hipótesis como falsa.
“Verificación” prueba de la verdad de una hipótesis.
Hay pensadores que ponen en duda que la refutación sea concluyente y que hay distintos modos de conceptualizar el resultado
favorable de la contrastación. Si no se puede verificar, capaz haya otros estados como la confirmación o la corroboración. Pero esto
todavía no lo veremos.
A modo de conclusión no contamos con certeza sobre ninguna hipótesis científica. Aunque una teoría científica parezca
poderosa, esconde una terrible fragilidad, en cualquier momento se puede caer.
“Todo enunciado científico es, en el fondo, un enunciado que aceptamos como verdadero hasta que se demuestre lo contrario”.
Entonces ahora, ¿es acaso la ciencia una garantía infalible?
El rol de las condiciones iniciales en la contrastación de hipótesis
Además de la hipótesis, a la hora de contrastar o ponerlas a prueba, partimos de ciertas condiciones, que llamaremos Condiciones
Iniciales.
En el caso de la Dra. por ejemplo, y su pregunta por si todos los cerebros de los mamíferos eran esencialmente iguales, el punto de
partida fue que habían realizado mediciones que mostraban que los chimpancés y vacas tenían el cerebro del mismo tamaño.
CI1: Se mide el tamaño del cerebro de los chimpancés y de las vacas dando por resultado que tienen igual tamaño.
La contrastación de la hipótesis quedaría entonces así: Si todos los cerebros de mamíferos comparten la misma estructura y
distribución de neuronas, y si los chimpancés y vacas que son estudiados tienen un cerebro de igual tamaño, entonces chimpancés y
vacas tendrán las mismas habilidades cognitivas.
En términos lógicos más claros:
Si (H1 y CI1) entonces CO1.
Es importante destacar que el antecedente del condicional es una conjunción entre H1 y CI1.
Luego, llegaron a la conclusión que:
No es cierto que CO1.
Esto hizo que la doctora refute H1. Pero, la situación es un poco más compleja.
Página 15 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Si (H1 y CI1), entonces CO1.
No es cierto que CO1.
Por lo tanto, no es cierto que (H1 y CI1).
Aquello que queda refutado es un conjunto de enunciados formado por la hipótesis principal y la condición inicial, lo que transforma a
la situación en algo aún más complejo.
El rol de las hipótesis auxiliares en la contrastación de hipótesis
Tal como vimos antes, la CO1, no se deducía estrictamente de la H1, sino que eran necesarias una condición inicial y una hipótesis
adicional, que correlacionaba la cantidad de neuronas con las habilidades cognitivas.
HA1: Las habilidades cognitivas están ligadas con la cantidad de neuronas.
Si pensamos en la hipótesis original, y la consecuencia observacional diremos ¿Cómo es posible que el veredicto en torno a las
habilidades cognitivas tuviese impacto en el cerebro y la cantidad de neuronas? Precisamente, porque se contaba con una hipótesis
que establecía dicha conexión. Esta hipótesis fue propuesta porque forma parte del corpus que los investigadores aceptan como
conocimiento y su legitimidad no está en juego.
Hipótesis auxiliares Hipótesis que cuenta con apoyo independiente y previo y que se utiliza en la contrastación.
Los componentes que intervienen entonces en la contrastación:
H1: Todos los cerebros de los mamíferos comparten la misma estructura.
CI1: Se mide el tamaño del cerebro de los chimpancés y de las vacas dando por resultado que tienen igual tamaño.
HA1: Las habilidades cognitivas están ligadas con la cantidad de neuronas.
CO1: Los chimpancés y vacas analizados por el equipo de la doctora Herculano-Houzel tendrán las mismas habilidades cognitivas.
La contrastación, por su parte, puede reconstruirse de este modo:
Si (H1, CI1 y HA1), entonces, CO1.
No es cierto que CO1.
Por lo tanto, no es cierto que (H1, CI1 y HA1).
Como se observa, la contrastación deriva en la refutación de la conjunción entre H1, CI1 y HA1.
En muchos casos, a la hora de poner a prueba una hipótesis, solo hace falta comprobar si las consecuencias observacionales se
cumplen o no. Pero en otros, se necesita llevar a cabo un experimento. Es el caso de la H2, para cuya comprobación fue necesario
realizar el método de la sopa.
Esto significa, que hay un nuevo elemento en juego, una hipótesis auxiliar que identificamos como HA2. Así queda:
H2: Los cerebros de los mamíferos no tienen la misma distribución de neuronas.
HA2: La cantidad de neuronas se puede medir con el método de la sopa.
CI2: Se comparan los cerebros de pares de roedores y primates entre sí utilizando el método de la sopa.
CO2: La cantidad de neuronas en los mamíferos analizados por el equipo de investigadores no será proporcional al tamaño del
cerebro.
El razonamiento de puesta a prueba de la hipótesis será:
Si (H2, CI2 y HA2), entonces CO2.
Es cierto que CO2.
Por lo tanto, es cierto que (H2, CI2 y HA2).
Es importante destacar que, ya no se trata de confirmar o refutar la hipótesis principal únicamente, sino que la conjunción de esta con
las condiciones iniciales y las hipótesis auxiliares. Como ya vimos, para que una conjunción resulte falsa, basta con que uno de los
conyuntos lo sea. De modo que, la refutación de la conjunción solo implica que al menos uno de los elementos que lo implican es
falso, nada dice sobre cuál es.
Página 16 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
En este sentido, los enunciados que acompañan la hipótesis principal que se pone a prueba en el proceso de contrastación (CI y HA)
son una suerte de fusible que pueden ser cambiados para salvar la hipótesis principal.
El rol de las hipótesis derivadas en la contrastación de hipótesis
Las hipótesis auxiliares, pueden unirse a la hipótesis principal para deducir de ellas otras hipótesis generales, que son con ocidas
como hipótesis derivadas.
Son enunciados generales que dependen de la hipótesis principal y que pueden ser muy útiles a la hora de ponerlas a prueba.
Las dos HA que acabamos de mencionar son válidas: Las habilidades cognitivas están ligadas a la cantidad de neuronas y, la cantidad
de neuronas se puede medir con el método de la sopa.
Las hipótesis ad-hoc
Muchas veces, los científicos suelen aferrarse a las ideas que postularon. Sin importar la evidencie en contra que sus hipótesis
pudiesen tener, las quieren mantener como confirmadas (ya que a veces hay cuestiones personales, sociales, políticas y económicas
detrás de la misma).
En estos casos, se suele recurrir a las hipótesis ad hoc, que son hipótesis formuladas con el único propósito de salvar a la hipótesis
principal de la refutación. Son hipótesis que buscan invalidar ciertas evidencias o anular otras hipótesis auxiliares en juego. Como hay
muchos elementos en juego, las hipótesis ad hoc van al rescate de la principal sugiriendo que son las otras las que nos hacen creer
que están equivocados.
A la Dra. Herculano-Houzel, por ejemplo, podrían haberle presentado oposición diciendo que las vacas tenían facultades o
comportamientos únicos que no podían ser evaluados de las maneras habituales, ya que se cerebro era “especial”, “único”, “diferente
al resto”. Con esta hipótesis ad hoc, los científicos se aseguraban que su hipótesis principal no fuera refutada.
Más cerca de entender el misterio de nuestro cerebro
La principal interrogante de la Doctora era cuánta energía consume nuestro cerebro y de dónde la conseguimos. Su sospecha y la
de su equipo, era que era un número muy alto. Si esto fuese así faltaba definir de dónde la obteníamos, ya que nuestra dieta no
parecía diferir mucho de las de otros mamíferos.
El costo energético de una neurona fue determinado hace mucho tiempo por otros científicos 6 calorías por cada millón de
neuronas.
La doctora solo tuvo que aplicar ese cálculo al número de neuronas que ahora sabíamos que teníamos. La cifra superior a 500 calorías
diarias sorprendió a la doctora, porque el cerebro representa el 2% de nuestro cerebro y aun así utiliza el 25% de toda la energía
disponible (en una dieta de 2000 calorías diarias). ¿De dónde obtenemos tanta energía? Un orangután pasa alrededor de 8 horas y
media diarias comiendo para alimentar su cuerpo. Es por esto que a pesar de su gran tamaño no podría tener un cerebro mayor, las
neuronas gastan tanta energía que se volvería imposible mantenerlas.
De acuerdo a los cálculos de la doctora, se necesitan unas 9 horas diarias de alimentación para obtener las calorías necesarias para
las neuronas de un cuerpo de 60/70 kilos.
Es por esto, que con su equipo intentó formular una hipótesis para explicar cómo es posible que nuestro cerebro consume tanta
energía pero no pasamos tantas horas comiendo. La clave está en la dieta. Contamos con una herramienta increíble que el resto de
los animales no: la cocina. Al cocinar los alimentos, podemos obtener más energía de ellos, maximizar su digestión y eliminar
sustancias nocivas. Esto permite ahorrar tiempo y obtener mucha más energía de los mismos alimentos que tienen al alcance los
animales.
Investigaciones provenientes de la antropología brindaron apoyo a esta hipótesis. Se cree que cuando se inició la cocina nuestros
antepasados comenzaron a separarse de los otros primates. Gracias a la cocina, nuestro cerebro peligrosamente cargado de neuronas
que lo volvían tan demandante de energías, pudo volverse nuestro aliado.
La explicación científica
El término “explicar” tiene diversos usos correspondientes a diferentes contextos discursivos. Sin embargo, existe consenso de que la
explicación científica es aquella que responde a la pregunta de ¿por qué? De algún fenómeno.
Ya en la antigüedad los filósofos griegos concibieron a la ciencia como proveedora de explicaciones. Sin embargo, la conceptualización
de la explicación y de la predicción como objetivos de la actividad científica es característica de la denominada filosofía de la ciencia.
Página 17 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
El objetivo de la ciencia, según esta corriente, es la elaboración de teorías cuyos enunciados puedan emplearse para fines explicativos
y predictivos.
Concepto de explicación científica central dentro de los problemas clásicos de la filosofía de la ciencia. Pero, ¿en qué consiste una
explicación científica? Existen distintas respuestas, y cada una puede ser conceptualizada como un “modelo de explicación”
diferente.
Veremos el modelo de cobertura legal, que se formula desde la filosofía clásica, luego un modelo de explicación alternativo, la
explicación por mecanismos de John Elster y una discusión de la búsqueda misma de explicaciones en ciencias.
A modo de conclusión
Muchas cuestiones planteadas por la filosofía de la ciencia siguen teniendo vigencia hoy en día. Por ejemplo, la demarcación entre
ciencia y pseudo-ciencia resultó crucial y controversial para muchas filósofas. Sin embargo, hoy podría decirse que la discusión no es
relevante.
Existen muchas preguntas hoy en día, acerca del estatus científico del creacionismo por ejemplo, o de la financiación de la ciencia.
Como respuestas a estas preguntas, veremos dos líneas de respuestas alternativas. La primera será la que el mismo empirismo lógico
formula. En segundo lugar, consideraremos uno de sus críticos: Karl Popper, referente de la posición falsacionista en filosofía de las
ciencias. Aunque estas posturas difieren en cuanto a las respuestas de estas preguntas, coinciden en que son el tipo de cuestiones
que han de ocupar a la filosofía e la ciencia. Por eso, se suele incluir a ambas corrientes bajo el rótulo “filosofía clásica de la ciencia”.
Además de esto, veremos una visión crítica de la aproximación clásica ya que piensan que el enfoque clásico desatiende la historia de
la ciencia y que debería ser informada con comprensión de contexto social e histórico de la ciencia. No se trata de respuestas
alternativas a las mismas preguntas, sino que con la nueva aproximación filosófica a la ciencia, cambian los problemas a tratar, el
modo de abordarlos y las herramientas para hacerlo.
El problema de la explicación científica en la filosofía clásica de la ciencia: El modelo de cobertura legal
El modelo de cobertura legal
Se trata de una de las más influyentes conceptualizaciones que se formularon para dar cuenta de la explicación científica. Este modelo
fue propuesto por Carl Hempel y Karl Popper.
Idea central un hecho resulta explicado cuando se lo subsume bajo una regularidad, es decir, cuando muestra que puede
considerárselo como caso de una ley científica.
Ley científica enunciado general que describe una regularidad empíricamente constatada.
Más adelante presentaremos diferentes modos de entender cómo y por qué se aceptan las teorías científicas. Por el momento,
supongamos que disponemos de tales teorías y leyes: ese marco teórico (según este modelo) puede utilizarse para dar cuenta de los
fenómenos, para comprender aquello que observamos, y más aún, para predecir hechos futuros.
Explicar un fenómeno bajo el modelo de cobertura es mostrar que responde a una ley general, que se trata de un caso de esa
regularidad formulada en un enunciado general.
De acuerdo con el modelo de cobertura legal, las explicaciones científicas se estructuran en la forma de razonamientos en los que:
El enunciado que describe el fenómeno que se desea explicar (denominado explanandum), ocupa el lugar de la conclusión.
Y las premisas (denominadas en conjunto explanans), constituyen las razones que se aducen para dar cuenta de por qué se
produjo el fenómeno mencionado en la conclusión. Las premisas que contienen el explanans, deben contener al menos una
ley.
Estructura de las explicaciones:
L1, L2, L3,… L(m) Leyes Explanans
…………………………
E Explanandum
Resulta pertinente hacer dos aclaraciones:
1) El enunciado que figura como Explanandum se acepta como verdadero. Es decir, ofrecemos explicaciones de aquello que
sabemos que ocurre o ha ocurrido.
Página 18 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
2) Aquello que se pretende explicar puede ser de dos tipos diferentes: puede tratarse de un fenómeno particular o de una
regularidad o patrón.
Explicación de regularidades es más sencilla, porque consiste en subsumir esa regularidad a otra más general. Así, por ejemplo, si
quisiéramos explicar la ley de Galileo sobre la caída de los cuerpos, podríamos explicarla con leyes más generales, como las leyes del
movimiento newtonianas y la ley de gravitación universal.
Cuando queremos explicar un fenómeno particular debemos recurrir a leyes generales. Por ejemplo, si quisiéramos explicar la
caída de dos objetos al suelo al mismo tiempo, habríamos de incluir la ley de caída de los cuerpos antes mencionada. Pero ahora, en
el explanans, no en el explanandum. Además, será necesario ofrecer información sobre circunstancias particulares en que se dio el
fenómeno que tratamos de explicar: las condiciones iniciales o antecedentes.
De modo que, cuando se pretenda explicar fenómenos particulares, el explanans contendrá leyes, acompañadas por enunciados que
describen condiciones iniciales o antecedentes, que son factores específicos cuyo concurso efectivo fue necesario para la ocurrencia
del fenómeno en cuestión.
Modelo para explicaciones de fenómenos específicos:
L1, L2, L3,… L(m) Leyes Explanans
C1, C2, C3,… C(m) Condiciones antecedentes
E Explanandum
Explanans compuesto por leyes (enunciados generales que expresan regularidades) y condiciones antecedentes (enunciados
empíricos básicos que describen los factores sin los cuales no habría sucedido el fenómeno a explicar.
Explanandum enunciado que describe el fenómeno a explicar.
Ejemplo:
El punto de congelación del agua desciende cuando se disuelve sal en ella (Ley) Explanans
El barro de la acera había sido rociado con sal (Condición antecedente)
El barro de la acera permaneció líquido durante la helada. Exlanandum
Las explicaciones por subsunción a leyes reconocen a la vez una diferenciación dependiendo del tipo de leyes a las que se apela en el
explanans:
Explicación Nomológico deductiva cuando la ley que presenta el explanans es universal (enunciado que afirma algo para
todos los miembros de una clase sin excepción).
Explicación Inductivo-estadísticas cuando al menos una ley que presenta el explanans es una ley estadística o
probabilística.
Explicaciones nomológico deductivas
Las leyes incluidas en esta explicación son enunciados generales que ya han sido constatados empíricamente. Sabemos que los
enunciados generales pueden ser de diferentes tipos. Por ejemplo, pueden ser universales, en cuyo caso refieren a todos los
miembros de un conjunto. En este caso, el vínculo que se establece entre el explanans y el explanandum es deductivo. Esto quiere
decir, que mientras el explanans sea verdadero, el explanandum también lo será.
Precisamente por esto las explicaciones reciben el nombre de nomológico deductivas. Nomos hace referencia a ley. Las leyes por
excelencia son consideradas leyes universales, irrestrictas. Por otro lado, son deductivas porque tienen la forma de dicho argumento.
Ejemplo: ¿Por qué se derritió el chocolate al entrar en contacto con la leche del submarino?
El punto de ebullición de la leche colocada a presión atmosférica a nivel del mar es 100,17°C.
El chocolate se funde a los 26°C.
El jarro contenía leche hirviendo.
Se calentó el jarro (ubicado a nivel del mar) hasta alcanzar los 90°C.
El trozo de chocolate fue arrojado dentro del jarro.
El trozo de chocolate se derritió al entrar en contacto con la leche.
Página 19 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Explicar y predecir
El modelo de cobertura legal, se extiende también a las predicciones científicas, ya que supone la identidad estructural entre
explicación y predicción. En ambos casos, los razonamientos son idénticos. La diferencia radica en que, en el caso de las predicciones,
el fenómeno descripto en el explanandum aún no ha sucedido o aún no es conocido, mientras que en las explicaciones se parte de un
fenómeno cuya ocurrencia ya se conoce.
Una vez ocurrido el hecho anticipado en una predicción, podremos emplear la misma estructura y componentes de la predicción
para explicarlo. De modo semejante, el explanans que hoy sirve para explicar un fenómeno podría haber servido para predecirlo de
haber tenido conocimiento de la información consignada en el explanans.
Ejemplo: Astrónomo Edmund Halley observó cometas y sus órbitas, y descubrió que uno de estos ya había sido observado
previamente y una vez más anterior a esta (por la semejanza en los tamaños de las órbitas). Con esto pudo predecir cuándo volvería a
verse el cometa. Aunque falló en sus cálculos, el astrónomo Clariaut desarrolló ecuaciones de mayor complejidad las cuales fueron
resueltas por Hortensia Lepaute y Lalande, y finalmente el cometa reapareció para cuando lo habían calculado.
Aquí se utilizan las leyes de Newton y las condiciones antecedentes (apariciones previas) para predecir una nueva aparición.
De acuerdo con la tesis de simetría entre explicación y predicción, ese mismo explanans que sirvió como base de la predicción de
1758, podría haberse utilizado para la explicación acontecida en 1759. De modo similar, las explicaciones con las que contamos en la
actualidad sobre las posiciones ocupadas por el cometa desde la primera observación registrada, podrían haber servido, en ese
entonces, para predecir las apariciones subsiguientes.
Explicaciones estadístico inductivas
De acuerdo con Hempel (no así con Popper), cuando no se dispone de una ley universal que da cuenta de un fenómeno, pueden
emplearse leyes estadísticas o probabilísticas. Si bien estos enunciados refieren a clases potencialmente infinitas o inaccesibles, a
diferencia de las leyes universales, enuncian que un fenómeno ocurre con cierta frecuencia o para una proporción de esa clase (y no
de modo irrestricto).
Ejemplo:
La probabilidad de que consiga empleo en un año de graduado de la Facultad de Ciencias Económicas es de 0,9.
Laura se ha graduado de la Facultad de Ciencias Económicas.
Laura ha conseguido empleo en menos de un año.
Importante El explanans ofrece razones que dan cuenta del explandum, pero el explandum no se sigue necesariamente del
explanans. Al estar basado en leyes estadísticas, el explanans no otorga al explendum la certeza deductiva. Sino que, le confiere solo
un cierto grado de probabilidad. Por esa razón, el vínculo que se establece entre explanans y explendum es de tipo inductivo, y la
explicación recibe el nombre de inductivo estadísticas.
La filosofía clásica de la ciencia: El empirismo lógico y el falsacionismo
El problema de la justificación de las teorías crucial para la filosofía de la ciencia. Porque todo cambio se creencias científicas
supone un procesos crítico en el que las teorías son evaluadas para determinar si son aceptadas o rechazadas (contrastación).
Además de ser sometidos a la contrastación, los enunciados deben ser examinados para establecer si efectivamente corresponden
al ámbito de la ciencia o a otras formas de conocimiento o expresión humanas. Esto nos enfrenta al problema de la “demarcación”
(que consiste en la estipulación de un criterio que permita determinar si un enunciado pertenece o no al ámbito científico). Al igual
que el problema de la justificación, la cuestión de la demarcación recibió diferentes abordajes filosóficos.
Examinaremos dos corrientes epistemológicas que desarrollan sus propias respuestas a los interrogantes que hemos caracterizado
como propios de la Filosofía clásica de la ciencia:
Empirismo lógico evaluaremos la posición inductivista crítica de Rudolf Carnap y Carl Hempel.
Falsacionismo propuesto por Karl Popper, quien criticó varias de las conceptualizaciones del Círculo de Viena.
Cuestiones de la Filosofía clásica de la ciencia
Pese a las diferencias que se reconocen entre Empirismo lógico y Falsacionismo, es posible señalar algunas características que
permiten ubicar a las dos corrientes dentro de lo que denominamos “perspectiva clásica” de la filosofía de la ciencia. Los principales
rasgos comunes son:
Página 20 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
1) La tarea de la filosofía de la ciencia consiste en realizar una reconstrucción racional de la investigación y las teorías científicas.
2) En la investigación científica, deben distinguirse las instancias que quedan incluidas en el “contexto de descubrimiento” de
las que pertenecen al “contexto de justificación”.
3) Toda filosofía de la ciencia debe aportar un criterio de demarcación, para determinar qué enunciados pertenecen a la ciencia
empírica y cuáles deben ser excluidos de ella.
4) Las teorías empíricas constituyen sistemas axiomáticos interpretados, done los enunciados se organizan a partir de sus
relaciones lógicas en estructuras deductivas. Esas estructuras, adquieren contenido empírico a través de la interpretación
(que le da significado empírico a los términos teóricos presentes en las hipótesis fundamentales).
5) Las hipótesis se contrastan a partir de su relación con los enunciados observacionales. La investigación científica comienza
con el planteo de un problema con la forma de una interrogante. Para resolverla, se plantean respuestas tentativas
(hipótesis), que serán contrastadas a partir de la deducción de enunciados empíricos denominados consecuencias
observacionales o mediante el empleo de enunciados básicos falseadores. Estos serán confrontados con los resultados de las
observaciones para determinar si la hipótesis debe ser aceptada o rechazada.
6) El proceso de la ciencia se concibe como una tara de avance hacia una meta, que aunque sea inalcanzable, motoriza la
empresa científica. Aunque no podamos alcanzar la verdad, la ciencia se moviliza hacia ella y ese adelanto constituye la
medida de su progreso. Aunque este es conceptualizado de diferente forma por las distintas corrientes de filosofía clásica, el
progreso es concebido dentro de la corriente clásica como el paulatino acercamiento a la verdad.
7) Las hipótesis generales de las ciencias empíricas se aplican para la explicación de hechos particulares y de regularidades
constatadas en la experiencia, y para la predicción de fenómenos futuros. Esas hipótesis, constituyen las leyes que
(acompañadas de las condiciones de las situaciones específicas), pueden usarse como premisas de los razonamientos que
permiten concluir un enunciado que describirá el hecho explicado o predicho.
La filosofía del positivismo lógico
En este apartado se estudiarán con detalle las maneras en las que el Positivismo lógico responde a las cuestiones características de la
filosofía clásica.
El papel de la inducción: descubrimiento y justificación
Según los pensadores del Empirismo lógico, un conocimiento es legítimo solo cuando se apoya en la experiencia perceptiva, es
decir, en lo dado inmediatamente a los sentidos.
Fragmentos de “La concepción científica del mundo” (del Círculo de Viena) Hemos caracterizado a la concepción científica del
mundo en lo fundamental mediante a dos rasgos. Primero: es empirista y positivista: hay solo conocimiento de la experiencia que se
basa en lo dado inmediatamente. Con esto se establece la demarcación del contenido científico legítimo. Segundo: la concepción
científica del mundo se distingue por la aplicación de un método determinado, el de análisis lógico. La aspiración del trabajo
científico radica en alcanzar el objetivo de la ciencia unificada por medio de la aplicación de ese método al material empírico. Dado
que el significado de todo enunciado científico debe ser establecido por la reducción a un enunciado sobre lo dado, el significado de
todo concepto (sin importar a que rama de la ciencia pertenezca), debe ser determinado por una reducción paso a paso a otros
conceptos, hasta legar a los conceptos de nivel más bajo que se refieren a lo dado.
Bajo la reconstrucción racional que proponen, los datos observacionales son la base para confirmar inductivamente las hipótesis
generales. Esta fue la estrategia de dos de los representantes del Empirismo lógico, Carl Hempel (Círculo de Berlín) y Rudolf Carnap
(Círculo de Viena), quienes dieron origen al inductivismo crítico.
Su propuesta, ilustra cómo se aplicaron las herramientas de la lógica para reconstruir y analizar las instancias de la investigación
científica. Al aplicar la distinción entre contexto de descubrimiento y contexto de justificación, los inductivistas críticos (o
confirmacionistas), determinaron cuál era el papel de la inducción en cada uno de ellos.
a) Descubrimiento: ¿inducción o invención de conjeturas?
Inductivistas críticos en contra de la creencia de que los argumentos inductivos se empleaban en la generación de
hipótesis, es decir, en el contexto de descubrimiento.
Según la posición del inductivismo estrecho (rechazada por Hempel y Carnap), la investigación científica comienza con la
observación de hechos particulares, que se registran en enunciados singulares observacionales, y luego, mediante la
generalización inductiva, se infiere la hipótesis.
Para Carnap y Hempel que se parta de la observación y generalización inductiva para generar hipótesis no es sostenible
por dos razones:
Página 21 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
1) Para hacer observaciones es necesario contar con un criterio que determine qué es lo que se observa y qué es lo que se
deja de lado. Tener un criterio, presupone que existe una hipótesis. Por lo tanto, las hipótesis no dependen de las
observaciones, sino que estas de aquellas.
2) Si las hipótesis se derivan inductivamente a partir de los enunciados observacionales, no existirían hipótesis con
términos teóricos. Pero, existen hipótesis cuyos términos se refieren a entidades inobservables.
Entonces, ¿de dónde provienen los conceptos que no refieren a nada percibido? La respuesta del inductivismo crítico es que
las hipótesis teóricas se generan por medio de la imaginación creativa. En el marco del contexto de descubrimiento, las
hipótesis se inventan para dar cuenta de os hechos. Contrariamente al inductivismo estrecho, la generación de hipótesis
tiene lugar sin ninguna intervención de la lógica inductiva ni de la deductiva.
En cuanto al contexto de justificación, la inducción si desempeña un papel decisivo. Esto implica determinar el grado de
probabilidad o apoyo empírico que cada caso particular le brinda a la hipótesis. Cada nueva confirmación incrementará
(siempre en ausencia de refutaciones), el grado de probabilidad de la hipótesis puesta a prueba.
b) Justificación: la conformación inductiva de la hipótesis
Los inductivistas críticos adhirieron a las siguiente tesis:
Las teorías científicas son sistemas de enunciados que se clasifican de acuerdo con su alcance y según contengan
términos teóricos y/u observacionales.
Las hipótesis se contrastan a partir de los enunciados observacionales.
Pero, el resultado favorable de una contrastación no permite inferir con certeza deductiva la verdad de la hipótesis por dos
razones:
1) Cada contrastación favorable se reconstruye con la estructura de una falacia de afirmación del consecuente (forma
inválida de argumento)
2) Porque nunca pueden revisarse todos los casos mencionados por una hipótesis universal. Por esto, siempre existiría la
posibilidad de que aparezca un caso refutatorio.
Hempel y Carnap consideraron que aunque las hipótesis empíricas no pueden ser probadas concluyentemente, si pueden
ser confirmadas es posible asignarles un grado de posibilidad o apoyo inductivo a partir de cada uno de los casos que
resulten favorables en sucesivas contrastaciones. A esta perspectiva se la denomina inductivismo crítico. Porque, si bien se
reconoce que la inducción juega un papel crítico en el contexto de justificación, se considera que los argumentos inductivos
no permiten arribar con certeza a las conclusiones. Según ellos dos, las hipótesis se considerarían más probables cuanto más
fueran los casos confirmatorios hallados en las contrastaciones realizadas.
El criterio de demarcación del Positivismo lógico
Positivismo lógico interés por la cuestión de la demarcación. Mostró un fuerte rechazo con respecto a los contenidos de la
metafísica, considerados centrales para la filosofía tradicional.
Convicción de los positivistas lógicos los problemas metafísicos no son más que pseudo problemas originados en usos inadecuados
del lenguaje. Para mostrarlo, analizaron el lenguaje y la estructura de las teorías científicas aplicando avances de la Lógica y de la
Matemática. Ello se transformó en la formulación de un criterio de demarcación específico el “requisito de traducibilidad a un
lenguaje observacional”.
Análisis lógico permitía determinar si un enunciado pertenecía a la ciencia formal (es decir, si era lógicamente verdadero y sin
contenido empírico) o si pertenecía a la ciencia fáctica (debía contener contenido descriptivo acerca del mundo).
De acuerdo con esta perspectiva la filosofía debía dedicarse al análisis lógico del lenguaje científico para dictaminar si las
afirmaciones formuladas con pretensión cognoscitiva pertenecían al primero o al segundo tipo de ciencia, y también, descartar como
metafísica cualquier expresión que lo propusiera.
Desde esta perspectiva, las afirmaciones metafísicas no expresan auténticas proposiciones y constituyen expresiones carentes de
sentido debido a que no pueden ser clasificadas como empíricas ni como formales. Por esto, deben ser eliminadas del ámbito de la
ciencia.
Criterio de demarcación del positivismo lógico doble función:
1) Determinar si una afirmación pertenece a la ciencia o no.
2) Determinar si dicha afirmación tiene sentido o carece de él. Para que un enunciado tenga sentido (dicho de otro modo, para
que tenga algún significado dado por su contenido empírico), debe ser traducible al lenguaje observacional.
Página 22 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Según los positivistas lógicos todos los enunciados de las teorías empíricas debían ser susceptibles de reducción a proposiciones
denominadas protocolares (enunciados empíricos básicos, constituidos con términos lógicos y observacionales).
Incluso, las proposiciones teóricas deben poder ser traducidas (en conjunción con enunciados teóricos mixtos y a través de cadenas
de sucesivas definiciones), a afirmaciones empíricas que expresen las propiedades y relaciones observables entre los objetos
materiales. Esto permite reconocer las genuinas hipótesis empíricas que contienen términos teóricos y distinguirlas de las que
contienen conceptos metafísicos como “el ser”, que deben der excluidas del ámbito del conocimiento.
Si una proposición contiene al menos un término referido a una entidad inobservable, es considerada un enunciado teórico. Por
ejemplo: el positrón es la antipartícula del electrón. Como el criterio de traducibilidad impone que todos los términos deben ser
definidos empleando únicamente términos observacionales, en el caso de que se tratase de términos teóricos, como en este caso
(positrón), esta tarea podría realizarse especificando en la definición qué fenómenos observables se considerarían señales de su
presencia.
En el caso de los términos metafísicos, esto no sería posible, ya que no pueden traducirse a términos de observación. De este modo,
el criterio positivista de traducibilidad a un lenguaje observacional permite expurgar el conocimiento de cualquier contenido
metafísico.
Se nota aquí la importancia de los términos observacionales. Cualquier enunciado que pretenda ser empírico, debe poder expresarse
en términos de afirmaciones empíricas. Así se pueden llegar a formular los enunciados empíricos básicos que serán empleados para la
puesta a prueba de las hipótesis, garantizando así la contrastabilidad de los enunciados científicos, y con esto, su conexión con la
experiencia.
Recurso de los enunciados empíricos básicos garantiza la objetividad del conocimiento científico, ya que refieren a las
determinaciones físicas de los objetos observables.
Para los positivistas lógicos (en adhesión con la perspectiva clásica) la contrastación requiere que se deduzcan enunciados
empíricos básicos, denominados consecuencias observacionales. Estos serán verificados o refutados a partir de observaciones. Si se
verifican, la hipótesis deberá considerarse confirmada. Si no, deberá ser descartada, pues ha sido refutada.
Al conjunto de afirmaciones empíricas básicas se lo denominó “base empírica de las teorías” (por su carácter de tribunal en la
contrastación de hipótesis).
Criterio de demarcación íntimamente ligado con la posición del Círculo de Viena acerca de la justificación de las teorías un
enunciado que puede ser traducible a enunciados empíricos es lo que garantiza que las hipótesis sean, si no inductivamente
verificables, al menos inductivamente confirmables a partir de la experiencia.
El progreso de la ciencia
Sabemos que, una vez contrastadas, las hipótesis altamente confirmadas se organizan componiendo las estructuras deductivas que
constituyen las teorías científicas. Muchas de esas hipótesis, podrían ser empleadas como leyes para explicar y predecir fenómenos a
partir de ahí.
Concepto de confirmación inductiva clave para la concepción del positivismo lógico acerca del progreso científico. El desarrollo
científico es considerado como un proceso acumulativo en el que las teorías más firmes son luego reemplazad por otras que las
corrigen, enriquecen o amplían, pero siempre conservando el contenido presuntamente verdadero de las anteriores. Estas siguen
teniendo aplicación dentro de un rango más restringido.
Página 23 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
La meta de la unificación de la ciencia
Uno de los principales rasgos del Círculo de Viena objetivo: alcanzar la construcción de una ciencia unificada, cosa que se podía
llevar adelante mediante la construcción de un lenguaje observacional autónomo, al que pudieran ser traducidas las teorías de
todas las disciplinas, incluso las de las Ciencias Sociales.
El propósito de unificar la ciencia manifiesta el compromiso del positivismo lógico con la distinción entre los enunciados teóricos y
observacionales.
Aspiración del trabajo científico (“trabajo colectivo”) radica en alcanzar el objetivo de ciencia unificada por medio de la aplicación
del análisis lógico al material empírico. Debido a que el significado de todo enunciado científico debe ser establecido por la reducción
a un enunciado, de igual modo el significado de todo concepto debe ser determinado por una reducción paso a paso a otros
conceptos, hasta llegar a los conceptos de nivel más bajo que refieren a lo dado.
Década de 1930 persecución política a los miembros del Círculo de Viena se disuelve el grupo. Algunos emigran a EEUU. Allí
comienza la fase del positivismo lógico bautizada como la “Concepción heredada”, en la que, manteniendo la perspectiva
fundamental del Círculo, se revisaron y modificaron algunas de sus tesis para hacerlas más sofisticadas e intentar superar múltiples
dificultades detectadas por los propios pensadores, a partir de sus discusiones críticas.
La noción de progreso lineal y acumulativo de la ciencia en cuanto a esta corriente de pensamiento, supone que en el pasaje desde
una teoría hacia otra más inclusiva, los términos presentes en los enunciados componentes conservan inalterado su significado o
pueden ser traducibles al lenguaje observacional neutral.
Pero la cuestión de la estabilidad del significado de los términos y la distinción entre términos teóricos y observacionales generó
dificultades cruciales que fueron detectadas en el interior mismo de la corriente. Los esfuerzos por identificar y superar estos
problemas trajeron consigo el análisis más profundo y sofisticado acerca del lenguaje y abonaron el terreno conceptual para el avance
de la que posteriormente fue denominada la “Nueva filosofía de la ciencia”.
Las respuestas del Falsacionismo
Falsacionismo o Racionalismo crítico. Se origina con el trabajo del filósofo Karl Popper, contemporáneo con el auge del Círculo de
Viena y los filósofos del positivismo lógico que, junto con Popper, hemos incluido dentro de la Filosofía clásica de la ciencia.
El rechazo de la inducción
Popper centró su perspectiva en la reconstrucción racional y el análisis lógico de las teorías, entendidas como sistemas axiomáticos
interpretados con contenido empírico. Aplicó la clasificación de los componentes de las teorías (distingue enunciados
observacionales, teóricos y mixtos) y sostuvo que las teorías deben contrastarse mediante el establecimiento de relaciones lógicas
entre las hipótesis teóricas y los enunciados observacionales.
Popper tomó como punto de partida la negación de cualquier aplicación de las inferencias inductivas a la investigación científica
(contrario a los positivistas). Y, por esto, rechazó el criterio positivista de demarcación y propuso uno propio, “la falsabilidad”.
Además, conceptualizó el proceso de contrastación de hipótesis con el empleo de inferencias exclusivamente deductivas.
El problema de la inducción puede formularse como la cuestión sobre cómo establecer la verdad de los enunciados universales
basados en la experiencia. Muchos creen que la verdad de estos enunciados “se sabe por experiencia”, sin embargo, es claro que todo
informe en que se da cuenta de una experiencia, no puede ser originariamente un enunciado universal. Solo puede ser singular.
Por lo tanto, quien dice que sabe por experiencia, la verdad de un enunciado universal, suele referirse a que la verdad de ese
enunciado está dado por la verdad de otros enunciados. En otras palabras, que los enunciados universales están basados en
inferencias inductivas. Entonces, la pregunta por si existen leyes naturales cuya verdad nos conste, vendría a ser otro modo de
preguntar si las inferencias inductivas están justificados lógicamente.
Como se sabe, los argumentos inductivos no logran establecer la conclusión de modo concluyente. Ninguna cantidad de casos es
suficiente para probar el universal. Sin embargo, los positivistas asignaron a los argumentos inductivos un papel central en la
investigación científica. Por esta razón, decidieron hallar un modo de legitimar su empleo.
Popper analizó la estrategia de los positivistas de postular un principio de inducción. Este es un enunciado especial que se agrega a
toda inferencia inductiva y justifica el pasaje de las premisas a la conclusión. Ese enunciado general sostiene que los casos futuros
serán como los ya observados. De esta manera, se legitima la inferencia inductiva.
Página 24 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Pero, dado que ningún enunciado puede adoptarse de forma dogmática, tal principio debería ser justificado. Es allí donde Popper
encuentra la mayor debilidad de la defensa de la inducción. No es posible justificar un principio de inducción porque ni la lógica no la
experiencia ofrecen recursos para ello.
Lógica permite justificarlo atendiendo a su forma o estructura lógica. Pero, no se trata de un enunciado tautológico, por lo que no
se puede justificar como verdadero.
Experiencia no se puede justificar por la experiencia ya que es un enunciado universal. Tal justificación implicaría el empleo de la
misma inferencia que se quiere justificar, por lo que resulta inviable.
Popper concluye entonces la inducción no puede ser justificada. Por más de que sea utilizada a menudo en la ciencia y en la vida
cotidiana, su uso mayoritario no es un argumento lógicamente justificatorio.
La distinción entre contexto de descubrimiento y justificación: cuestiones lógicas y cuestiones psicológicas
El falsacionismo se adhirió a la distinción entre contextos de la investigación científica:
Contexto de descubrimiento cuestiones que no pueden analizarse mediante estructuras y relaciones lógicas.
Contexto de justificación cuestiones susceptibles de reconstrucción lógica.
Según Popper, las operaciones respectivas a la generación de hipótesis, no son reconstruibles en términos lógicos. En otras palabras,
no existen reglas mecánicas para la generación de hipótesis. Por esto, la invención de hipótesis cae bajo el dominio de ciencias
empíricas, pero no es objeto de reflexión para la Filosofía de la ciencia, que debe dedicarse al análisis lógico y la reconstrucción
racional.
En cuanto al contexto de justificación, allí es donde, según Popper, la filosofía de la ciencia halla su propio objeto y propone su propia
reconstrucción del modo en que los enunciados observacionales pueden vincularse lógicamente con las teorías, para su puesta a
prueba.
En cuanto al proceso de justificación de hipótesis, Popper prescinde totalmente de la inducción.
El criterio de demarcación del Falsacionismo
Popper asumió el problema de la filosofía clásica relativo a la cuestión de la demarcación.
Para Popper, no es difícil mostrar que el criterio de demarcación positivista conlleva a la aceptación de la inducción, y por ello debe
ser rechazado por cualquier enfoque que elimine este tipo de inferencias de la investigación científica.
Por otro lado, para Popper es un error que el positivismo desestime como sin sentido a todos los enunciados no científicos, pues
existen otras afirmaciones (Ej.: religiosas) que no contienen contenido empírico.
En consecuencia, el criterio de demarcación ofrecido no es un criterio de sentido, sino solamente una condición para determinar el
carácter empírico de una hipótesis.
El criterio sostiene que para que un enunciado pertenezca al ámbito de la ciencia empírica debe ser falsable.
Concepto de falsabilidad (muestra compromiso con las tesis de la filosofía clásica del interés por la reconstrucción lógica de los
aspectos metodológicos y la tesis fundamental acerca de la diferencia entre enunciados teóricos y observacionales) propiedad que se
determina lógicamente una hipótesis es falsable cuando pueden formularse contra ella enunciados básicos que funcionen como
falsadores potenciales.
Falsador potencial enunciado empírico básico. Es singular (especifica una región espacial y un momento en el tiempo), existencial
(afirma que hay algo en esas coordenadas espaciotemporales) y observacional (se compone en términos empíricos además de
lógicos). Este enunciado describe un fenómeno observable que refutaría la hipótesis bajo contrastación. Pero debe tratarse de un
enunciado lógicamente posible, no puede ser contradictorio.
Ejemplo: Si yo quisiera probar “Todos los mamíferos viven en la superficie terrestre”, el enunciado básico falsador sería “Hay un
animal que es mamífero y vive bajo el agua del mar, en el lugar L en el momento M”.
Entre el enunciado falsador y la hipótesis debe existir una relación lógica denominada “incompatibilidad” o “contrariedad” no es
posible que ambos sean verdaderos.
El criterio de demarcación permite así excluir toda afirmación que no sea empírica (creencias metafísicas, religiosas, de contenido
artístico, etc.) y también los enunciados de ciencias formales, que no son falsables.
Página 25 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Ejemplo: No puedo querer probar “Todos los cuadrados tienen cuatro ángulos” y decir “Hay un cuadrado con tres ángulos en el lugar
L y momento M”, porque eso sería contradictorio con la definición misma de cuadrado por lo tanto, no es falsable y queda excluido
del criterio de demarcación, porque carece de contenido empírico.
Lo mismo ocurre con los enunciados de las generalizaciones probabilísticas, cualquier intento de formular un enunciado empírico
falsador sería infructuoso dado que la relación de incompatibilidad con la hipótesis no puede cumplirse. Ninguno de los enunciados
que expresa casos posibles es contradictorio, ya que siempre va a estar incluido en alguno de los porcentajes (el cual sea el caso o el
que no). Por lo tanto, Popper no considera a las leyes probabilísticas como conocimiento empírico.
El contexto dejustificación: refutación y corroboración, según el Falsacionismo
Cuando una hipótesis satisface la condición de demarcación, la falsabilidad es el índice que determinan su valor para la ciencia. Para
Popper, las mejores hipótesis son las que son más falsables. En otras palabras, las que más prohíben (todas las hipótesis prohíben,
prohíben la aceptación de enunciados que describan casos que las refutarían.
Enunciados universales son los que más prohíben, porque no admiten ni un solo caso contrario a ellos. Para refutarlos, basta con
verificar un solo enunciado contrario.
No así ocurre con los enunciados de menor generalidad. Ya que, no bastaría con verificar un caso contrario para refutarlos.
Una vez determinado el carácter empírico de una hipótesis, la metodología de Popper prescribe a los científicos un mecanismo
especial para la contrastación. No se trata de buscar casos favorables, sino de intentar refutar la propia hipótesis a partir de la
corroboración de sus enunciados falsadores potenciales.
Entonces:
Demarcación determinar el carácter empírico de un enunciado propuesto como hipótesis.
Contrastación puesta a prueba de dicho enunciado.
Para llevar a cabo la puesta a prueba se deberá contrastar observacionalmente el enunciado básico propuesto como falsador y
determinar si se acepta o no.
Importante los enunciados observacionales que se emplean en la contrastación no son los enunciados que se deducen de la
hipótesis (que vendrían a ser los enunciados observacionales, por los cuales, si la hipótesis fuese verdadera, ocurrirían), sino que son
incompatibles con ella, describen eventos prohibidos por la hipótesis.
La relación lógica entre la hipótesis y el enunciado básico falsador es la que hace que, en caso de aceptar el enunciado básico
falsador, la hipótesis deba ser refutada.
Ejemplo, si volvemos al caso de los mamíferos, si al realizar observaciones en el momento y lugar indicado en el enunciado básico
falsador, halláramos un delfín, concluiríamos que la hipótesis ha sido refutada.
Metodología popperiana promueve la crítica constante a las creencias científicas. Siempre deben buscarse maneras de exponer las
teorías a los intentos de refutación. Es por esto que, además, rechaza todo intento e proteger las teorías contra refutación. Como
serían, por ejemplo, las hipótesis ad hoc.
¿Qué pasaría si hallamos que el enunciado básico falsador es falso?, habremos hallado un caso que corrobora la hipótesis (por
ejemplo si encontráramos una foca). El concepto de corroboración propuesto por Popper es un poco peculiar. Se trata de un concepto
negativo, que consiste en la carencia o ausencia de algo.
Así puede decirse que Corroboración: aceptación provisoria de una hipótesis ante intentos fallidos de refutación.
No se trata de una verificación (pues no se puede probar concluyentemente la verdad de los enunciados generales) ni tampoco de
una confirmación (pues la asignación de probabilidad por el conformacionismo supone el uso de inducción).
Concepto de Corroboración se apoya en lo que Popper denomina “asimetría de la contrastación” que consiste en que, por su
estructura lógica, las hipótesis universales nunca son totalmente verificables, pero si son refutables (basta con encontrar solo un caso,
es decir, basta con aceptar un enunciado falsador).
Hipótesis corroborada solamente ha resistido por el momento los intentos de refutación y la consideraremos conocimiento
científico en tanto no se pruebe su falsedad.
La falibilidad de la base empírica
Todos los enunciados científicos son para Popper, provisorios, falibles, hipotéticos.
Página 26 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
¿Qué ocurre con la base empírica, que se compone de enunciados básicos? La respuesta es que también los enunciados de la base
son revisables, porque ellos no son verificables, sino que aceptados mediante un acuerdo entre los distintos científicos.
Para fundamentar la idea de la falibilidad alcance la base empírica, Popper muestra que adoptar la idea de que un enunciado básico
se verifique por medio de la percepción sensorial de un sujeto es un error por dos motivos:
1) Los enunciados solo pueden justificarse mediante la deducción, tomando otros enunciados ya aceptados como premisas y
deduciendo el enunciado básico en cuestión como conclusión. Las experiencias perceptivas no pueden tomarse como
premisas para deducir, ya que son vivencias, heterogéneas con los enunciados, que son entidades lingüísticas.
2) El conocimiento científico debe ser válido intersubjetivamente. Lo que se afirme debe ser justificable de igual modo por
cualquier sujeto. Pero, como se advierte, las experiencias perceptivas de un sujeto no son intersubjetivas, ya que cada
percepción es privada y cualquier otro observador, realizará un acto perceptivo distinto, intransferible.
Los enunciados básicos, por estas razones, no se verifican con experiencias subjetivas. Pretender eso, sería caer en lo que el
pensador llama Psicologismo (confundir cuestiones de orden lógico con otras de carácter psicológico).
Sin embargo, aunque no constituya la justificación de los enunciados, la experiencia debe ser el tribunal de la hipótesis, ya que de otro
modo no tendría sentido sostener el carácter empírico de las teorías. Para resolver este problema, Popper plantea la distinción entre
decisión y justificación.
Según el autor, la experiencia privada de cada científico motiva su decisión de aceptar un enunciado, pero no alcanza para
justificarlo. La aceptación colectiva de un enunciado resulta del consenso, del acuerdo convencional entre distintos observadores
que individualmente han tenido experiencias que motivaron su decisión particular.
Por lo tanto todos los enunciados de la ciencia son provisorios. Solo puede llegarse a la corroboración de las hipótesis. Cuando esto
se logra, la misma se incorpora al corpus de conocimiento científico, pero no de una manera definitiva. Ya que, su contrastación jamás
se da por concluida. Siempre está la posibilidad de que sea refutada.
El progreso de la ciencia bajo la perspectiva falsacionista
El falsacionismo expresa una noción de progreso científico. Hemos visto que la contrastación de las teorías nunca concluye. Por otro
lado, para Popper la ciencia progresa aproximándose a la verdad. Pero, hemos visto que la verdad en las teorías jamás puede
probarse. ¿En qué consiste entonces, el avance hacia la verdad? Para Popper, en la eliminación de los contenidos falsos. Cada vez
que nos deshacemos de contenidos falsos, nos acercamos a la verdad. No se trata de un acercamiento acumulativo, se trata de un
avance hacia la verdad mediante la eliminación de teorías falsas. Pese a que no podamos acceder jamás a la verdad, a medida que nos
alejamos de los errores, nos acercamos más a ella.
Palabras de Popper “La ciencia progresa mediante conjeturas y refutaciones”.
Página 27 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Para Karl Popper la inducción no tiene papel alguno en el método de justificación de teorías y el criterio de cientificidad no es de
significado empírico, sino un criterio de demarcación. Este permite identificar las condiciones en que las hipótesis se deben dar por
refutadas en la contrastación experimental. En cuanto al desarrollo de la ciencia, para Popper se trata de un acercamiento a la verdad
que ocurre mediante las refutación de las teorías que deben ser abandonadas cuando no superan la crítica llevada a cabo en el
proceso de contrastación.
Tanto el Positivismo lógico como Popper coinciden en el lugar central que le otorgan a la justificación de teorías dentro de la
Filosofía de la ciencia y en el papel fundamental que le asignan a la lógica. Su preocupación central está puesta tanto en la
reconstrucción de la estructura lógica del lenguaje científico, como en determinar las relaciones adecuadas entre hipótesis y
evidencia.
Ambas corrientes especial hincapié en que toda explicación de los cambios científicos debe hacerse de manera racional y objetiva,
sin intervención de factores extracientíficos. Esto implica poder establecer criterios neutrales para determinar cuándo estamos en
presencia de teorías mejores que otras.
Esta perspectiva etimológica criticada por filósofos de la ciencia que podemos englobar entro de la “corriente historicista”. Un
exponente de esta corriente fue Thomas Kuhn, físico, historiador y filósofo de la ciencia estadounidense del siglo XX, quien abrió un
nuevo debate sobre la idea de cambio y progreso en la ciencia.
Para Kuhn para comprender los cambios científicos, es necesario reconocer que hay otros factores (ideológicos, sociales,
psicológicos) externos a la ciencia, que intervienen en las decisiones para elegir entre teorías. Además, conocer su funcionamiento
real implica poder explicar cómo se ha desarrollado históricamente. Solo un enfoque histórico puede revelar en qué consiste la
racionalidad científica.
Nueva corriente cuestiona algunos puntos de la Perspectiva heredada (sostenidos por el positivismo lógico y por Popper). Kuhn,
presenta sus tesis principales en su libro “La estructura de las revoluciones científicas”, publicado en 1962.
Problema que Kuhn observa en las propuestas epistemológicas anteriores pretensión de encontrar un método unificado que
justifique de manera objetiva el conocimiento producido. La pretensión de evaluación objetiva no tiene en cuenta que las teorías se
evalúan siempre dentro de marcos conceptuales más amplios.
Para epistemológicos clásicos el cambio de teorías es posible a través de patrones objetivos y neutrales. Desde esta perspectiva, la
reconstrucción lógica permite decidir si una hipótesis está lógicamente justificada por la evidencia empírica. Y, en caso de ser racional,
habilitar su aceptación. La lógica es la instancia que logra conectar una creencia con la evidencia empírica. Por esto, la preocupación
central de la epistemología clásica es encontrar las reglas del método adecuadas para alcanzar el éxito. Asimismo, la pretendida
objetividad reduce el papel de sujetos que forman parte de esta actividad (dejando afuera sus intereses, valores, contexto, etc.).
En suma concepción tradicional de la ciencia la comprende como un saber fuera de la historia y ajeno a los sujetos que la
producen.
Pensamiento kuhniano pone en duda esa concepción de la ciencia. Para Kuhn, cualquier análisis que se haga sobre cómo cambia
la ciencia debe incorporar una reflexión filosófica profunda que, al mismo tiempo, está sujeta el contexto histórico de su
realización. Pone en evidencia que el o los métodos evolucionan, y varían siguiendo tradiciones de investigación. Esto permite que el
análisis epistemológico, ahora incluya los procedimientos de prueba y los criterios de evaluación utilizados.
Nueva imagen de la ciencia se trata de una práctica y no de un producto. Bajo este concepto, Kuhn analiza los procesos por los
cuales se surgen y abandonan las distintas teorías y plantea un nuevo enfoque sobre el cambio y progreso científicos.
Según Kuhn propuestas anteriores no resistían una comparación con las pruebas históricas porque solo han ofrecido un análisis
sincrónico de la ciencia, sin haber reparado en el contexto o en la realidad socio-histórica concreta en la que se inserta la práctica
científica. Por esto, Kuhn presta mucha atención a las características sociológicas de los actores involucrados, en este caso, la
comunidad científica.
Critica la división contexto de descubrimiento/contexto de justificación así como la revisión sobre la distinción términos
teóricos/observacionales. Para él, no es posible la observación neutral, porque toda observación está encuadrada bajo un marco de
supuestos básicos conocidos y, por esto, impregnada por una teoría previa. Os conocimientos previos, experiencias y expectativas del
observador influyen y condicionan la observación.
Como la distinción entre lo teórico y lo empírico se vuelve difusa, haciendo que la base empírica vuelva falibles los enunciados
observacionales (antes considerados infalibles), Kuhn niega la pretendida neutralidad de la base empírica.
Página 28 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Tal como Hanson analiza en su libro, los observadores no ven lo mismo. No existe un observador neutral que pueda interpretar los
hechos “desde afuera”, porque están condicionados por experiencias, crencias o expectativas. Así, cambia el papel asignado a los
enunciados que forman parte de la base empírica y su pretendida neutralidad.
Para entender la dinámica de la ciencia que plantea Kuhn, es necesario plantearse la noción de revolución científica. Fue
revolucionario el abandono del sistema geocéntrico para pasar al heliocentrismo. Trataremos de entender por qué. Pero antes es
necesario entender conceptos como paradigma, ciencia normal, anomalía, enigma, crisis e inconmensurabilidad.
Proceso histórico de la ciencia
Período precientífico
Al observar la historia de la ciencia, Kuhn observó que puede identificar diferentes períodos que se repiten en el desarrollo científico.
De acuerdo con Kuhn, en la primera etapa del desarrollo de una disciplina diversas escuelas de pensamiento, que coexisten. Cada
una tiene sus propios presupuestos y creencias acerca de la naturaleza, lo que implica que llevan a cabo sus propias investigaciones
desde una percepción del mundo que, eventualmente, se traducirá en perspectivas incompatibles entre sí.
En la medida en que no cuentan con un marco conceptual unificado, compiten para tratar de lograr más y mejores explicaciones de
los fenómenos. Además, cada investigador establece los cimientos de su disciplina y no comparte un método común con el resto.
Este período se llama “precientífico” momento previo al alcance de la madurez disciplinaria. Cuando el campo de investigación
queda unificado bajo la dirección de un mismo conjunto de supuestos básicos compartidos, tiene lugar la aparición de un paradigma.
Cuando este es aceptado, se conforma y consolida una comunidad científica (compuesta, según Kuhn, por miembros que han
absorbido la misma bibliografía técnica, se conciben como compartiendo las mismas técnicas, su juicio profesional es unánime, etc.)
Inicial período de caos es la manera en la que se alcanza la ciencia normal (el momento preparadigmático, en el que se generan las
condiciones para el surgimiento del paradigma). Es recién con la aparición del paradigma que las disciplinas alcanzan su madurez y
comienza el período llamado período normal de la ciencia.
Ciencia normal
Al pasar del período precientífico a la madurez disciplinar, comienza el período de la ciencia normal. Esto es porque se ha logrado
una cosmovisión compartida entre las escuelas que antes competían entre sí (pero ahora se nuclean en torno a consensos básicos, un
lenguaje común y una metodología compartida).
Este primer consenso da paso al paradigma. Un paradigma, según Kuhn, es un logro científico, porque fue consensuado por los
investigadores, constituyéndose así una comunidad de investigación.
Este aspecto importante para comprender la dinámica de los cambios de paradigmas en las revoluciones científicas. Para Kuhn, las
revoluciones científicas son como una conversión religiosa, ya que es un cambio en la percepción del mundo objetivo. Por otro lado,
al cambiar los criterios valorativos, el bagaje conceptual y la concepción general del mundo, no puede presuponerse un terreno
objetivo y neutral donde pueda debatirse y decidir entre paradigmas alternativos.
Paradigma concepto “holista” manera común de ver el mundo y que estructura tanto la actividad como la experiencia de
todos los investigadores de la comunidad científica. Es invisible y no hay conciencia de su intervención o su funcionamiento, ni se
discuten sus fundamentos hasta entrar en crisis (etapa posterior a la ciencia normal).
Etapa de ciencia normal se desarrolla la actividad propia de los miembros de cada especialidad científica, regida por un paradigma
que otorga confianza de que la investigación va por buen camino.
Paradigma Kuhn le otorga varios sentidos a lo largo de su libro. En el prefacio caracteriza la noción como “realizaciones científicas
universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad
científica”. Aquí se incluyen tanto leyes y teorías como los instrumentos que utilizarán los científicos.
Se dice, en su “Posdata: 1969” que el paradigma funciona como una “matriz disciplinar” y le otorga un sentido sociológico, en virtud
de su referencia a la constelación de creencias que determinan la conducta y los compromisos de los miembros de la comunidad
científica.
Término “disciplinar” para nuclear a aquellos que comparten una disciplina en común.
Término “matriz” porque el paradigma está constituido por componentes de distinta índole que funcionan conjuntamente:
Principios metafísicos o presupuestos ontológicos son creencias en modelos particulares que otorgan a la comunidad
científica un horizonte general y una determinada orientación en la investigación.
Página 29 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Generalizaciones simbólicas son los componentes formales o fácilmente formalizables de la matriz disciplinaria. Por
ejemplo, la Segunda ley de Newton. En ocasiones, una ley puede estar expresada en lenguaje común o simbólico. Las
generalizaciones pueden expresar leyes de naturaleza o definiciones de términos.
Valores son muy importantes e influyentes en el comportamiento del grupo. Los miembros comparten la mirada de cómo
debe ser la práctica científica. Por ejemplo, los requisitos de las predicciones, cómo deben ser las teorías, etc. Otro valor
importante es que la ciencia debe tener una finalidad social.
Modelos son compartidos por los miembros de la comunidad y proporcionan analogías que permiten investigar otras
estructuras.
Importante mención el paradigma también, en un sentido más específico, puede ser considerado un “ejemplar” esto refiere a
los logros y soluciones concretas que se han encontrado frente a ciertos problemas. Estos ejemplares paradigmáticos, conectan la
teoría y la experiencia y señalan desde qué teoría debe verse y manipularse la naturaleza. De esta forma, cuando un miembro se
encuentra con un nuevo problema, puede resolverlo como se han resuelto problemas ejemplares estableciendo similitudes y
diferencias. Los problemas ejemplares son como una “colección”.
Al respecto, Kuhn dice que el planteo verbal de una ley es virtualmente estéril. Las generalizaciones empiezan a funcionar con los
ejemplos concretos de cómo funcionan en su uso.
El aprendiz va incorporando una manera de ver las cosas del mundo que es compartida por los miembros de la comunidad y la va
incorporando por imitación. Los ejemplos de problemas le indican cómo debe solucionar problemas futuros semejantes.
Ahora que tenemos la noción de paradigma, podemos decir qué es para Kuhn la ciencia normal. La actividad específica de la ciencia
normal es la resolución de enigmas.
Enigma categoría especial de problemas que pueden servir para poner a prueba el ingenio o la habilidad de los científicos para
resolverlos.
Para que un problema se entienda como enigma, Kuhn dice que debe caracterizarse por tener más de una solución asegurada.
Asimismo, debe haber reglas que limiten tanto la naturaleza de las soluciones aceptables como los pasos que es preciso dar para
obtenerlas.
Entonces los científicos (guiados por el paradigma), resuelven problemas puntuales llevando a cabo su propia actividad. El
profesional debe poner a prueba sus conocimientos y su ingenio. Si los intentos e resolver el enigma se frustran, el científico será
juzgado por su poca destreza o falta de ingenio, pero el fracaso no será atribuido al paradigma.
Actividad científica normal concebida como acumulativa consiste en acrecentar el cúmulo del conocimiento sobre los
fenómenos que el paradigma indica como relevantes e importantes. Asimismo, se intenta articular cada vez más las predicciones de
los hechos con el aparato teórico que ofrece el paradigma.
En esta etapa los miembros de la comunidad resuelven desde problemas conceptuales hasta instrumentales. Pero, es el paradigma
el que delimita o señala cuáles son los enigmas e indica cómo resolverlos.
Ciencia normal, entonces se sostiene a partir de una serie de compromisos conceptuales, teóricos, instrumentales y metodológicos
que la relacionan con la resolución de enigmas, regida por un paradigma que es anterior a estos supuestos compartidos.
Hay progreso en los períodos de la ciencia normal en tanto este se percibe como la aparición de enigmas y sus soluciones. La
ciencia normal es acumulativa en lo referido al ajuste experimental y teórico y en el mayor alcance y precisión de los
conocimientos científicos. Pero, no aspira a producir novedades fácticas o teóricas. De hecho, la dinámica científica se desarrolla a
partir del intento de los científicos por resolver enigmas.
Desde esta perspectiva epistemológica queda claro que ciencia y problemas (o enigmas) se implican mutuamente y no se dan
aisladamente.
¿Cómo se produce el progreso del conocimiento científico? Si tomamos en cuenta el cambio científico desde una perspectiva
histórica (desde el punto de vista de las revoluciones) ya no habría progreso acumulativo. Porque hay una ruptura, un salto de
un paradigma a otro, que supone una nueva manera de pensar y ver el mundo, y para poder afirmar el progreso es necesario
presuponer una cierta continuidad que aquí, en lo que plante Kuhn, no se da.
En este punto, es necesario presentar otro término fundamental de la filosofía de la ciencia de Kuhn anomalía (suele confundirse
con enigma).
Anomalía instancia problemática que reclama ser resuelta, pero a diferencia del enigma, que implican una perspectiva de
solución posible y determinada al interior del paradigma (o sea, con los recursos que el paradigma ofrece), designan casos y
Página 30 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
experiencias que se resisten a subsumirse en el aparato teórico y metodológico con el que se desarrolla la ciencia normal. Es decir,
se presentan como casos abiertos cuya respuesta no solo no se vislumbra como una posibilidad efectiva con los medios teóricos y
metodológicos disponibles, sino que además involucran, “el reconocimiento de que en cierto modo la naturaleza ha violado las
expectativas, incluidas por el paradigma, que rigen a la ciencia normal”.
Al interior del paradigma se podrían plantear dos escenarios alternativos frente a la aparición de anomalías:
Uno en el que se logra establecer (por medio de replanteos de las teorías o metodologías vigentes) alguna vía de resolución
que permita disolverla y lograr “hacer de lo anormal algo esperado”. En este sentido, se intenta reformular alguna teoría o
conjunto de teorías para que el fenómeno anómalo se vuelva explicable y predecible. En definitiva, esta vía consiste en
mostrar que no se trata de una anomalía, sino que de un enigma con difícil resolución.
Pero también, podría pasar que la anomalía no desaparezca y se profundice y genere nuevas anomalías. De ser así, aflorará
en la comunidad un malestar respecto de la propia práctica que, llegado el caso, la terminará poniendo en cuestión.
Ilustraremos esto con la Revolución Copernicana El fenómeno del movimiento retrógrado de los planetas representó un problema
para la astronomía aristotélica. Al contemplar el movimiento de los planetas, estos se movían de este a oeste, luego parecían
detenerse y luego comenzaban a moverse hacia atrás, para luego retomar su movimiento original. Este movimiento podía ser
explicado en el modelo de las esferas homocéntricas mediante una adecuada combinación de movimientos de esferas concéntricas
que giraban alrededor de ejes diferentes. Sin embargo, al menos un aspecto se resistí a recibir una explicación satisfactoria: el cambio
observado en la intensidad del brillo y tamaño del disco de los plantas. Esto constituía una anomalía, pues violaba las expectativas que
surgían de suponer que los planetas se encontraban engarzados en esferas cristalinas y que, no podía variar la distancia entre ellos y
el centro de dichas esferas. Esta anomalía requería un ajuste en la teoría. Ptolomeo propuso abandonar el supuesto de que todos los
cuerpos celestes giraban en círculos concéntricos aunque no abandonó el supuesto de la circularidad del movimiento ni de la
estaticidad de la tierra. Así, la anomalía dejaba de ser tal y podía ser explicada mediante la adecuada combinación de epiciclos y
deferentes. Sin embargo, subsistía un comportamiento desconcertante los intervalos que separaban las sucesivas retrogradaciones
no eran siempre iguales. Así, la persistencia de la anomalía llevó a que se desencadenara un período de crisis que se resolvió con la
emergencia de un nuevo paradigma, la revolución copernicana.
Crisis
Cuando las anomalías se multiplican y radicalizan, comienza a surgir en la comunidad científica una nueva actitud ante su tarea el
escepticismo. Es decir, los investigadores empiezan a dudar de la posibilidad efectiva de resolver enigmas y emerge una sospecha
generalizada de la viabilidad de la práctica científica en sí misma Kuhn denomina a esto, período de crisis.
Escepticismo característica dominante en una comunidad científica que extiende su incomodidad a todos los niveles,
“Período de inseguridad profesional profunda” conlleva a la puesta en cuestión y la consecuente pérdida de la confianza en el
paradigma vigente.
En este proceso se produce una atomización de la comunidad que comienza a dispersarse con el objetivo de abordar las anomalías
desde diferentes perspectivas teóricas y metodológicas, tratando de encontrar algún curso posible de investigación. De esta manera,
surgen algunos desarrollos científicos alternativos que podrán decantar, en el futuro, en un paradigma rival.
Este período fue descripto por el mismo Copérnico en su prefacio “Sobre las revoluciones de las esferas celestes” (1543)
Entonces la crisis consiste en un cambio de actitud de los científicos, una modificación en el modo en que llevan adelante la
práctica ya que esta comienza a volverse cuestionadora (tanto en las teorías y métodos aplicados como en presupuestos generales
sobre los que se asienta). Estos períodos debilitan el funcionamiento de la ciencia, y llegado el caso, el paradigma sobre el que se
asienta.
Ante una crisis:
Se podría encontrar alguna vía no explorada que destrabe la resolución de problemas cuya difícil solución impedía el normal
funcionamiento de la ciencia y en consecuencia, se recupera la confianza en el paradigma vigente.
O, podría generarse una disputa entre diferentes teorías aisladas, entre las cuales se puede consolidar alguna y comenzar a
conseguir el consenso, que luego le permitirá funcionar como un fundamento capaz de articularse, luego, en un nuevo
paradigma.
Puro caos no se clausura la vigencia del paradigma cuestionado pero tampoco aparece un nuevo paradigma.
En resumen Esquema de los períodos de crisis:
1) Ciencia normal: resolución de enigmas y surgimiento de una o varias anomalías.
Página 31 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
2) Las anomalías se profundizan (y se expanden).
3) Pérdida de confianza resolutiva por parte de los científicos (escepticismo) crisis.
4) Surgimiento y proliferación de nuevas teorías aisladas que tratan de dar cuenta del fenómeno anómalo desde otras
coordenadas, por fuera del paradigma vigente.
Revolución científica
Cuando un paradigma es reemplazado por otro, estamos ante lo que Kuhn denomina “Revolución científica”.
Revoluciones científicas episodios de desarrollo no acumulativo en que un antiguo paradigma es reemplazado, completamente
o en parte, por otro nuevo e incompatible.
Dos cuestiones importantes centralidad de los paradigmas y desarrollos no acumulativos del conocimiento. De la primera ya
hemos hablado. Pero, ¿qué quiere decir la segunda? la clave está en el concepto de inconmensurabilidad.
Inconmensurabilidad de los paradigmas
Introducción al concepto de inconmensurabilidad
Sobre esta noción clave reposa gran parte de la innovación que implicó el abordaje paradigmático del fenómeno científico para la
historia de la ciencia, en particular, para pensar el cambio científico.
Analizamos la noción en sí misma, su epistemología nos ofrece una primera noción sobre cómo Kuhn podría utilizarla:
In prefijo que indica una negación o imposibilidad.
Con refiere a una unión o agregación de elementos.
Mensurable alude al hecho de que algo se puede medir.
Entonces, Inconmensurable propiedad que designa algo enorme que por su gran magnitud no puede medirse. Es decir, que
sustrae todo parámetro común, puesto que, para medirlo, se necesita un criterio externo, es decir, un patrón universal que habilite la
determinación de aquello que va a someterse a medición. En términos generales, algo inconmensurable quiere decir que no admite
ningún punto de contacto con otra cosa, que es a tal punto heterogéneo que no hay comparación posible.
Relación con teoría de Kuhn es importante recordar que cada paradigma acota o delimita la realidad, por lo que resulta
imposible suponer que hay una instancia exterior que permita compararlos.
El conocimiento es siempre relativo al paradigma en el que se piensa. De modo que, en los períodos revolucionarios, no se puede
determinar si un paradigma es mejor que otro, porque esto requeriría un criterio extra-paradigmático que permita compararlos y
evaluarlos. Y esto no es viable, ya que los criterios para ellos están dados por el mismo paradigma del cual se harían estas
operaciones.
Tesis de inconmensurabilidad repercute en el modo de concebir el cambio científico. Permite romper con el presupuesto clásico
de un desarrollo continuo, acumulativo y progresivo del conocimiento científico, para habilitar una manera alternativa de pensarlo.
Inconmensurabilidad habilita a cuestionar la imagen habitual de la ciencia para invitarnos a concebirla de una manera no gradual,
no secuencial, no acumulativa ni progresiva.
Dinámica científica en mente de Kuhn se desarrolla de manera fragmentaria y discontinua, siempre acotada a cada paradigma.
Estamos ante una perspectiva científica que piensa el conocimiento en términos históricos, que acepta que todo saber científico es
relativo al paradigma desde el cual fue concebido.
Debido a que no hay argumento formal que permita determinar qué paradigma es mejor, debemos reconocer que los hechos
científicos son lo que son, en relación al paradigma del cual surgen.
En esta propuesta epistemológica, se admite que la razón se da siempre en un marco socio-histórico determinado y que el
conocimiento es, entonces, acotado y determinado por las fronteras socio-históricas específicas de cada paradigma.
El concepto de inconmensurabilidad en el marco de La estructura de las revoluciones científicas
En “La estructura de las revoluciones científicas”, Kuhn presentó la tesis de la inconmensurabilidad paradigmática, conocida como
inconmensurabilidad fuerte (“la parte de la filosofía que se ocupa del problema del fundamento, con todas las inflexiones propias del
mismo, se llama metafísica”) o inconmensurabilidad ontológica (disciplina filosófica que se dedica a estudiar el ser de los distintos
entes particulares).
Página 32 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Ella dio paso a una nueva forma de pensar el conocimiento científico desde una lógica progresiva y acumulativa de os saberes,
hacia una concepción dinámica centrada en la incompatibilidad y la ruptura.
Podemos abordar la inconmensurabilidad desde tres aspectos diversos:
1) Inconmensurabilidad perceptual El cambio de paradigma es concebido como un corte radical que inaugura una nueva
forma de percibir el mundo. Si bien el mundo objetivo es siempre el mismo, cada paradigma lo percibirá y comprenderá desde sus
coordenadas teórico-metodológicas propias. Esto es, habrá tantas formas de percibir la realidad como paradigmas posibles para
pensarla y experimentarla. Kuhn busca pensar que el mundo es siempre abierto y conocido desde un determinado paradigma. Y,
como no podemos percibir el mundo real, lo “real” queda definido por cada paradigma.
Ejemplo objetos que antes estaban agrupados en el mismo conjunto son agrupados después en conjuntos diferentes y viceversa.
Kuhn compara la inconmensurabilidad perceptual con las imágenes reversibles de la psicología de Gestalt. De hecho, plantea las
revoluciones científicas como un “switch gestáltico” (como un cambio perceptivo). Ante una misma imagen, pueden verse dos figuras
diferentes alternativamente. Dependiendo, de cómo ubique el fondo y la figura la persona que observe. Ahora, algo importante a
resaltar, es que no se pueden percibir las dos formas a la vez. Esto permite comprender por qué paradigma e inconmensurabilidad
son nociones mutuamente dependientes:
Si las revoluciones científicas funcionan como el cambio perceptivo en las imágenes, quien abandona un paradigma ya no
puede ver lo que se veía desde el paradigma anterior.
Quien mira con los anteojos de un determinado paradigma, no tiene manera de ver aquello que solo se percibe desde la
mirada que habilita otro paradigma.
Página 34 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
2) El conocimiento proveniente de nuestro cuerpo y nuestros estados mentales el conocimiento en “primera persona”, que
puede describirse pero no es transmisible. Por ejemplo, es lo que permite que una persona víctima de acoso sexual logre
identificar que lo que le está ocurriendo es “eso que llaman acoso”.
3) La representación que hacemos de los objetos la versión que construimos de los objetos que conocemos varía según
nuestras emociones e intereses, nuestras relaciones con otros y nuestra cosmovisión o marco de creencias generales.
4) La situación social esta incluye dos componentes:
- Identidades (género, raza, orientación sexual, etnicidad, etc.)
- Roles (ocupación, filiación política, etc.)
La situación social así compuesta determina las diferencias en la asignación de poder que recibe cada sujeto y estructura sus
metas, intereses, normas, hábitos, emociones y habilidades.
En este contexto teórico, el género es considerado un modo de la situación social que resulta de la manera en que las socieda des
operan con las diferencias sexuales.
Concebir el conocimiento como situado y el género como un modo de la situación social permite visibilizar los modos en que el
conocimiento puede ser afectado por el género.
Existen interpretaciones erróneas que parecieran derivar de la filosofía feminista pero que en realidad, no se siguen de ella. La misma
Elizabeth Anderson (representante de la corriente) advierte las confusiones frecuentes:
- Epistemología feminista y conocimiento situado no implican relativismo epistemológico (posición que considera que
algunas afirmaciones del conocimiento son relativas [dependientes de algún rasgo del sujeto, grupo, etc.] y que las
normas que determinan qué es lo que debe considerarse como conocimiento o cuando una creencia es racional o
justificable, no son universales sino que dependen del marco conceptual o cultural local al que pertenece el sujeto
cognoscente).
- La situacionalidad del sujeto cognoscente postulada por la epistemología feminista no equivale a:
Que una perspectiva alcance creencias verdaderas garantizadas.
Que cada perspectiva solo puede ser evaluada en sus propios términos.
Que ninguna perspectiva es mejor que otra,
Que la objetividad es indeseable.
Que todo conocimiento necesariamente refleja una relación peculiar no universalizable de un grupo con el
objeto de conocimiento.
Tres tradiciones de epistemología feminista
Según la clasificación de Sandra Harding (1986), dentro de la epistemología feminista existen tres tradiciones fundamentales: la
“teoría del punto de vista”, el postmodernismo y el empirismo. Presentaremos la clasificación de acuerdo con la postura de
Elizabeth Anderson.
La teoría del punto de vista
Esta teoría considera que la situación social proporciona una posición epistémicamente privilegiada. Según los partidarios de esta
teoría, la perspectiva de los grupos desfavorecidos es epistémicamente superior a ala de los grupos dominantes cuando se trata de
estudiar los fenómenos sociales y políticos que los involucra.
Cuando las teorías del punto de vista adoptan la posición feminista, sostiene que existen para las mujeres tres tipos de privilegio
epistémico O acceso superior a los objetos de conocimiento):
1) Las mujeres tendrían un conocimiento más profundo de la sociedad: El punto de vista de las mujeres, como grupo
desfavorecido), revela las regularidades fundamentales que subyacen a los fenómenos sociales y psicosociales en los que el género
está involucrado. Mientras que, la perspectiva dominante, solo capta regularidades superficiales.
Otro tipo de conocimiento más profundo deriva del “estilo cognitivo”. Según la teoría de las relaciones objetales, desarrollada por
Nancy Chodorow (1978), los varones desarrollan sus identidades a partir de la separación de sus madres y ello supone diferenciarse,
rechazar lo femenino y priorizar la necesidad de mantener distancia y límites. En cambio, las niñas adquieren su género
identificándose con sus madres, lo que las hace más propensas a borrar límites entre sí mismas y los otros.
De acuerdo a esto, los varones desarrollan una manera de conocer identificada con lo abstracto, teórico, desencarnado, distanciado
emocionalmente, analítico, deductivo, cuantitativo, atomístico y orientado hacia los valores de control y dominación.
Mientras que, las niñas desarrollan un estilo cognitivo concreto, práctico, encarnado, emocionalmente involucrado, sintético,
intuitivo, cualitativo racional y orientado hacia valores de cuidado y protección. Esto les permite percibir el mundo de una manera
relacional, vinculándose con los objetos de conocimiento de un modo inaccesible para los sujetos de otro estilo.
Página 35 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
2) Mientras que la perspectiva patriarcal tiende a representar las desigualdades sociales existentes como naturales y
necesarias, la perspectiva de las mujeres representa a estas correctamente como socialmente contingentes y muestra cómo
podrían revertirse: Según la teoría feminista del punto de vista, solo la experiencia directa permite a las mujeres identificar el carácter
normativo e injustificado de, por ejemplo, la distribución e trabajo que les atribuye los roles de cuidado en el ámbito doméstico. Por
ser ellas quienes viven en esa experiencia, solo ellas pueden dar fe de que no hay nada “naturalmente asignado”. La experiencia
directa les proporciona un conocimiento privilegiado precisamente por estar motivado por la necesidad de desvelar las injusticias.
Mientras que, con la posición patriarcal dominante, ocurre lo contrario. Los sujetos del patriarcado no perciben nada problemático en
aceptar ese orden como si fuera “natural”.
3) Ofrecen una representación del mundo social en relación con intereses humanos universales: la perspectiva dominante
patriarcal representa los fenómenos sociales solo en relación con los intereses asociados con los varones, aunque ideológicamente los
presenta como si fuesen intereses universales. En contraste, la visión epistémicamente privilegiada de las mujeres (en tanto grupo
desfavorecido), permite acceder a una versión de los fenómenos sociales más representativa de los intereses humanos universales.
Dentro de esta perspectiva, el estilo cognitivo de las mujeres (postulado por la teoría de las relaciones objetales), ejemplifica el acceso
privilegiado a una representación de los intereses humanos universales. Se supone que las mujeres, socializadas a partir de la “ética
del cuidado”, pueden captar necesidades ajenas invisibles para quienes no sean mujeres y así construir una versión de los fenómenos
sociales que no represente únicamente sus intereses (como ocurre con la perspectiva dominante).
Críticas a la epistemología feminista el punto de vista
La corriente es objeto de las siguientes críticas:
Circularidad ¿Quién decidirá qué sujetos tienen la perspectiva privilegiada? Si la respuesta son los mismos que lo
detentan, la validez del privilegio solo podrá ser reconocida por los miembros de ese grupo, pero no por el resto.
Carácter patriarcal del privilegio si las mujeres tiene un mejor acceso al conocimiento de lo moral debido a que han sido
socializadas desde su infancia bajo la ética del cuidado, entonces ese conocimiento no es mejor que otro sino que el presunto
“privilegio epistémico” se debe a las condiciones de socialización vigentes, que son patriarcales.
Desconocimiento de la diversidad la experiencia de la opresión toma distintas formas para diferentes mujeres, por lo que
no podría llegar a unificarse el punto de vista. Con frecuencia, críticos como Lugones y Spelman sostienen que el supuesto
“punto de vista” de las mujeres solo contempla el privilegio de las mujeres blancas de clase media. El concepto de “mujer”,
con su pretensión unificadora, desconoce el carácter situado de las distintas mujeres, reforzando las relaciones de poder
imperantes.
Esencialismo La teoría del punto de vista, parece suponer que la constitución de las identidades dan lugar a cada estilo
epistémico (femenino/masculino) son necesarias y transhistóricas. Sostener que la identidad de género se constituye según
la modalidad y las causas postuladas por l teoría de las relaciones objetales, conduce a caracterizar como una norma algo que
es, en realidad, un conjunto de hechos construidos de manera contingente.
Estas últimas críticas se originan en la perspectiva postmodernista propone evitar afirmaciones universales acerca de la “mujer” y
“lo femenino” y renuncian a establecer jerarquías entre los puntos de vista de los cognoscentes.
El feminismo epistemológico postmodernista
A diferencia de la anterior, desde esta perspectiva se considera que la identidad de los cognoscentes es siempre inestable y
contingente. Y por ello, dada la situacionalidad del conocimiento, este resulta también contextual y cambiante.
Perspectiva inspirada en la obra de pensadores vinculados con el postestructuralismo, como Foucault y Lyotard.
Caracteriza el conocimiento como una construcción discursiva constituida por una pluralidad de perspectivas. Cada una es relativa y
ninguna puede representar la realidad objetivamente. La realidad misma, se presenta como una construcción discursiva y no es
posible conocerla tal cual es.
En consecuencia, no es factible ni esperable alcanzar una teoría científica unificada que capture la verdad total acerca del mundo.
Las teorías científicas solo son distintos “relatos” caracterizados por la elección de diversos lenguajes que contienen diferentes
términos, y esa elección es un ejercicio de poder, ya que determina qué contenidos van a ser incluidos o excluidos del “relato” al que
consideramos conocimiento científico.
El postmodernismo propone que se abandone toda concepción acerca del conocimiento que pretenda superar la situacionalidad.
Quedan contrapuestas así, las siguientes propiedades:
Universalidad Localidad
Necesidad Contingencia
Página 36 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Objetividad Relatividad
Racionalidad Poder
Esencialismo del sujeto Inestabilidad de las identidades
Ciencia unificada Pluralidad de relatos
Totalidad Parcialidad
Fundamento Incertidumbre
Verdad y realidad última Revisabilidad, falibilidad
Página 37 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
sociedad sobre las investigaciones. Rechazar tal sexismo obligaría a la corriente a promover un sujeto científico individual,
aislado de la influencia social y una ciencia sin valores sociales.
Ante estas paradojas, la estrategia del empirismo feminista fue mostrar que, en realidad, se trata de paradojas aparentes. Según
Anderson, las mencionadas dificultades constituyen paradojas solo en apariencia, porque de acuerdo con el empirismo feminista, el
reconocimiento de valores y los factores sociales como parte de la ciencia no desplazan ni eliminan a la lógica o a la evidencia
empírica como ejes de la investigación. Ambos grupos de factores, no son opuestos.
“Los empiristas feministas mantienen que la parcialidad es mala cuando permanece oculta y permite que supuestos de fondo escapen
al escrutinio. En la medida que haya un sistema de parcialidad balanceada, la influencia negativa de los valores puede ser minimizada”
Anderson, 2017.
Defensores más destacados de la estrategia del empirismo feminista Helen Longino, quien propone que se considere que el sujeto
epistémico es la comunidad y no el científico individual.
Según Longino, la investigación científica debe emplear la evidencia empírica y la lógica para procurar acercarse a la verdad y también
debe basar la elección de las teorías considerando los valores que indican cuán buena es una teoría en relación con los fines de la
comunidad científica. Se trata de valores característicos de las teorías, propiedades que se consideran deseables y que permiten
elegir cuando aparecen teorías en competencia.
Frente a dos teorías que pretenden explicar el mismo fenómeno y que tienen el mismo grado de confirmación empírica puede
preferirse, por ejemplo, la que sea más simple o la que permita formular las predicciones más precisas.
Estas propiedades, tienen un carácter social ya que su significado y modo de aplicación varía de comunidad en comunidad, a lo
largo de la historia. Pero, no todos los científicos acuerdan con respecto a qué valor característico hay que privilegiar a la hora de
elegir. Dependiendo el científico, por ejemplo, puede preferir priorizar una teoría más precisa o más amplia. Es por esta razón (por su
carácter interpretable, en el sentido de ser dependiente del contexto y de los usos de las científicas) que los valores característicos de
las teorías son indiscutiblemente sociales y su aplicación no se reduce a ningún procedimiento algorítmico.
La estrategia del empirismo feminista de superar las paradojas mediante el reconocimiento de propiedades teóricas (valores) que
condicionan la elección de teorías enfrenta un riesgo: el relativismo. ¿Conducirá esta combinación de elementos a que cualquier
teoría puede resultar aceptable? La respuesta del empirismo es que no. Evita el relativismo con propuestas normativas como las de
Longino, quien postula que la comunidad científica debe contar con una organización regulada por normas de interacción crítica que
permitan asegurar la objetividad, que será de índole social.
Así, los científicos de diferentes perspectivas pondrán bajo escrutinio crítico sus respectivas posiciones y así, llegarán a consensuar los
estándares compartidos (valores) que serán los que se aplicarán para elegir entre las distintas teorías.
Simplicidad, precisión, amplitud de fenómenos explicados, etc. Serán ejemplos de estándares basados en valores cuya adopción
consensuada críticamente podría complementar la evidencia empírica y la lógica para posibilitar la evaluación y justificación de las
teorías científicas sin caer en un relativismo a la hora de juzgar.
Manifestaciones de sexismo y androcentrismo en la ciencia
Además de los antecedentes teóricos provenientes de la filosofía de Kuhn y de la tesis de la carga teórica de la observación, gran
parte de la crítica epistemológica feminista se originó en los problemas que los propios científicos identificaron acerca de los rasgos
sexistas y androcéntricos en sus respectivas disciplinas.
Análisis posibilitó críticas orientadas a reconocer y visibilizar características sexistas y/o androcéntricas en la producción,
validación, formulación, divulgación y apliación de las teorías científicas.
Los estudios permitieron a las disciplinas metacientífcas (que tiene como objeto de estudio a la ciencia), avanzar en la tipificación de
modos en que el sexismo y el adrocentrismo afectan al conocimiento científico. A continuación algunos:
Omisiones selectivas en la historia de la ciencia
Los primeros estudios, pertenecientes al ámbito de la historia, permitieron constatar la existencia de producciones de científicas
mujeres que fueron silenciadas por la historia “oficial” de la ciencia. Los resultados condujeron a valiosas investigaciones históricas
donde se recatan producciones de científicas mujeres antes no reconocidas.
Ejemplos:
“Efecto Matilda”: circunstancias en las que la comunidad científica no reconoce los logros de mujeres científicas y atribuye
esos resultados a científicos varones. Entre los ejemplos más destacados está el de Trótula de Salerno, medica italiana del
Página 38 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
siglo XII cuyos libros se atribuyeron a hombres. O, el de Rosalind Franklin, quien obtuvo las primeras imágenes nítidas del
ADN pero que luego fueron reconocidos por ello Crick, Watson y Wilkins hasta con un premio Nobel.
Exclusión y marginación
La investigación feminista también permitió visibilizar mecanismos por medio de los cuales se ha excluido o marginado a las científicas
mujeres. Los resultados provenientes de las investigaciones permitieron reflexionar acerca de cómo estas restricciones resultaron
perjudiciales para el progreso de la ciencia en sí.
La periodista Angela Saini (británica), declara que las mujeres tenían acceso limitado a las universidades, ya que se creía que estaban
hechas para formar a los varones en áreas a las cuales las mujeres no tenían acceso. Además, según los médicos, la tensión mental
que requería la educación superior podría sustraer energía al sistema reproductivo femenino, lo que pondría en riesgo su fertilidad.
Además de los mecanismos institucionales, también había otros más sutiles que operaban de manera implícita. Por ejemplo, la
asociación tradicional sexista de ciertas áreas de la ciencia con varones o mujeres generaba una imagen socialmente restrictiva de
las posibilidades de acceso.
Por último, otro reconocido mecanismo de exclusión es el “techo de cristal”, una discriminación jerárquica que opera impidiendo que
las mujeres calificadas asciendan a los niveles superiores de la comunidad científica.
Aplicaciones sexistas y/o androcéntricas
Otra manifestación del sexismo son las aplicaciones de la ciencia y la tecnología que perjudican a las mujeres (y otros grupos) al
representar sus intereses como irrelevantes o menos valiosos.
Filosofía de la ciencia concretó varios avances en cuanto a la detección del sexismo en numerosos casos de tecnología hasta
considerada “neutral”.
Ejemplos:
La eugenasia (aplicación de las leyes biológicas de la herencia al supuesto perfeccionamiento de la especie humana).
Políticas económicas (a países en vías de desarrollo) sexistas orientadas a proporcionar recursos y capacitación a los varones
pero a las mujeres no.
Aplicaciones diagnósticas de enfermedades cuyos diseños desconocen a las mujeres e ignoran sus síntomas (repercutiendo
así en un aumento en la mortalidad de las mujeres en diversas patologías).
Anticonceptivos químicos diseñados mayoritariamente para las mujeres. Apenas existen tecnologías anticonceptivas que
propongan introducir sustancias químicas n los cuerpos de los varones.
En este sentido podría decirse que indagar, visibilizar y cuestionar aplicaciones sexistas debe considerarse un imperativo constante en
la filosofía de la ciencia.
Teorías sexistas
Otros estudios mostraron que en muchas circunstancias, hasta entonces inadvertidas, la ciencia invisibilizó a las mujeres y al género
a través de las teorías mismas. Muchas teorías ampliamente aceptadas y divulgadas deben ser cuestionadas y reemplazadas por
otras mejor fundadas.
Ejemplos:
Teoría del hombre cazador de Robert Ardrey establece que la especie llegó a constituirse a través de la caza, una actividad
que se atribuía exclusivamente a los varones. Entonces se postula que ellos son los agentes causales gracias a los cuales se
logró el paso a la cultura humana. También atribuye a los hombres el uso de herramientas, por lo que se deduce que la
bipedestación y la postura erecta son rasgos evolutivos logrados por los varones.
Teorías biológicas que explican los rasgos de conducta reductivamente a través de supuestas causas hormonales
diferenciables sexualmente.
Esto también se traspasa a otras disciplinas, como la economía, antropología o psicología.
Filosofas de la ciencia Ruth Doell y Helen Longino desmitificaron varias de estas teorías mostrando que el contenido miso de las
hipótesis está afectado por la situacionalidad del sujeto cognoscente y sus intereses.
Página 39 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Estereotipia sexista
Las teorías acerca de las diferencias sexuales a veces se construyen de modo que refuerzan los estereotipos de sexo (reproducen la
vinculación entre ciertos rasgos biológicos y las conductas o roles socialmente asignados). Angela Saini misma, dice que la estereotipia
aparece desde las distinciones que hacemos en la crianza de nuestros hijos, las cuales reflejan la creencia de que existen diferencias
biológicas entre los sexos que determinan roles sociales diversos.
Conceptualizaciones sexistas
El sexismo está presente, también en los conceptos mismos que aparecen en las hipótesis que constituyen las teorías. El modo en que
se determina el significado de un concepto afecta toda la red de contenido informativo que conforma la teoría. Cuando el sexismo
afecta la conceptualización, se afecta la información que recibirán las personas y condicionan sus posibilidades y sus decisiones.
Ejemplo: Si se define a la menopausia como un “fallo funcional total de la fertilidad, se remite analógicamente a una enfermedad,
cosa que no es cierta. En realidad, la menopausia indica un cambio de una etapa a otra en el desarrollo.
Desafortunadamente, una misma investigación, aplicación o teoría puede estar afectada por más de uno de estos tipos de
manifestaciones. Lo importante es reconocerlos y cuestionar sus efectos en el conocimiento científico.
¿Ciencia feminista?
Junto con los estudios que detectan los sesgos, algunos partidarios de la epistemología feminista sostienen que ciertos sesgos pueden
operar no como desvíos que conducen la investigación al error, sino que como recursos epistémicos. Pero no todos los pensadores
feministas se suscriben a esta propuesta y existe un intenso debate acerca de qué debería ser una “ciencia feminista”. Existen al
menos dos posturas.
Científicos feministas del estilo cognitivo femenino
Sostienen que la ciencia feminista debe apoyarse en una metodología especial o “femenina” (basada en la idea de que existen dos
estilos cognitivos propios de lo masculino y lo femenino). La ciencia debería basarse en la preferencia de lo concreto sobre lo
abstracto, evitar las generalizaciones acerca de las mujeres para centrarse en la riqueza y particularidad de las vidas de cada una y
concebir a la realidad como compuesta por relaciones en lugar de por individuos. Los métodos, por su parte, deberían tener como
ejes la intuición, el compromiso emocional y otros factores asociados con la sensibilidad femenina, como preferencia por los rasgos
cualitativos frente a los cuantitativos.
Científicos feministas pluralistas
La posición pluralista rechaza la indicación de normas de femineidad para la práctica científica porque no existen pruebas de que el
“estilo cognitivo femenino” conduzca a teorías más probablemente verdaderas. Considera que la ciencia feminista debe enfocarse en
la aplicación de valores feministas que conduzcan a preferir las teorías que visibilicen los aspectos de género en lugar de
naturalizarlos o invisibilizarlos.
Se propone que la realidad en muy compleja, por lo que puede ser representada a través de diversas teorías y lenguajes. Cada una
de esas teorías y los lenguajes se encarnan en distintas comunidades cuyos intereses específicos las orientan a enfocarse en
determinados objetos de la realidad y estudiar aspectos específicos de sus objetos de conocimiento. La ciencia feminista sería una
más entre esas múltiples investigaciones científicas informadas por distintos intereses.
Actualidad de la epistemología feminista
Actualmente, continúan vigentes el debate acerca de la posibilidad y de la naturaleza de una ciencia feminista y el debate entre las
tres tendencias mencionadas. Estas se han enriquecido a partir de las críticas y los intentos por superar las objeciones resultaron en
un acercamiento de los tres enfoques. Este acercamiento tiene como ejes algunas tesis compartidas por todas las corrientes
epistemológicas feministas:
El pluralismo (existen múltiples teorías que captan distintos aspectos).
La situacionalidad.
El rechazo a la pretensión tradicional de establecer normas de validación o justificación de teorías que fueran universales e
independientes del contexto de investigación.
Avance de la reflexión epistemológica promovió una corriente cada vez más caudalosa de investigación en busca de sesgos.
El proceso de visibilización del género en las producciones culturales avanza en todas sus dimensiones y en su aplicación en la
ciencia. Esto constituye un progreso humano tanto en sentido epistémico (para mejorar el modo de conocer la realidad) como en el
moral.
Página 40 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Unidad 4
Introducción a la unidad “La dimensión ético-política de la ciencia”
Si bien seguiremos en el marco de la filosofía, intentaremos poner de relieve la dimensión ético-política de la ciencia y de discutirla.
Nos proponemos entonces reflexionar y discutir sobre el impacto que tienen la ciencia y la tecnología en el medio ambiente. Así,
delinearemos distintos modos de concebir la ciencia y veremos cómo varía la atribución de responsabilidades en cada uno de ellos
La dimensión ética de la ciencia
Introducción
La reflexión sobre el saber y el conocimiento se remonta a los inicios de la filosofía. Actualmente, el saber científico atraviesa hasta los
aspectos más ínfimos de nuestra vida cotidiana. No solo por el uso generalizado de productos tecnológicos, sino que también porque
los saberes científicos acumulados y la concepción científica del mundo han ido modulando a lo largo de la historia aquello que
percibimos y pensamos de lo que nos rodea y de nosotros mismos. Esto condiciona fuertemente nuestra conducta frente a diversas
situaciones.
Profundas transformaciones que producen los avances científicos y las innovaciones tecnológicas modifican nuestra experiencia
cotidiana. Los descubrimientos científicos y la producción tecnológica convierten en realidad palpable lo que en otro tiempo pudo
haber sido considerado ficción o mera fantasía. Esas innovaciones, y sus efectos en la vida contemporánea se producen cada vez más
rápidamente y desafían, los límites de lo posible.
Hay muchos ejemplos que muestran, por ejemplo, la fusión entre los biológico y lo tecnológico. Es el caso de la posibilidad de
controlar una silla de ruedas con la mente, o por ejemplo, de la introducción de genes en seres vivos.
Lo paradójico es que de tanto que nos sorprendemos con los avances, algunos son recibidos con naturalidad. Por ejemplo, el
lanzamiento de un nuevo celular no suele sorprendernos. Porque ya es algo “natural” poder comunicarse rápidamente con alguien a
una distancia grande.
Creciente tecnologización del entorno vital y los innumerables cambios que promueve naturalizan lo que en verdad constituye un
contexto inédito e impredecible para los seres humanos. LA ciencia y la tecnología desdibujan constantemente el límite entre lo
natural y lo artificial, revelando nuevas interrogantes y nuevas incertidumbres, así como nuevos planteos del orden ético.
Hacia la ética en la ciencia
Hasta el momento, el enfoque de nuestro recorrido fue el de la Filosofía de la Ciencia. Partimos de preguntas sobre la naturaleza del
conocimiento científico, su legitimidad, la demarcación con respecto a otros saberes, el análisis de sus teorías, sus corrientes
epistemológicas, su historia, etc.
Ahora también es competente a la naturaleza filosófica del estudio de la ciencia preguntar por la responsabilidad de los científicos
en la implementación de sus teorías. En este sentido, podemos preguntar por los conflictos éticos que genera en avance de la ciencia
y de la tecnología y a tener a otros aspectos de importancia como de dónde surgen las inquietudes para investigar, para quién
trabajan los científicos, qué tanto inciden sus valoraciones y creencias en la búsqueda de conocimiento, etc.
Dimensión ética de la ciencia hace referencia a este tipo de cuestiones.
Ética en tanto disciplina filosófica, consiste en una reflexión particular que tiene por objeto de estudio la moral, las costumbres,
hábitos y normas que rigen la conducta de un individuo o grupo.
Las reflexiones filosóficas fueron quedando estructuradas en saberes y teorías éticas a lo largo de la historia del pensamiento y se
han constituido, en un Corpus de conocimiento filosófico particular. De modo que, puede decirse que la ética constituye un campo
del saber filosófico, con su propia historia y producción teórica.
Lo que mueve la reflexión ética preguntas acerca del bien, del deber, sobre aquello que resulta correcto, sobre aquello que no, la
indagación profunda acerca de los fundamentos y los principios de nuestras acciones y conductas.
Cuando la ética se dirige a la ciencia y la tecnología, permite construir interrogantes y planteos que de ningún modo son propiedad
exclusiva de científicos ni filósofos profesionales.
Dos maneras de pensar la Ética en la ciencia
Podemos señalar dos abordajes a las cuestiones éticas vinculadas con la ciencia:
Página 41 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Enfoque internalista se centra en el examen de la práctica científica, en la conducta, los valores intervinientes y las
decisiones del científico en el transcurso de la investigación.
Enfoque externalista se basa en el impacto social que tienen la ciencia y la tecnología y en, los problemas éticos asociados
a ese impacto.
Primer enfoque imagen que la comunidad científica tiene sobre sus métodos y objetivos.
Segundo enfoque imagen social de la ciencia.
Documento de la National Academy of Science de Estados Unidos (1995) expone ciertas normas institucionales explícitas o
implícitas que hacen a la conducta y responsabilidad del investigador.
Algunas de esas hablan de errores cometidos en el transcurso de la investigación, errores que pueden ser honestos, como la
negligencia, falta de cuidado, intención o precipitación.
Otras hablan de errores mucho más graves engaño, plagio, invención de datos, falsificación de resultados.
Y hay más que se refieren a la adjunción de méritos y recompensas por los descubrimientos, al tratamiento de las técnicas
experimentales, a los conflictos de interés que se generan en torno a la publicación y apertura del conocimiento, etc.
En los documentos en lo que se detallan errores que se pueden cometer, es donde encontramos una ética de la investigación
científica. Esta sirve para transparentar el marco de la actividad científica y para dar un marco de referencia para la conducta en ese
ámbito.
Karl Popper elaboró una lista de Deberes del científico refiere a la exigencia por la honestidad intelectual en la búsqueda de la
verdad. Las objeciones aceptables, para él, tienen que ver con conductas que no cumplen con las virtudes propias de las exigencias
internas de la metodología científica.
Para Popper, también hay una responsabilidad del científico con la humanidad consiste en evitar el sufrimiento.
Pero, la ética y la responsabilidad operan en el ámbito profesional.
Ambos documentos (EEUU y Popper) refieren a lo que se llama análisis internalista de la ética de la ciencia.
Si pensamos en los problemas éticos vinculados al impacto en los avances científicos y de la tecnología, y a los conflictos que generan,
nos abrimos a la dimensión ética de la ciencia.
Todo ser racional participa de la reflexión ética porque de alguna forma toma decisiones o se justifica apelando a principios
morales. Pero no quiere decir que realicen reflexiones técnicas o sistemáticas. En cualquier caso, la relación entre ética y los usos de
la ciencia constituye uno de los principales problemas de la Ética aplicada.
Ética aplicada espacio en el cual se piensan las normas o los principios morales de contenido general en función de situaciones
particulares, que son únicas e irrepetibles. Se trata de la aplicación de la ética teórica a diferentes ámbitos y prácticas sociales, que
dan lugar a contextos específicos para la reflexión ética.
Innovaciones crecimiento de conflictos morales su abordaje requiere información precisa de la ciencia, el esclarecimiento
filosófico de los principios éticos que orientan nuestras reflexiones y decisiones y de otros actores involucrados en el conflicto (más
allá del saber experto).
La ética en la biotecnología
Es difícil dimensionar hacia donde se dirige el desarrollo de la biotecnología.
Convenio sobre la diversidad biológica (firmado por la ONU 1992) Biotecnología: “aplicación tecnológica que utilice sistemas
biológicos y organismos vivos o sus derivados para la creación o modificación de productos o procesos para usos específicos”.
Estamos en una etapa experimental. Porque sabemos que todo va a cambiar pero no sabemos exactamente cómo.
Progresos de la biotecnología presentan planteos éticos actuales y reales vinculados, en general, a la Medicina. Pero, sabemos que
toda tecnología es ambigua: genera la solución a viejos problemas pero posibilita nuevos problemas.
Ricardo Maliandi: “La biotecnología suscita esperanza en torno de posibles terapias genéticas, aun cuando hasta ahora los logros
prácticamente se han restringido a cuestiones de diagnóstico. Pero justo en este ámbito surgen los temores sobre, por ejemplo,
formas de “discriminación genética que podrán implementarse mediante nuevos descubrimientos”.
Página 42 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Principio de precaución exige minimizar los riesgos de las actuales investigaciones en este campo. Además, existe la exigencia
moral de no abandonar estas investigaciones, lo que se conoce como, según Maliani, principio de exploración.
Hay casos en que la sola posibilidad técnica obliga a investigar. Por ejemplo, cuando nos referimos a enfermedades mortales. Pero,
habiendo cuenta de las múltiples posibilidades que se ofrecen, cobra relevancia el principio de que no todo lo posible es lícito.
Muchas posibilidades son altamente cuestionables. Como por ejemplo, el tráfico de órganos, la discriminación genética o las armas
bacteriológicas.
Información genética datos que surgen del estudio del genoma de un humano.
Las pruebas que hoy son complejas y costosas, pronto serán simples y económicas. Ahora tenemos acceso a mucha información que
antes era inaccesible. Por ejemplo, hay chequeos genéticos para detectar posibles enfermedades. Pero, no es tan claro el alcance de
la detección de esas enfermedades. Porque, la mayoría de ellas requieren de otros factores aparte de un gen con cierta forma.
Entonces, la predisposición de los genes a ciertas enfermedades no determina que esas enfermedades vayan a producirse. La
capacidad predictiva de la información genética es entonces, relativa. Algunas variaciones genéticas se producen “casi siempre”,
otras “generan susceptibilidad”, otras son “protectoras” y otras no tienen ningún efecto.
Alemania 2009 Ley que prohíbe el diagnóstico prenatal para detectar enfermedades futuras. Lo autoriza por razones
médicas, pero no para detectar el sexo del bebe u otras cosas. Establece que ni las aseguradoras podrán exigir la realización
de tests, salvo por razones de seguridad o contratos de trabajo superiores a los 300000 euros.
Discriminación genética también puede darse en el campo de los sistemas de salud. Por ejemplo, si la información
genética detectase alguna posible enfermedad, ¿estaría la entidad de salud en derecho de negarle a alguien la cobertura?
Hay algunos desordenes genéticos que no permiten la prevención y que ni siquiera ven alterado su curso por una
intervención prematura. ¿Debería dárseles a los pacientes esta información?
En el campo laboral, ¿es aceptable que los trabajadores se sometan a una prueba genética?
Todas estas preguntas constituyen la materia de la Ética. Como ya dijimos, no son propiedad exclusiva de los profesionales. Estos
pueden aportar conocimientos para esclarecer cuestiones o enriquecer el debate. Pero, la resolución de estos problemas compete a
todos los actores involucrados.
La noción de responsabilidad y la comunidad de evaluadores ampliada
Noción central para pensar los efectos de la ciencia y de la tecnología en la vida de las personas y de la sociedad contemporánea
responsabilidad.
El significado de la responsabilidad es un tanto problemático. Se puede vincular dicha noción con la idea de intencionalidad.
La adjunción de responsabilidad que nos interesa, vinculada al sentido moral y legal del término, requiere de un agente intencional,
que debe ser capaz de responder por sus propios actos y de prever las consecuencias de estos.
Por esto, la responsabilidad también requiere de cierto grado de libertad. Un ser humano libre, elige, de algún modo, una conducta
o manera de actuar. Y solo en ese caso puede ser responsable.
Punto de matiz hablar de responsabilidad en el ámbito de la ciencia y la tecnología no es sinónimo de culpabilidad.
Responsabilidad puede ser individual o colectiva.
Responsabilidad colectiva importante para analizar los efectos nocivos de la actividad científica sobre el planeta y la biodiversidad.
Esto abre la pregunta ¿son los científicos los únicos responsables de sus investigaciones y sus aplicaciones?
Algunos autores hablan de “comunidad de evaluadores extendida” necesidad de considerar otros actores (al margen de los
científicos o tecnólogos) al momento de evaluar los riesgos de las investigaciones científicas y la aplicación de tecnología.
Ante proyectos de gran envergadura e impacto en la sociedad, es importante adoptar un modelo de evaluación en el que se considere
el riesgo desde una dimensión integral que incorpore otras perspectivas además de la económica: la medioambiental, los intereses de
las personas directa o indirectamente relacionadas, etc.
Es discutible cual sería el alcance y estatus de los evaluadores pero es claro que una evaluación meramente técnica no puede
predecir los riesgos con absoluta certeza.
Sería ingenuo sobrestimar la incidencia de este tipo de evaluaciones que incorporan otras miradas. Pero las sociedades tienden a
incorporar cada vez más instituciones para ello (por ejemplo, en las audiencias públicas). Así, la sociedad en su conjunto se ve
conminada a exponer sus intereses y puntos de vista públicamente, lo que constituye un avance de carácter democrático.
Página 43 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
El cientificismo y la neutralidad valorativa de la ciencia
Se presentan a continuación algunos conceptos importantes para comprender dos maneras diferentes de abordar la pregunta por la
responsabilidad de la ciencia y de los científicos.
Como sabemos, el saber científico se ha desarrollado en gran parte, en contra del sentido común y las ideas asentadas y naturalizadas
de los saberes circulantes de cada época. La confianza en la ciencia moderna, proviene de la convicción de que es producto exclusivo
de la razón. Desde el siglo XVIII, la Ilustración fortaleció esa confianza frente a cualquier tipo de oscurantismo y de irracionalidad de la
experiencia humana. Cualquier saber que sea científico, se identificará desde la Modernidad, con la búsqueda racional de la verdad y
el destierro del error del campo de conocimiento. No solo en el campo teórico, sino que también en el de sus aplicaciones prácticas.
Desde esta mirada optimista, la ciencia hasta el siglo XX será la actividad capaz de conocer verdaderamente el mundo, de mejorarlo y
controlarlo. Según esto, el mundo podría convertirse en un paraíso terrenal.
Ahora, si pensamos en los eventos del siglo XX, como Hiroshima, Auschwitz o la PGM, estaremos ante el lado oscuro de la ciencia.
El lado luminoso, de progreso hacia el mejoramiento de la vida, el confort, etc. Se opone al lado oscuro, la llamada tragedia de
desarrollo vivenciada en el siglo XX.
Recordemos que, de las corrientes estudiadas, ninguna señala lo mismo acerca de la ciencia. Sin embargo, es curioso como la ciencia
sigue gozando de prestigio y confianza, su imagen como conocimiento seguro predomina en el saber común, en los medios de
comunicación, entre los políticos e incluso entre los mismos científicos.
En el optimismo sobre la ciencia subyace la perspectiva de la ciencia denominada cientificismo, elaborada entre algunos
epistemólogos. Mario Bunge, por ejemplo, señala una diferencia entre ciencia pura, ciencia aplicada (las cuales buscan obtener
conocimientos de un recorte de la realidad para enriquecer el saber humano) y tecnología.
Ciencia pura pretende obtener conocimientos y es libre en la elección de sus problemas y métodos.
Ciencia aplicada aplicaría el conocimiento obtenido por la ciencia básica a problemas prácticos y específicos. Puede ser planificada
pero no goza de libertad para elegir métodos y las líneas de la investigación, pues depende de las necesidades ajenas.
Tecnología a ella compete la utilización del saber y las teorías científicas para la producción de artefactos útiles o planes de acción.
Es decir, para la modificación de la realidad.
Mario Bunge y el cientificismo sostienen la neutralidad valorativa de la ciencia, pero no así la de la tecnología. La ciencia pura es
desinteresada, pero la tecnología produce efectos reales en el mundo, y está orientada a determinados fines que pueden ser valiosos
o perjudiciales, por lo que es preciso someterla a controles del tipo moral y social.
La imagen de la ciencia desde la perspectiva del cientificismo tuvo defensores y detractores en nuestro país.
Queda entonces clara una diferencia que plantea el cientificismo:
Búsqueda de verdad desinteresada, el afán de conocimiento propio de la ciencia.
Ámbito de aplicaciones propio de la tecnología.
A pesar de las críticas, el cientificismo mantiene una gran influencia en diferentes sectores. Según esta perspectiva, aquellos que
utilizan los conocimientos (científicos) (ya sea para hacer el bien o el mal), tienen la responsabilidad y son susceptibles de sanción
moral. Esos son los decididores, los actores políticos y económicos responsables por el uso del saber científico. Desde esta
perspectiva, la ciencia no es éticamente responsable por el uso non sancto de sus conocimientos.
Distinción importante cientificismo no es lo mismo que científico. Bien se puede ser científico y compartir las ideas del
cientificismo, como también no hacerlo. O incluso, compartir ideas del cientificismo sin ser científico.
Por ejemplo, la filosofía de la ciencia, tiene como objeto de estudio a la ciencia. Pero no es ciencia, es filosofía, y eso es lo que le
permite tomar distancia de ella para advertir sus prejuicios e intentar ir más allá de su apariencia inmediata y evidente.
Debate entre cientificismo y anticientificismo continúa con las interrogantes sobre la naturaleza del saber científico. El peligro que
entraña el progreso científico, ¿es un costo a apagar? ¿Puede el ser humano dominar la ciencia y la tecnología? Etc.
La tecnociencia y la crítica al modelo de la ciencia martillo
Enrique Marí epistemólogo argentino y crítico de la perspectiva cientificista, se refirió a esta postura como el modelo de la ciencia
martillo. Porque, según él, el cientificismo cree que los conocimientos no son ni buenos ni malos, que dependen de para qué se los
use, tal como un martillo.
Página 44 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
En cambio, para el punto de vista anticientificista, la imagen de esta herramienta no da cuenta de la forma social del conocimiento
que llamamos ciencia.
Hasta acá separamos los términos ciencia y tecnología para explicar las diferencias señaladas por el cientificismo. Pero, el uso
separado de los términos obedece a la perspectiva cientificista de separar dichas actividades al interior de la práctica científica. En
cambio, es decisivo para el anticientificismo, hablar de tecnociencia.
Tecnociencia hace referencia a la íntima relación entre ciencia y tecnología. Según el anticientificismo, la garantía de verdad y la
búsqueda de utilidad (separadas por el cientificismo), están integradas e interrelacionadas.
La distinción que Bunge y el cientificismo hacen de ciencia pura, aplicada y tecnología, para el anticientificismo es abstracta e
idealizada. Para Marí, esa diferencia debe comprenderse en su contexto, ya que responde a diferentes tareas en una misma
actividad, que tiene como propósito la búsqueda de leyes que regulan los fenómenos.
Tecnociencia busca el conocimiento en función del control y la manipulación de los fenómenos y de la naturaleza. Tanto como el
deseo del saber, es el deseo de poder el que mueve la actividad científica, en contrario a la oposición cientificista. La contrastación de
hipótesis y teorías son solo un medio para obtener mayor dominio de los fenómenos. Y la ciencia pura, es un momento de un proceso
mayor que busca el control de la naturaleza.
Toda investigación científica posee determinados intereses. La imagen del científico solitario haciendo pruebas no responde a la
conformación actual de la ciencia del capitalismo contemporáneo. Hoy, los inversores tienen un componente no exclusivamente
humanitario. Lo que impulsa las investigaciones, es muchas veces, la lógica de dominación de la naturaleza, o la lógica de
maximización del capital.
La inversión en la ciencia pura tardará más en redituar, pues será necesario profundizar en aspectos teóricos que no tiene utilidad
inmediata. Los conocimientos básicos de la ciencia pueden retroalimentar el saber teórico (ciencia pura), pero constituyen la
posibilidad inmanente de su utilización para fines prácticos.
Para el anticientificismo, la búsqueda del saber está relacionada a compromisos sociales. Porque la misma ciencia es un producto
social y tiene consecuencias que el científico debe prever. Los científicos son responsables, junto con los demás participantes de la
actividad científica, de los usos que se harán de sus investigaciones, por los riesgos asumidos y por las consecuencias sociales de la
aplicación de saberes.
Políticas científicas
Hasta ahora no nos hemos preguntado quién o quiénes financian la actividad científica ni cómo lo hacen. Tampoco nos preguntamos
qué objetivos u objetos de investigación deberían financiarse. En suma, no nos hemos preguntado por la política científica.
Política científica medidas públicas que adopta un Estado para fomentar el desarrollo de la actividad científica y tecnológica e
impulsar la innovación, con el fin de poder utilizar los resultados de la investigación para el crecimiento y desarrollo del país. En este
sentido, es un tipo de política pública cuyo objeto específico es la ciencia.
David Guston la define como un contrato social en el que los políticos acuerdan con la comunidad científica que le proveerán los
recursos necesarios (financiar) dejando que la comunidad científica decida a qué investigador irán esos fondos. A cambio, los políticos
esperan obtener beneficios tecnológicos no especificados de parte de la comunidad científica.
Esta manera de pensar la relación no es siempre útil para despejar las siguientes dificultades:
1) Contar con recursos para financiarla investigación y la promoción de la actividad científica.
2) Determinar qué investigaciones promoverán un mayor beneficio a la sociedad.
Esta definición de política científica abre dos líneas de reflexión diferenciadas por Albornoz:
Una refiere a cómo se den las influencias de la política en la ciencia (cómo el poder fáctico y político interviene en la
investigación científica).
Otra se orienta a evaluar cuáles son las instituciones e instrumentos que utilizan los gobiernos para operar en la política
científica,
Nos dedicaremos a la primera reflexión. ¿A qué nos referimos cuando decimos que la política científica está atravesada por una
cuestión de poder? Básicamente, a que la implementación de una política científica determinada depende de decisiones políticas
condicionadas por cuestiones de contexto e históricas.
A lo largo de la historia de la ciencia, los primeros casos claros del condicionamiento histórico-contextual se ven ejemplificados en
los mecenas (familias poderosas que financiaban y protegían a científicos y artistas).
Página 45 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Sin embargo, se suele considerar que la política científica, tal como la conocemos hoy, nace a finales de la Segunda Guerra Mundial.
A partir de ahí, los gobiernos de los países industrializados comprendieron la importancia de movilizar sus recursos científicos para sus
objetivos políticos, como lo ilustra el caso del Proyecto Manhattan, que terminó en la creación de una bomba atómica (proyecto de
conjugación particular de intereses del gobierno, los militares, la industria y la comunidad científica).
Proyecto Manhattan
Preocupaciones de los Aliados durante la SGM, era si Alemania estaba desarrollando una bomba atómica. Luego se demostró que tal
temor era falso, ya que los científicos alemanes habían cometido u error de cálculo, y habían informado a los militares que su
confección era imposible.
Antes de conocer esto, el temor dio impulso a Gran Bretaña, Estados Unidos y Canadá al financiamiento del proyecto Manhattan. Los
primeros pasos para la creación de la bomba 1940 por dos científicos alemanes. Sin embargo, debido al riesgo de una invasión
alemana a Inglaterra, varios de los físicos involucrados se vieron forzados a emigrar y continuar con las investigaciones en Estados
Unidos.
Entro los que huyeron estaba Oliphant, quien en agosto de 1941 viajó a EEUU para dar un informe sobre el proyecto. Allí convenció a
Bush (asesor científico de la administración de Roosevelt) acerca de la importancia de financiar la investigación. El 6 de diciembre de
1941, Roosevelt aprobó la asignación de fondos para esta investigación y la creación del proyecto Manhattan.
Responsable del proyecto Leslie Groves (larga trayectoria dirigiendo grandes proyectos).
Diseño de la bomba Julius Robert Oppenheimer (físico estadounidense)
Culminación del trabajo cooperativo prueba realizada en el desierto de Alamogordo, Nueva México. El 16 de julio de 1945, allí, se
probó la eficiencia de la bomba de plutonio.
6 de agosto de 1945 bomba de uranio sobre Hiroshima.
Tres días más tarde bomba de uranio sobre Nagasaki.
Provocaron l rendición de Japón fin SGM.
Los primeros lineamientos de la política científica
Un año antes de la finalización de la SGM, Roosevelt solicitó a Bush la elaboración de un informe sobre cómo transformar el
conocimiento científico desarrollado en tiempos de guerra para ser aplicado en tiempos de paz. En la carta incluía las siguientes
preguntas:
1) ¿Qué puede hacerse, de manera coherente con la seguridad militar y con la aprobación previa de las autoridades militares,
para hacer conocer al mundo lo más pronto posible las contribuciones que durante nuestro esfuerzo bélico hicimos al
conocimiento científico?
2) Con especial referencia a la guerra de la ciencia contra la enfermedad, ¿qué puede hacerse hoy para organizar un programa a
fin de proseguir en el futuro los trabajos realizados en medicina y ciencias relacionadas?
3) ¿Qué puede hacer el gobierno hoy y en el futuro para apoyar las actividades de investigación encaradas por organizaciones
públicas y privadas?
4) ¿Puede proponerse un programa eficaz para descubrir y desarrollar el talento científico en la juventud norteamericana, de
modo que sea posible asegurar la continuidad futura de la investigación científica en este país, en un nivel comparable al
alcanzado durante la guerra?
El informe elaborado por Bush como respuesta a estas interrogantes llevó el título Ciencia, la frontera sin fin. Constituye un
documento fundamental acerca de cómo debe ser la política científica: cuáles deben ser los objetivos, el financiamiento, el papel de
los científicos y del Estado.
Presentó un modelo de política científica llamado “modelo lineal de innovación y desarrollo”.
Lineal porque parte del supuesto de que hay un camino natural de progreso desde la ciencia básica hacia la ciencia aplicada y el
desarrollo tecnológico, que resultaría en mejoras sociales y económicas.
Según la propuesta, la política científica tiene que estar orientada a financiar las investigaciones en ciencia básica. Bush consideraba
que la ciencia básica era la que creaba la mayoría de los conocimientos y proporcionaba las bases para el progreso tecnológico.
Según Bush, el Estado, junto con el apoyo privado, debía financiar la ciencia básica a través de institutos de investigación y
Universidades. Esto se basaba en la idea de que los gobiernos tienen la obligación de financiar la actividad científica con el objetivo de
Página 46 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
obtener mejoras sociales y económicas. El informe señalaba que las instituciones de investigación debían permanecer autónomas y
sin control gubernamental con respecto a los temas de investigación.
Bombas de Hiroshima y Nagasaki enseñaron que era preciso limitar la intervención del poder político y militar sobre la actividad
científica.
Importancia del informe marcó el surgimiento de una política para la ciencia coordinada por Estado. Este informe permitió
reflexionar sobre los problemas que debió enfrentar Estados Unidos después de la guerra y de las problemáticas que cualquier
política científica debe encarar.
Las políticas científicas deben ser planificadas. Esto es, deben ser sostenidas durante un largo plazo para alcanzar los objetivos
propuestos. Tal planificación debe tener en cuenta los siguientes factores:
1) El monto total de la inversión en investigación y desarrollo.
2) La decisión sobre los objetivos de la investigación.
3) La organización interna del sistema de investigación.
4) La aplicación de los resultados de la investigación, es decir, la transferencia de ellos hacia los sectores productivos.
5) La promoción y organización de relaciones científicas internacionales.
¿Qué investigar?
Son muchas las preguntas que surgen al pensar qué proyectos debe financiar un Estado. Así como la cantidad de recursos que un país
destina a la investigación científica en una decisión política, dado que el presupuesto es siempre finito, también lo es la elección de
cómo deben distribuirse esos recursos entre sus investigadores. De acuerdo con la pregunta de si deben financiarse proyectos de
ciencia aplicada o básica, existen dos posturas: prioridad de ciencia aplicada y prioridad de ciencia básica.
Perspectiva practicista: prioridad de ciencia aplicada
La perspectiva practicista afirma que se debe priorizar el financiamiento de la ciencia aplicada ya que la ciencia debe estar
explícitamente al servicio de la sociedad. Por lo tanto, la investigación científica debe contribuir directamente a resolver problemas
prácticos vinculados al desarrollo económico y social del país.
Nos hallamos acá frente a una nueva definición de política científica como contrato social la autonomía de los científicos a la hora
de decidir qué investigar o no se ve erosionada porque su libertad de elección temática debería estar supeditada a las demandas
concretas de la sociedad. Según esta posición entonces, la política científica de un país debe ser diseñada prioritariamente en función
de los intereses y urgencias nacionales. Esto es, sus intereses económicos y sociales.
Entre los autores que se inscriben en esta perspectiva se encuentran representantes de la corriente “Pensamiento latinoamericano en
ciencia, tecnología y desarrollo” (PLACTED), como Jorge Sábato y Amílcar Herrera.
Perspectiva cientificista: prioridad de la ciencia básica
Bunge, representante del cientificismo, ha sostenido que debe darse prioridad a la financiación de la ciencia básica. Esto parte del
supuesto de que las investigaciones en ciencia básica traerán beneficios en un futuro no especificado. Según Bunge: “La ciencia básica
es valiosa en sí misma, porque nos permite comprender el mundo, y no solo porque nos permite transformarlo. La ciencia aplicada,
en cambio, no existe sin la pura”.
Representante de esta perspectiva Bernardo Houssay, premio Nobel de Medicina y primer presidente de CONICET.
Críticas a la postura practicista que prioriza la financiación de la ciencia aplicada
A primera vista, priorizar el financiamiento de proyectos en la ciencia aplicada pareciera ser insensible a la propia historia de las
múltiples y prolíficas relaciones entre ciencia básica y aplicada, entre ciencia y tecnología. La historia muestra que los más grandes
descubrimientos de la humanidad derivaron de investigaciones que parecían no conducir a nada inmediato. En esta dirección, la
investigación en ciencia básica ha traído toda clase de beneficios a largo plazo para la humanidad.
Sin embargo, quienes defienden esta tesis, no desconocen i esta historia ni la importancia que la investigación básica y de su
autonomía. ¿Qué argumento ofrecen, entonces, a favor de la ciencia aplicada en detrimento de la financiación de la investigación
básica?
Suelen considerar que el problema de la financiación de ciencia básica reside en que sus beneficios no aparecen ser inmediatos. Los
beneficios a largo plazo no compensarían las pérdidas en el costo de oportunidad de no invertir prioritariamente en ciencia aplicada.
Página 47 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
De todas formas, no pretenden abandonar la investigación básica, sino que dejarla en manos de grandes potencias capaces de asumir
el costo. Por ejemplo, Estados Unidos. Estas naciones si deben invertir en la investigación que, a largo plazo, impulsará los avances
científicas en algún futuro incierto.
Críticas a la postura cientificista que prioriza la financiación de la ciencia básica
Los que sostienen que se deben financiar los proyectos de ciencia básica, enfrentan una serie de objeciones de tipo político en
contextos menos desarrollado, como Latinoamérica. Estas sociedades enfrentan grandes núcleos de pobreza, hay una escaza y
desigual calidad de servicios, y sus instituciones son débiles. ¿Vale la pena financiar la ciencia básica que restará recursos para la
solución de estos problemas? Hay diferentes respuestas a esta interrogante:
Podemos pensar en la libertad de investigación de los científicos. La elección temática pareciera reducirse con esta postura
porque no podrían desarrollar la creatividad necesaria para una rica investigación. Es conocido que muchos investigadores
terminan migrando en busca de mejores oportunidades. Esto casa que los Estados utilicen de manera ineficiente sus
recursos. Porque invierten en la formación de científicos pero no ofrecen incentivos para que esa formación sea volcada en
nuevas generaciones o proyectos.
Si se habla de eficiencia y motivos económicos, pareciera más económico financiar la investigación básica que la aplicada.
Por otro lado, los países en desarrollo están condenados a trabajar los temas y agendas marcadas por los países centrales,
las cuales no siempre responden a un bien común generalizable.
Por último, cuando se considera la ciencia desde una perspectiva utilitarista, no se considera que también es un elemento de
cultura. El desconocimiento de su función social desalienta la independencia intelectual y la libertad de elección de la
población.
¿Deben financiarse las ciencias sociales y humanas?
Los argumentos a favor de la ciencia básica no alcanzan para responder esta cuestión. Si bien tanto las ciencias sociales como las
humanas son ciencias básicas, hay una diferencia profunda entre ellas. Como ya consideramos, una razón a favor de la investigación
básica es que, a largo plazo, resultará de utilidad y ofrecerá beneficios al conjunto de la ciudadanía.
2008 Crítico literario Stanley Fish publicó una nota muy provocativa en su blog de New York Times, titulada “¿Nos salvarán las
humanidades?”. Se preguntaba justamente por la aplicación de los resultados de las investigaciones en disciplinas humanísticas y
ciencias.
Aquí es importante tener en cuenta que los sistemas científicos, no solo financian investigaciones de ciencias sociales como Economía,
Sociología o Historia, sino que también financian estudios que suelen denominar “Humanidades”.
“Humanidades” estudios filosóficos, de literatura y crítica del arte.
Fish sostiene que las Humanidades “no hacen nada” si por “hacer” entendemos que produzcan efectos en el mundo. Dado esto, no
producen ningún tipo de transferencia de los resultados de su investigación en la ciudadanía en general. Su valor, entonces, es
puramente intrínseco, ya que solo pueden considerar su valor los propios investigadores en ciencias sociales y humanísticas.
El artículo recibió varias respuestas:
Harry Elam señaló la influencia de diferentes producciones artísticas para motorizar y producir cambios sociales.
Distintas ciencias sociales (múltiples ejemplos) generan grandes transferencias de sus resultados en las vidas cotidianas de los
individuos y las sociedades.
Estos ejemplos se enmarcan en lo que Federico Vasen resaltó sobre el rol que juegan las Humanidades en la formulación de las
políticas públicas “Las Humanidades pueden aportar importantes puntos de vista a cuestiones relacionadas con los aspectos
éticos, sociales, y legales de la investigación científica y la innovación tecnológica”.
Por último Martha Nussbaum (filósofa) rescata la importancia de las ciencias sociales y humanidades en la educación. Según ella,
son estas las que conforman los cimientos de una buena ciudadanía, puesto que son imprescindibles para desarrollar la inteligencia y
la capacidad crítica, la empatía, el pensamiento autónomo, y los medios para poner en cuestión las tradiciones irracionales o la
presión de los pares.
Esto permite a la ciudadanía reflexionar sobre su oren de valores, sus prácticas y, eventualmente, modificarlas si las consideraran
injustas.
En este sentido, una política científica que no atribuya un lugar importante al financiamiento de las ciencias sociales está
condenada a asumir sus prácticas y sus valores como inmutables.
Página 48 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Comunidades científicas: estructura y financiación
Recursos y financiación
Hemos visto que la ciencia, desde un punto de vista abstracto, es un conjunto de teorías con el propósito de explicar el universo que
nos rodea. Pero además, tiene un componente más concreto y social, porque es realizada por los científicos.
Para ser llevada a cabo, la ciencia necesita recursos humanos y materiales.
Recursos humanos personas que llevan a cabo la investigación científica.
Recursos materiales salarios y equipamiento para llevar a cabo las investigaciones.
Los recursos pueden provenir de distintas fuentes. En general, de empresas, universidades o de agencias del Estado. La mayoría de
los países tienen sistemas mixtos donde distintos sectores aportan su cota para la investigación.
Formas de medir la inversión de la ciencia
¿Cómo podemos saber qué país invierte más o menos en ciencia? En general, se utilizan dos medidas.
Medida absoluta indica cuánto invierte un determinado país en desarrollo científico y tecnológico. Esta medida es útil
pero no necesariamente sirve para evaluar comparativamente la política de cada país. Algunos países invierten menos dinero
por el simple hecho de que su economía es más pequeña.
Medida relativa toma en cuenta la cantidad de dinero invertido en relación con el PBI del país.
PBI Producto Bruto Interno mide la producción que se realiza dentro de un país a lo largo de un año.
La medida relativa es la que suele tomarse en cuenta. Argentina suele estar en el rango de 0,7%, porcentaje alto comparado con Chile
o Uruguay, no con Brasil. Sin embargo, los países desarrollados invierten considerablemente más. Pero, porque, en los países más
desarrollados, la inversión proviene mayoritariamente de empresas privadas, mientras que en los países en desarrollo, la inversión
suele provenir del Estado.
Modos de legitimación de la ciencia
¿Cómo se determina quién es un buen científico y quién no lo es? En general, puede determinarse de dos formas:
Criterios tecnológicos se refieren a la contribución de la persona en cuestión a la innovación tecnológica. Usualmente,
pueden medirse en la importancia y la cantidad de patentes del investigador en cuestión. Una patente es un registro con
nombre y apellido de una idea o método, tal que el sujeto se registra como “inventor” de ese producto, lo que garantiza a
que nadie pueda vender su idea sin su autorización.
Criterios académicos refieren a la contribución de las personas en cuestión al conocimiento científico. Esto tiene la forma
de artículos cortos publicados en revistas especializadas. Un artículo científico es un texto donde se intenta defender alguna
hipótesis y se muestran evidencias que se hallaron a favor. Es muy difícil publicar en una revista porque hay muchas
revisiones.
Las comunidades científicas tiene criterios para determinar la calidad de estas publicaciones existen rankings de revistas que
determinan cuáles son más prestigiosas.
Las agencias del Estado o las universidades con perfil de investigación suelen basarse en estos criterios para determinar quién
consigue un cargo y quién no.
Comunidad científica argentina
En Argentina, la actividad científica y tecnológica está mayoritariamente compuesta por organismos e instituciones del Estado:
Universidades nacionales, agencias de investigación, institutos de investigación y empresas de innovación tecnológica.
Hay decenas de universidades nacionales UBA es una de las más prestigiosas.
Los institutos de investigación se dedican a un tema específico. Algunos de los más conocidos son:
INTI: Instituto Nacional de Tecnología Industrial.
INTA: Instituto Nacional de Tecnología Agropecuaria.
CONEA: Comisión Nacional de Energía Atómica.
IBYME: Instituto de Biología y Medicina Experimental.
Página 49 de 50
Constanza Romero IPC – UBA XXI – Primer Cuatrimestre 2020
Entre las empresas de innovación tecnológica, la más destacable es INVAP, que desarrolla tecnología nuclear, espacial,
industrial y médica. Una empresa dependiente de INVAP es ARSAT, la primera empresa argentina en desarrollar satélites y
ponerlos en órbita.
Agencias de investigación (a diferencia de los institutos), tienen un carácter más universal y pretenden abarcar todas las
áreas de la ciencia. La más importante es el CONICET (Consejo de Investigaciones Científicas y Técnicas). Es un importante
empleador de científicos en dos sentidos:
Otorga becas a graduados para desarrollar estudios de posgrado.
Incluye la carrera de investigador científico (un puesto académico para realizar investigación científica).
Ambos son otorgados con criterios específicos:
En primer lugar se establece una división entre temas estratégicos para el país y temas abiertos. Dentro de los
temas abiertos, hay una división general entre áreas. DE este modo, ningún tema queda excluido.
Segundo, se tiene en cuenta la prioridad geográfica. El 30% de los puestos son otorgados para trabajar en zonas
con baja densidad de investigadores, para evitar una concentración excesiva en grandes ciudades del país.
Tercero, las becas se suelen otorgar teniendo en cuenta el promedio en las carreras. Mientras que, para la
carrera, las exigencias son mayores. Se suele tener en cuenta la calidad como investigador. Es muy difícil
obtener cualquiera de las dos.
Si bien los métodos de legitimación de un científico son en cierto punto universales, cada país tiene un sistema científico y
tecnológico distinto. Esto dependerá de su sistema educativo y de su estructura productiva. El sistema argentino no se basa en una
inversión particularmente fuerte, pero se apoya en instituciones públicas, como universidades, institutos y agencias de
investigación.
Página 50 de 50