Modulo 5

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 13

HIPOTESIS

OBJETIVOS

 Reconocer la estructura de la hipótesis.


 Aprender a formular hipótesis.
 Entender los diferentes tipos de hipótesis.
 Poder clasificar los errores y diferenciar sus implicancias.

EJES TEMÁTICOS

1. Elementos estructurales de las hipótesis.

2. Criterios para la formulación de hipótesis

3. Hipótesis nula y alternativa

4. Errores tipo I y tipo II. Niveles de significación


MARCO TEÓRICO

1. ELEMENTOS ESTRUCTURALES DE LAS HIPÓTESIS.

Sabemos que una hipótesis es una suposición o una proposición que establece la
existencia de una relación entre dos o más variables expresadas como hechos,
fenómenos, factores o entidades y que debe ser sometida a prueba para ser aceptada o
rechazada. Podemos inferir que la hipótesis constituye un enlace entre la teoría y la
investigación, debido a que sirve de directriz en la investigación científica y, luego de su
comprobación, genera nuevos conocimientos que integran el conocimiento científico.

Las hipótesis en la investigación no se limitan a orientar solo la compilación de los datos,


sino que buscan establecer relaciones significativas entre fenómenos o variables,
apoyándose en el conjunto de conocimientos organizados y sistematizados.

Podemos enunciar tres tipos de hipótesis:

a. Hipótesis Descriptivas que involucran una sola variable. Son las que señalan
ciertos hechos o fenómenos en la población, constituyen afirmaciones sujetas a
comprobación, pero no explican el fenómeno en cuestión. Para su comprobación
se recurre a evaluar si la variable en cuestión se presenta efectivamente en la
muestra o población en estudio. Como ejemplo podemos enunciar: “Los
estudiantes de los últimos años en una carrera universitaria tienen mayor
rendimiento académico que los estudiantes de los primeros años”. Evidentemente,
la forma de comprobación de esta hipótesis consiste en recolectar datos en la
población universitaria y evaluar la variable indicada a través de algún método
estadístico (como por ejemplo el porcentaje).

b. Hipótesis descriptivas que relacionan dos o más variables en forma de asociación o


covarianza. En este tipo de hipótesis, un cambio o alteración en una o mas
variables independientes produce un cambio proporcional, directo o inverso, en la
variable dependiente, sin embargo, la relación que se establece no es de
casualidad. Este tipo de hipótesis se puede plantear de la siguiente forma: a mayor
o menor X..., mayor o menor Y. Estas proposiciones tampoco permiten explicar los
fenómenos, pues la relación que se establece es de asociación. También reciben el
nombre de hipótesis estadísticas.
Veamos un ejemplo: “Cuanto mayor es el nivel de ingresos de la gente, mayor es el
nivel de estudios alcanzado”.
La relación que se establece en este tipo de hipótesis no es casual, puesto que
ambas variables pueden ser causa y efecto

c. Hipótesis que relacionan dos o más variables en términos de dependencia. Estas


hipótesis son de relación causal y permiten explicar y predecir eventos futuros.
Para establecer hipótesis de relación causal se requiere cumplir con las siguientes
condiciones:
i. Existencia de variación concomitante (covariación), esto es, si varia la
variable causal o independiente habrá un cambio en la variable dependiente
de acuerdo a la forma señalada por la hipótesis.
ii. La covariación establecida no es producto de otros factores "extraños" o
aleatorios, por lo que la relación establecida entre las variables sucede
efectivamente en la realidad.
iii. La variable causal o independiente ocurre antes que la variable efecto o
dependiente. Las hipótesis descriptivas que relacionan dos o más variables
en forma de asociación o covarianza pueden reunir solo los dos primeros
requisitos.

Un ejemplo de este tipo de hipótesis puede ser: “a mayores ingresos mayores


gastos mensuales” , o “Los alumnos que estudian durantes dos o más horas diarias
tienen mayor rendimiento académico que los que estudian menos horas”.

Las hipótesis tienen tres elementos estructurales:

a. Las unidades de análisis, que pueden ser los individuos, grupos, viviendas,
instituciones, etc.
b. Las variables, es decir, las características o propiedades cualitativas o cuantitativas
que presentan las unidades de análisis.
c. Los elementos lógicos, que relacionan las unidades de análisis con las variables y
estas entre si.

Ejemplo:

“Los niños que nacen con circular de cordón umbilical desarrollan problemas de conducta,
siendo irritables y con tendencia a la hiperactividad en la primera infancia”.

En este caso la unidad de análisis está conformada por los niños. Las variables evaluadas
con dos, la circular de cordón y el tipo de conducta irritable e hiperactiva. Los elementos
lógicos involucrados están mencionados en el desarrollo o no de estas conductas.
2. CRITERIOS PARA LA FORMULACIÓN DE HIPÓTESIS

Veamos cuáles son los principales requisitos para formular hipótesis:

• Los enunciados deben expresarse en forma positiva.


Ejemplo correcto: El hábito de fumar favorece la expresión de ciertos
oncogenes.
Ejemplo incorrecto: El hábito de fumar no está vinculado a los accidentes
de tránsito.
• Es necesario que las variables independientes y dependientes estén
debidamente planteadas.
• La relación de las variables planteada en la hipótesis si puede ser
sometida a la prueba de hipótesis. Las relaciones deben ser mensurables
o potencialmente verificables.
• La hipótesis deber ser capaz de explicar y predecir los hechos y
encontrar una relación entre ellos.
• La hipótesis se refiere a variables y unidades de análisis en un solo
ámbito de la realidad.
• Los conceptos de las hipótesis deben ser claros y precisos. Es
importante que las hipótesis sean objetivas y no impliquen juicios de valor
(mejor que, por ejemplo).
• Es necesario que se prevean las técnicas para poder contrastar una
hipótesis, es decir, poder comprobarla.
• Deben estar directamente relacionadas con el marco teórico de la
investigación y derivarse de él.
3. HIPÓTESIS NULA Y ALTERNATIVA

Dentro de los tipos de hipótesis posibles en un trabajo científico analizaremos las


siguientes:

Hipótesis nula (H0): Para todo tipo de investigación en la que tenemos dos o más
grupos, se establecerá una hipótesis nula. La hipótesis nula es aquella que nos dice que
no existen diferencias significativas entre los grupos.

Analicemos el siguiente ejemplo para comprender mejor su significado:

Un investigador cree que el entrenamiento en la resolución de problemas les confiere


ventajas a los estudiantes en el momento de aprobar sus exámenes. Para contrastar su
hipótesis, elabora un experimento donde somete a un grupo de jóvenes a un
entrenamiento intensivo en la resolución de ejercicios y los compara con otro grupo
semejante, pero sin el mencionado entrenamiento (a este segundo grupo lo llamaremos
grupo control).
La hipótesis nula señalará que no hay diferencia en el desempeño en los exámenes del
grupo de jóvenes que recibió el entrenamiento y el que no lo recibió.

Una hipótesis nula es importante por varias razones:

a. Es una hipótesis que se acepta o se rechaza según el resultado de la


investigación.

b. El hecho de contar con una hipótesis nula ayuda a determinar si existe


una diferencia entre los grupos, si esta diferencia es significativa, y si no
se debió al azar.

Como podemos observar, la hipótesis nula es contraria a la hipótesis de trabajo. De


hecho, al formular esta hipótesis, se pretende negar la variable independiente. Es decir,
se enuncia que la causa determinada como origen del problema fluctúa, por tanto, debe
rechazarse como tal.

Hipótesis alternativa: Muchas veces, para responder a un problema, necesitamos


proponer otras hipótesis donde aparezcan variables independientes diferentes. Estas
hipótesis, llamadas alternativas, intentan explicar el mismo fenómeno observado de otra
forma, un investigador debería elegir entre ellas cuáles y en qué orden se tratará su
comprobación.
En nuestro ejemplo anterior, podríamos intentar verificar otras variables, como por
ejemplo el tiempo de estudio, para intentar comprobar la hipótesis inicial.

El uso y formulación correcta de las hipótesis le permiten al investigador poner a prueba


los aspectos de la realidad que intenta explicar, disminuyendo la distorsión que pudieran
producir sus propios deseos o prejuicios, esto implica, objetivizar los enunciados. Las
hipótesis pueden ser sometidas a prueba y demostrarse como probablemente correctas o
incorrectas sin que interfieran los valores o creencias del individuo.
4. ERRORES TIPO I Y TIPO II. NIVELES DE SIGNIFICACIÓN.

Como hemos explicado hasta el momento, el investigador observa un problema e intenta


explicarlo a través de la formulación de hipótesis. Para ello intentará definir las variables
independientes y dependientes en su estudio y, a través de ellos, formulará las hipótesis
nula y alternativa que deberán ser contrastadas. Sin embargo, no siempre los resultados
son tan obvios como para descartar hipótesis falsas y, como en todos los órdenes de la
vida, es posible cometer errores.
En el campo de la ciencia, estos errores están tipificados y se conocen como errores de
tipo I y tipo II. Un error de tipo I es aquél que se comete cuando el investigador rechaza la
hipótesis nula (H0) cuando ésta es verdadera. Sería como aceptar un resultado como
verdadero siendo éste en realidad falso.
Los errores de tipo II ocurren cuando el investigador acepta la hipótesis nula (H0) y ésta
es falsa.
Veamos un ejemplo:

Hipótesis

“Los bebés que son alimentados con leche materna los primeros 3
meses de vida presentan una reducción del 30% en las
hospitalizaciones por gastroenteritis durante el primer año de vida”

La hipótesis nula señalará que no existe diferencia entre el porcentaje de


hospitalizaciones en bebés alimentados con leche materna con respecto a los bebés
alimentados con sustitutos.

En este ejemplo, el error de tipo I nos podría llevar a observar una diferencia cuando en
realidad no existe ninguna. Esto implica rechazar la hipótesis nula (no existe diferencia….)
cuando en realidad esta es verdadera.

Siguiendo el mismo razonamiento, un error de tipo II implicaría aceptar que no existe


diferencia cuando en realidad si existe, esto es, aceptar la hipótesis nula cuando esta es
falsa.

Recordando un poco nuestros conocimientos de bioestadística, podemos ver que


podemos representar nuestros datos en curvas que contienen regiones críticas y regiones
de rechazo. Cuando la muestra que estamos evaluando pertenece a la región de rechazo
implica que debemos rechazar la hipótesis nula. Si, en cambio, entra en la región de
aceptación, debemos aceptarla. El nivel de significancia (indicado con la letra alfa “ ”),
generalmente acordado como de 0.01 o 0.05, representa la máxima probabilidad de
rechazar la hipótesis nula cuando esta es verdadera. Por lo tanto mide la posibilidad de
equivocarse al rechazar la hipótesis nula (error de tipo I).

Analicemos el siguiente artículo que revisa de manera crítica la aplicación de los métodos
de contraste de hipótesis: (Tomado de www.scielosp.org)
Revista Panamericana de Salud Pública.

Rev Panam Salud Publica vol.15 no.5 Washington May 2004


Los valores P y los intervalos de confianza: ¿en qué confiar?
María Luisa Clark
Jefa de Redacción, Revista Panamericana de Salud Pública

Las pruebas de hipótesis, que también se conocen por pruebas de significación


estadística o pruebas de la hipótesis de nulidad (o de la hipótesis nula), forman parte
fundamental del material que se imparte en los cursos de estadística universitaria. Una
vez que aprende a manejarlas, el estudiante o investigador no vacila en aplicarlas
libremente, pese a que hoy en día la mayoría de los estadísticos desaconsejan su uso
debido a las graves deficiencias de estas pruebas y a su dudosa utilidad en comparación
con otros métodos de análisis inferencial.

Los primeros argumentos en contra del uso de pruebas de hipótesis aparecieron durante
la primera mitad del siglo pasado con carácter esporádico (1, 2), pero cuando en 1986
British Medical Journal dio a conocer su postura al respecto, el debate en torno a ellas
cobró un ímpetu que ha quedado evidenciado en los centenares de artículos posteriores
que contrastan las ventajas de los intervalos de confianza con las carencias del valor P (3-
6). Lo cierto es que estas últimas, raras veces abordadas en la sala de clase, son
considerables desde el punto de vista de los fines que persigue un investigador. Hoy por
hoy se reconoce que los intervalos de confianza aventajan a las pruebas de hipótesis
como instrumento analítico para muchos tipos de investigación, entre ellos los estudios
observacionales y experimentales relacionados con las ciencias médicas y sociales, con
el resultado de que la mayoría de las revistas biomédicas alientan a sus autores a
proporcionar intervalos de confianza en lugar de valores P.

Fáciles de calcular con los paquetes estadísticos modernos, los valores P ejercen un
poderoso atractivo sobre el investigador por la exigua reflexión que exigen y la falsa
sensación de seguridad que confieren. Un solo número encierra la clave que determina si
los resultados de un estudio han de sumarse a las pruebas a favor o en contra de una
hipótesis, y el investigador que obtiene resultados significativos suele sentirse satisfecho
de haber logrado su meta, sin darse cuenta de que no ha conseguido mejorar en modo
alguno su comprensión del fenómeno que estudia. Para entender a fondo esta afirmación,
conviene examinar qué es un valor P.

Comencemos con un ejemplo elemental. Un investigador sospecha que las personas


expuestas a un factor determinado están en mayor riesgo de contraer cierta enfermedad
que las personas que no lo están y se propone demostrarlo matemáticamente. Su
hipótesis de trabajo es que hay una diferencia entre el grupo expuesto y el grupo sin
exposición (grupo testigo) en lo referente a la frecuencia de la enfermedad en cuestión,
pero para poder demostrarlo valiéndose de una prueba de hipótesis, tiene que empezar
por plantear la hipótesis contraria (hipótesis nula o de nulidad), es decir, que no hay
diferencia alguna entre los grupos comparados en lo referente a la frecuencia de la
enfermedad de interés. La finalidad es tener bases numéricas para descartar la hipótesis
de nulidad y poder dar por verdadera la hipótesis alterna, confirmándose así que, muy
verosímilmente, la frecuencia de la enfermedad de interés en los grupos comparados sí
es distinta.

Una vez planteada la hipótesis de nulidad, es preciso que el investigador determine el


margen de equivocación que está dispuesto a tolerar y fije el llamado valor de
significación o valor alfa (a), para luego calcular el valor P. En términos sencillos, este
último valor no es otra cosa que la probabilidad de observar la diferencia encontrada entre
los grupos o una más extrema si es correcta la hipótesis de nulidad.

Si el valor P es menor del valor a fijado por el investigador (0,05 la mayor parte de las
veces, o en ocasiones 0,01 ó 0,10), se descarta que los resultados observados puedan
atribuirse a mero azar si en realidad no hay una diferencia, o, dicho de otro modo, la
incompatibilidad entre los datos observados y la hipótesis de nulidad se considera lo
suficientemente grande como para poder descartar esta hipótesis. En cambio, si el valor P
es a o mayor, se considera que no hay suficientes indicios para descartar la hipótesis de
nulidad.

Varios errores fundamentales se asocian con el uso de pruebas de hipótesis cuando no


se entiende qué es lo que permiten calcular. Uno de ellos consiste en pensar que un valor
P de algún modo cuantifica la magnitud de la diferencia encontrada entre dos grupos
sometidos a comparación. En parte ello se debe a una confusión semántica, ya que en el
lenguaje común y corriente "significativo" equivale a "notable", "destacado" o "importante."
Pero un valor P, como hemos visto, no refleja en absoluto la magnitud de la diferencia que
el investigador encuentra, sino la probabilidad de haber observado esa diferencia si en
realidad no hay ninguna. Sobre la base de un resultado estadísticamente significativo se
puede concluir que un medicamento supera a otro en eficacia, pero no si es tanta su
superioridad que se justifique exponer al paciente a sus efectos secundarios, por ejemplo.
Para fines prácticos, lo que interesa es conocer la magnitud de la diferencia, para lo cual
el valor P carece por completo de utilidad.

Otra idea equivocada es que un valor P mayor de a confirma que la hipótesis de nulidad
es correcta, o que representa la probabilidad de que lo sea. Cabe aclarar que la
estadística, basada por entero en probabilidades y frecuencias, no cuenta con ninguna
herramienta que sirva para confirmar la hipótesis de nulidad. Siempre hay una posibilidad,
por remota que sea, de que a la luz de los datos una hipótesis de nulidad parezca
verdadera aun siendo falsa, por obra del azar (error tipo II). El no poder rechazar la
hipótesis de nulidad no equivale a poder confirmarla, y la diferencia entre una cosa y otra
influye decisivamente sobre las conclusiones que pueden derivarse de un estudio (7).

Mientras más grande una muestra, menor es la influencia del azar sobre los resultados y
menor la probabilidad de cometer errores de interpretación, y esto nos lleva a otro
disparate muy frecuente, que es el de afirmar, frente a un resultado sin significación
estadística, que el carácter reducido de la muestra explica la falta de significación. El
problema con esta afirmación es, precisamente, que es cierta para cualquier resultado y,
por ende, completamente vacía. En otras palabras, cuando una muestra es lo
suficientemente grande, cualquier resultado puede cobrar significación estadística, razón
de por sí suficiente para dudar del valor de estas pruebas.

Otra práctica muy difundida es el uso de valores de a fijados por convención, sin atención
a los antecedentes del problema particular que se examina y a las consecuencias
prácticas de tomar decisiones basadas en el uso de un nivel de significación u otro. El
investigador consciente busca información que tenga utilidad en la práctica y su elección
de a debe contemplar los fines de su estudio y el uso que tendrán sus resultados a la luz
de los conocimientos derivados de estudios anteriores. Los valores de a convencionales

son arbitrarios y carecen de respaldo teórico. Si P = 0,045, por lo general concluimos que
los resultados tienen significación; en cambio, concluimos que no la tienen cuando P =
0,050. ¡Dos conclusiones radicalmente distintas derivan de una diferencia de 0,005 en el
valor de P! Sin embargo, los resultados de metaanálisis se apoyan en buena medida
sobre estos cimientos endebles (1).

Para muchos especialistas las pruebas de hipótesis encierran un error conceptual que
reduce aun más su fiabilidad. Al tener que partir de la premisa de que la hipótesis de
nulidad es verdadera, toda prueba de hipótesis se basa en una suposición que raras
veces se cumple en la práctica. Hay incluso quienes argumentan que, en principio, la
mayoría de las hipótesis de nulidad son falsas, ya que en la vida real dos grupos nunca
son idénticos con respecto a una característica determinada (6, 8). La presunta falsedad a
priori de toda hipótesis de nulidad menoscaba, como es de suponer, la integridad de este
tipo de prueba.

Basta con lo señalado hasta ahora para entender por qué las pruebas de hipótesis gozan
de tan poca popularidad entre los expertos, pero si hubiese que escoger el defecto que
más descalifica su uso, este sería, sin duda, el primero que hemos señalado: la poca
información que aportan a la luz de lo que el investigador necesita saber. Los valores P no
miden la magnitud del efecto observado, como tampoco su precisión; es decir, no dan
ninguna idea de cuán confiable o fuerte es el efecto detectado en un estudio, ni permiten
saber cuánto variarían los resultados si el estudio se repitiese con distintas muestras. No
aportan información que lleve a acumular conocimientos útiles en términos prácticos ni a
formular nuevos postulados teóricos que marquen el rumbo de futuras investigaciones.
Dicho de otro modo, la significación estadística de un resultado no es ningún indicio de su
"significación" clínica, aunque a menudo las dos cosas se confunden (1). La interpretación
de un resultado a la luz de un valor P es una práctica mecánica e irreflexiva cuya
persistencia es difícil de comprender si se considera que los intervalos de confianza, que
le revelan al investigador el margen de error de sus resultados y la magnitud del efecto
que observa, fomentan la actividad analítica imprescindible para la evolución del
conocimiento científico. Veamos ahora qué es un intervalo de confianza y en qué
aspectos aventaja al valor P.

Un intervalo de confianza es un recorrido de valores, basados en una muestra tomada de


una población, en el que cabe esperar que se encuentre el verdadero valor de un
parámetro poblacional con cierto grado de confianza. La distribución de un parámetro
fisiológico en la población sirve de fundamento teórico para calcular estos intervalos.
Recordemos que en una distribución normal o gausiana, cerca de 68% de los valores se
encuentran en el intervalo abarcado por la media ± 1 desviación estándar (DE); más de
95% de los valores, en el intervalo abarcado por la media ± 2 DE; y más de 99% de los
valores, en el intervalo abarcado por la media ± 3 DE. Sobre esta base, un intervalo de
confianza de 95%, que es el que se busca con mayor frecuencia, se obtiene sumándole y
restándole a la media el error estándar multiplicado por 1,96. Si quisiese calcularse un
intervalo de confianza de 99%, el error estándar se multiplicaría por 2,58. ¿Qué indica,
entonces, un intervalo de confianza de 95%? Que si el investigador repitiese su estudio en
las mismas condiciones pero con distintas muestras aleatorias, noventa y cinco de cada
cien veces obtendría intervalos que contendrían el verdadero parámetro poblacional y
cinco veces obtendría intervalos que no lo contendrían. En otras palabras, se puede tener
gran confianza en que el intervalo resultante abarca el valor verdadero, pues dicho
intervalo se ha obtenido por un método que casi siempre acierta. Esto no equivale a decir
que hay una probabilidad de 95% de que el verdadero valor se encuentre dentro del

intervalo, error de interpretación que es bastante común. La confianza deriva de la


aplicación de un método respaldado por lo que se sabe acerca de la distribución
poblacional de determinado parámetro fisiológico. El investigador que lo aplica contará
con información valiosa —la magnitud y precisión del efecto observado— que no puede
conseguir mediante un valor P.

Un intervalo de confianza posee la ventaja de que se puede calcular para cualquier valor.
Si se desea determinar si es verdadera la diferencia observada entre dos grupos, se
calcula el intervalo de confianza de 95% de la diferencia entre sus respectivas medias. Si
el intervalo abarca el valor cero, no se puede descartar que no haya una diferencia; si no
lo abarca, la probabilidad de que se esté observando una diferencia que en realidad no
existe se considera remota. La misma lógica se aplica al calcular el intervalo de confianza
de una razón de posibilidades o de un riesgo relativo, solo que en estos casos el valor 1
es el que indica la ausencia de una diferencia porque se trata de una proporción. No
obstante, si los intervalos de confianza solo se usaran de esta manera, entonces no se
diferenciarían en nada de las pruebas de significación. Podemos ver, nuevamente, que no
solo ofrecen mucha más información que los valores P, sino que abarcan a las pruebas
de significación y hasta podrían usarse como sucedáneos de ellas.

La precisión de los resultados guarda relación con el tamaño muestral y con la variabilidad
de los datos, de tal manera que cuanto más grande la muestra, más se acercarán los
resultados al verdadero valor poblacional y más estrecho será el intervalo de confianza.
Asimismo, mientras más grande sea la desviación estándar de los datos, menos precisos
serán los resultados y más ancho el intervalo de confianza. Un investigador no puede
controlar la desviación estándar, pero puede manipular el tamaño muestral para mejorar
la precisión y utilidad de sus resultados. Si lo juzga necesario, puede efectuar estudios
sucesivos con muestras cada vez mayores para llegar a conclusiones clínicas con mayor
certidumbre.

Esta larga disquisición nos trae al interesante estudio de Sarria Castro y Silva Ayçaguer
(9), "Las pruebas de hipótesis en tres revistas biomédicas: una revisión crítica", que se
publica en este número de la Revista Panamericana de Salud Pública/Pan American
Journal of Public Health (RPSP/PAJPH). Atentos al uso irreflexivo de pruebas de
hipótesis, los autores comparan tres revistas de salud pública, incluida la RPSP/PAJPH,
desde el punto de vista de la frecuencia con que los artículos publicados en ellas dan
valores P o intervalos de confianza. Sobre la base de los trabajos publicados en las tres
revistas de 1996 a 2000, los autores concluyen que se sigue abusando de las pruebas de
hipótesis e incurriendo en disparates hoy en día inadmisibles. También reparan en otros
errores que ya hemos mencionado: el uso de la palabra "significativo" en un sentido ajeno
al concepto estadístico de significación; la atribución de la falta de significación estadística
a una muestra demasiado pequeña; el uso automático de niveles a convencionales (0,05,
0,01), sin tener en cuenta los antecedentes del problema estudiado, entre otros. Por tales
motivos consideramos oportuno reiterar lo explicitado en la "Información para los autores"
publicadas en cada número de enero de la RPSP/PAJPH y en www.paho.org, al efecto de
sustituir o complementar los valores P con intervalos de confianza. También instamos a
nuestros autores a estar atentos a los errores comunes que suelen asociarse con el uso
de pruebas de hipótesis y la presentación de sus resultados.

Vaya también el agradecimiento de la redacción por la contribución de los doctores Sarria


Castro y Silva Ayçaguer a mejorar los estándares editoriales de nuestra revista. Los
lectores que deseen adentrarse en el tema aquí tratado encontrarán muy útiles las listas
de referencias que se proporcionan en las siguientes direcciones de Internet:
http://www.cnr.colostate.edu/~anderson/thompson1.html y http://www.cnr.
colostate.edu/~anderson/nester.html

REFERENCIAS

1. Berkson J. Some difficulties of interpretation encountered in the application of the chi-


square test. J Am Stat Assoc. 1938;33:52636.
2. Berkson J. Tests of significance considered as evidence. J Am Stat Assoc.
1942;37:32535.
3. Gardner MJ. Altman DG. Confidence intervals rather than P values: estimation rather
than hypothesis testing. Br Med J. 1986;292:74650.
4. Carver RP. The case against statistical significance testing. Harvard Educ Rev.
1978;48:37899.
5. Cohen J. The earth is round (p<.05). Am Psicol. 1994;49:9971003.
6. Anderson DR, Burnham KP, Thompson WL. Null hypothesis testing: problems,
prevalence, and an alternative. J Wildlife Management. 2000;64(4):91223.
7. Parkhurst DF. Interpreting failure to reject a null hypothesis. Bull Ecol Soc Am. 1985;
66:3012.
8. Johnson DH. Statistical sirens: the allure of nonparametrics. Ecology. 1995;76:1998-
2000.
9. Sarria Castro M, Silva Ayçaguer LC. Las pruebas de significación estadística en tres
revistas biomédicas en lengua española: una revisión crítica. Rev Panam Salud Publica.
2004; 15(5):3006.
Bertranou E. “Manual de Metodología de la Investigación Clínica”. Ed. Akadia. Bs.As.
1995.
Bunge, M. “La ciencia, su método y su filosofía”. Ed. Siglo XX. Buenos Aires, 1980.
Castiglia V. “Principios de Investigación Biomédica”. Bs.As. 1997.
Kimosky, G. “Las desventuras del conocimiento cient{ifico”. A. Z. Editora. Buenos Aires,
1997.

También podría gustarte

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy