Segundo Parcial Metodo 2
Segundo Parcial Metodo 2
Segundo Parcial Metodo 2
Hipótesis
Las hipótesis son guías para una investigación o estudio. Indican lo que tratamos de probar y se definen
como explicaciones tentativas del fenómeno investigado. Se derivan de la teoría existente y deben formularse
a manera de proposiciones. Son respuestas provisionales a las preguntas de investigación. Son el centro, la
medula o eje del método deductivo cuantitativo.
El hecho de que formulemos o no hipótesis depende de un factor esencial: el alcance inicial del estudio.
Las investigaciones cuantitativas que formulan hipótesis son aquellas cuyo planteamiento define que su
alcance será correlacional o explicativo, o las que tienen un alcance descriptivo, pero que intentan pronosticar
una cifra o un hecho. Los estudios cualitativos, por lo regular, no formulan hipótesis antes de recolectar datos.
Las hipótesis no necesariamente son verdaderas, y pueden o no comprobarse con datos. Son
explicaciones tentativas, no los hechos en sí.
En el ámbito de la investigación científica, las hipótesis son proposiciones tentativas acerca de las
relaciones entre dos o más variables, y se apoyan en conocimientos organizados y sistematizados. Una vez
que se prueba una hipótesis, ésta tiene un impacto en el conocimiento disponible, que puede modificarse y por
consiguiente, pueden surgir nuevas hipótesis.
Variables
Una variable es una propiedad que puede fluctuar y cuya variación es susceptible de medirse u
observarse. Ej: genero, atractivo físico, religión, agresividad verbal, etc.
Adquieren valor para la investigación científica cuando llegan a relacionarse con otras variables, es
decir, si forman parte de una hipótesis o una teoría. En este caso se las suele denominar constructos o
construcciones hipotéticas.
¿De donde surgen las hipótesis?
Bajo el enfoque cuantitativo es natural que las hipótesis surjan del planteamiento del problema que se
vuelve a evaluar y si es necesario se replantea después de revisar la literatura. Es decir, provienen de la revisión
de la literatura. Pueden surgir del postulado de una teoría, del análisis de ésta, de generalizaciones empíricas
pertinentes a nuestro problema de investigación y de estudios revisados o antecedentes consultados.
La revisión inicial de la literatura hecha para familiarizarnos con el problema de estudio nos lleva a
plantearlo, después ampliamos la revisión de la literatura y afinamos o precisamos el planteamiento, del cual
derivamos la hipótesis. Al formular la hipótesis volvemos a evaluar nuestro planteamiento del problema.
Los objetivos y preguntas de investigación pueden ser reafirmados o mejorados durante el desarrollo
del estudio. Asimismo, a través del proceso quizá se nos ocurran otras hipótesis que no estaban contempladas
en el planteamiento original.
Las fuentes de hipótesis de un estudio tienen mucho que ver a la hora de determinar la naturaleza de
la contribución de la investigación en el cuerpo general de conocimientos. Una hipótesis que simplemente
emana de la intuición o de una sospecha puede hacer finalmente una importante contribución a la ciencia. Sin
embargo, si solamente ha sido comprobada en un estudio, existen dos limitaciones con respecto a su utilidad.
Primero, no hay seguridad de que las relaciones entre las variables halladas en un determinado estudio sean
encontradas en otros. Segundo, una hipótesis basada simplemente en una sospecha no es propicia de ser
relacionada con otro conocimiento o teoría. Así pues, los hallazgos de un estudio basados en tales hipótesis
no tienen una clara conexión con el amplio cuerpo de conocimientos de la ciencia social.
Una hipótesis que nace de los hallazgos de otros estudios está libre en alguna forma de la primera de
estas limitaciones. Si la hipótesis está basada en resultados de otros estudios, y si el presente estudio apoya la
hipótesis de aquellos, el resultado habrá servido para confirmar esta relación en una forma normal. Una
hipótesis que se apoya no simplemente en los hallazgos de un estudio previo, sino en una teoría en términos
más generales, está libre de la segunda limitación: la de aislamiento de un cuerpo de doctrina más general.
A pesar de esto, es necesario recalcar que hipótesis útiles y fructíferas también pueden originarse en
planteamientos de un problema cuidadosamente revisado, aunque el cuerpo teórico que las sustente no sea
abundante. Lo que sí contribuye una grave falla en la investigación es formular hipótesis sin haber revisado
1
con cuidado la literatura, ya que se cometerían errores como sugerir hipótesis de algo bastante comprobado o
algo que ha sido contundentemente rechazado.
¿Qué características debe tener una hipótesis? (según el enfoque cuantitativo)
1. Deben referirse a una situación real. Solo pueden someterse a prueba en un universo y contexto bien
definidos. Es muy frecuente que cuando las hipótesis provienen de una teoría o una generalización empírica
(afirmación comprobada varias veces en la realidad), sean manifestaciones contextualizadas o casos concretos
de hipótesis generales abstractas. La hipótesis: “A mayor satisfacción laboral mayor productividad”, es general
y susceptible de someterse a prueba en varias realidades. En estos casos, al probar nuestra hipótesis
contextualizada aportamos evidencia a favor de la hipótesis más general.
2. Las variables o términos de la hipótesis deben ser comprensibles, precisos y lo más concretos
posibles.
3. La relación entre variables propuesta por una hipótesis debe ser clara y verosímil (lógica). Por ej:
“la disminución del consumo del petróleo en EE.UU se relaciona con el grado de aprendizaje del algebra por
parte de niños que asisten a escuelas públicas en Buenos Aires” sería inverosímil y no es posible considerarla.
4. Los términos o variables de la hipótesis deben ser observables y medibles, así como la relación
planteada entre ellos, o sea, tener referentes en la realidad. No deben incluir aspectos morales, o cuestiones
que no podemos medir.
5. Deben estar relacionadas con técnicas disponibles para probarlas. Al formular la hipótesis, tenemos
que analizar técnicas o herramientas de investigación para verificarla, si es posible desarrollarlas y si se
encuentran a nuestro alcance (se puede dar el caso de que existan pero no estén a nuestro alcance).
Tipos de hipótesis
1. de investigación
2. nulas
3. alternativas
4. estadísticas.
Hipótesis de investigación
Son proposiciones tentativas acerca de las posibles relaciones entre dos o más variables, y deben
cumplir los 5 requisitos mencionados. También se las denomina hipótesis de trabajo. Pueden ser:
1. DESCRIPTIVAS DE UN VALOR O DATO PRONOSTICADO: se utilizan a veces en estudios
descriptivos, para intentar predecir un dato o valor en una o más variables que se van a medir u observar. Ej:
“el aumento del número de divorcios de parejas cuyas edades oscilan entre los 18 y 25 años, será de 20% el
próximo año”.
2. CORRECCIONALES: especifican las relaciones entre dos o más variables y cómo están asociadas.
Alcanzan el nivel predictivo y parcialmente explicativo. No es importante el orden en que coloquemos las
variables. Por ej: “A mayor autoestima, habrá menor temor al éxito” (aquí la hipótesis señala que cuando una
variable aumenta, la otra disminuye; y si ésta disminuye, aquella aumenta).
3. DE DIFERENCIA DE GRUPOS: se formulan en investigaciones cuya finalidad es comparar grupos.
Cuando el investigador no tiene bases para presuponer a favor de qué grupo será la diferencia, formula una
hipótesis simple de diferencia de grupos (“el efecto persuasivo para dejar de fumar no será igual en los
adolescentes que vean la versión del comercial televisivo en colores, que el efecto en los adolescentes que
vean la versión del comercial en blanco y negro”). Y cuando sí tiene bases, establece una hipótesis direccional
de diferencia de grupos (“los adolescentes le atribuyen más importancia al atractivo físico en sus relaciones
de pareja, que las adolescentes a las suyas”. Esto último, por lo común, sucede cuando la hipótesis se deriva
de una teoría o estudios antecedentes, o bien, el investigador está bastante familiarizado con el problema de
estudio. Esta clase de hipótesis llega a abarcar dos, tres o más grupos.
4. CAUSALES: no solamente afirma la o las relaciones entre dos o más variables y la manera en que
se manifiestan, sino que además presupone un “sentido de entendimiento” de las relaciones. Tal sentido puede
ser más o menos completo, esto depende del número de variables que se incluyan, pero todas estas hipótesis
establecen relaciones de causa-efecto.
Correlación y causalidad son conceptos asociados, pero distintos. Si dos variables están
correlacionadas, ello no necesariamente implica que una será causa de la otra. Para establecer causalidad antes
debe haberse demostrado correlación, pero además la causa debe ocurrir antes que el efecto. Asimismo, los
2
cambios en la causa tienen que provocar cambios en el efecto. Al hablar de hipótesis, a las supuestas causas
se las conoce como variables dependientes. Únicamente es posible hablar de variables independientes y
dependientes cuando se formulan hipótesis causales o hipótesis de la diferencia de grupos, siempre y cuando,
en éstas últimas se explique cuál es la causa de la diferencia supuesta en la hipótesis.
Distintos tipos de hipótesis causales:
1. Hipótesis causales bivariadas: en éstas se plantea una relación entre una variable independiente y
una variable dependiente. Ej: “percibir que otra persona del genero opuesto es similar a uno en cuanto a
religión, valores y creencias, nos provoca mayor atracción hacia ella”.
2. Hipótesis causales multivariadas: plantean una relación entre diversas variables independientes y una
dependiente, o una independiente y varias dependientes, o diversas variables independientes y varias
dependientes.
Ej: “la cohesión y la centralidad en un grupo sometido a una dinámica, así como el tipo de liderazgo
que se ejerza dentro del grupo, determinan la eficacia de éste para alcanzar sus metas primarias”.
Independiente Dependiente
Ej: “La variedad y la autonomía en el trabajo, así como la retroalimentación proveniente del desarrollo
de éste, generan mayor motivación intrínseca y satisfacción laborales”
Independientes Dependiente
Las hipótesis multivariadas pueden plantear otro tipo de relaciones causales, en donde ciertas variables
intervienen modificando la relación (hipótesis con presencia de variables intervinientes). Ej: “La paga aumenta
la motivación intrínseca de los trabajadores, cuando se administra de acuerdo con el desempeño”. Esquema
causal con variable interviniente:
Es posible que haya estructuras causales de variables más complejas que resulta difícil de expresar en una
sola hipótesis, porque las variables se relacionan entre sí de distintas maneras. Entonces se plantean las
relaciones causales en 2 o más hipótesis, o de forma grafica. Estructura causal compleja multivariada:
Cuando las hipótesis causales se someten al análisis estadístico, se evalúa la influencia de cada variable
independiente (causa) en la dependiente (efecto), y la influencia conjunta de todas las variables independientes
en la dependiente o dependientes.
Las hipótesis nulas son el reverso de las hipótesis de investigación. También constituyen proposiciones
acerca de la relación entre variables, solo que sirven para refutar o negar lo que afirma la hipótesis de
investigación. Si la hipótesis de investigación propone: “los adolescentes le atribuyen más importancia al
3
atractivo físico en sus relaciones de pareja que las adolescentes”, la hipótesis nula seria: “los adolescentes
No le atribuyen más importancia al atractivo físico en sus relaciones de pareja que las adolescentes”.
Como este tipo de hipótesis resalta la contrapartida de la hipótesis de investigación, hay prácticamente tantas
clases de hipótesis nulas como de investigación. Es decir, la clasificación de hipótesis nulas es similar a la
tipología de las hipótesis de investigación: hipótesis Nulas Descriptivas de un valor o dato pronosticado;
hipótesis que niegan o contradicen la relación entre dos o más variables, hipótesis que niegan que haya
diferencia entre grupos que se comparan, e hipótesis que niegan la relación de causalidad entre dos o más
variables.
Las hipótesis Nulas se simbolizan así: Ho.
Hipótesis Alternativas:
Son posibilidades alternas ante las hipótesis de investigación y nula. Ofrecen otra descripción, otra
explicación distinta a las que proporcionan estos tipos de hipótesis.
Si la hipótesis de investigación establece: “esta silla es roja”; la hipótesis Nula establece: “esta silla no es
roja”; y podrían formularse una o más hipótesis alternativas: “esta silla es azul”, “esta silla es verde”.
Las hipótesis alternativas se simbolizan: Ha y sólo pueden formularse cuando efectivamente hay otras
posibilidades.
¿En una investigación se pueden formular hipótesis descriptivas de un dato que se pronostica en una
variable, hipótesis correlaciónales, hipótesis de la diferencia de grupos e hipótesis causales?
SI. En una misma investigación es posible establecer todos los tipos de hipótesis, porque el problema de
investigación así lo requiere.
Los estudios que se inician y concluyen como descriptivos, formularan hipótesis descriptivas; los
correlaciónales podrían establecer hipótesis descriptivas de estimación, correlelacionales y de diferencia de
grupos; los explicativos podrían incluir hipótesis descriptivas de pronóstico, correlaciónales, de diferencia de
grupos y causales. No debemos olvidar que una investigación puede abordar parte del problema de manera
descriptiva y parte explicativa. Aunque debemos señalar que los estudios descriptivos no suelen contener
hipótesis.
Los tipos de estudios que no establecen hipótesis son los exploratorios. No puede presuponerse algo que
apenas va a explorarse.
Definiciones operacionales
Una definición operacional constituye el conjunto de procedimientos que describen las actividades que un
observador debe realizar para recibir las impresiones sensoriales, las cuales indican la existencia de un
concepto teórico en mayor o menor grado.
Especifica qué actividades u operaciones deben realizarse para medir una variables. Una definición
operacional nos dice que para recoger datos respecto de una variable, hay que hacer esto y esto otro, además
articula procesos o acciones de un concepto que son necesarios para identificar ejemplos de este.
5
Cuando un investigador dispone de varias opciones para definir operacionalmente una variable, debe elegir
la que proporcione mayor información sobre la variable, capte mejor su esencia, se adecue más a su contexto
y sea más precisa.
Los criterios para evaluar una definición operacional son básicamente cuatro: Adecuación al contexto,
Capacidad para captar los componentes de la variable de interés, confiabilidad y validez. Una correcta
selección de las definiciones operacionales disponibles o la creación de la propia definición operacional se
encuentra muy relacionada con una adecuada revisión de la literatura.
Algunas variables no requieren ser definidas en el reporte de investigación porque ésta es muy obvia y
compartida, el mismo título de la variable la define.
RESUMEN:
● Las hipótesis son proposiciones tentativas acerca de las relaciones entre dos o más variables y se
apoyan en conocimientos organizados y sistematizados.
● Las hipótesis son el centro del enfoque cuantitativo-deductivo.
● Las hipótesis contienen variables, estas son propiedades cuya variación es susceptible de ser medida,
observada o inferida.
● Las hipótesis surgen normalmente del planteamiento del problema y la revisión de la literatura, y
algunas veces a partir de teorías.
● Las hipótesis deben referirse a una situación, un contexto, un ambiente, un evento empírico. Las
variables contenidas deben ser precisas, concretas, y poder observarse en la realidad; la relación entre
las variables debe ser clara, verosímil y medible. Así mismo las hipótesis tienen que vincularse con
técnicas disponibles para probarlas.
● Al definir el alcance del estudio (exploratorio, descriptivo, correlacionar o explicativo) es que el
investigador decide establecer o no hipótesis. En los estudios exploratorios no se establecen
hipótesis.
● Las hipótesis se clasifican en: A) hipótesis de investigación; B) hipótesis nulas, C) hipótesis
alternativas y D) hipótesis estadísticas.
● La hipótesis estadísticas se clasifican en: A) hipótesis estadísticas de estimación; B) hipótesis
estadísticas de correlación; C) hipótesis estadísticas de la diferencia de grupos.
2_hipotesis correlacionales:
▪ Hipótesis que establecen simplemente la relación entre las variables:
*Bivariadas
*Multivariadas
▪ Hiptesis que establecen cómo es la relación entre las variables( hipótesis direccionales:
* Bivaridas
*Multivariadas
4_Hipotesis causales:
▪ Bivariadas
▪ Multivariadas:
*hipótesis con varias variables independientes y una dependiente
*hipótesis con una variable independeiente y varias dependeientes.
6
*hipótesis con diversas variables tanto independientes como dependedientes
*hipótesis con presencia de variables intervinientes
*hipótesis altamente complejas.
¿Qué es un dato? El dato más elemental ya conlleva toda una serie de elecciones teórico-metodológicas. El
dato es eminentemente racional: no se “ve” más que lo que ya se está dispuesto a ver.
2. Nivel de medición
Puesto que las variables no consisten en otra cosa que un conjunto de valores vinculados unos a otros por
relaciones de diferente tipo, una base fundamental para la clasificación de las variables es la que se encuentra
en el tipo de relaciones que mantienen entre sí sus valores. Dicho de otro modo, las variables pueden ser muy
diferentes en cuanto a su estructura interna. La importancia de esta distinción es crucial, porque las estructuras
constitutivas de las variables determinan totalmente el tipo de operaciones a las que pueden ser sometidas.
No es del todo errónea la idea de que distingue a las ciencias sociales en general de las ciencias sociales en
general de las ciencias de la naturaleza globalmente consideradas son los distintos niveles de medición en que
operan predominantemente unas a otras.
Es corriente considerar que existen cuatro niveles distintos de medición: nominal, ordinal, intervalar y
racional. Se puede definir “medida” como <cualquier procedimiento empírico que suponga la asignación de
símbolos, de los cuales los numerales son solamente de un tipo, para los objetos o sucesos que concuerdan
con las reglas previamente establecidas>.
· Nivel nominal:
La operación más básica y a la vez más sencilla de toda ciencia es la clasificación. Al clasificar, agrupamos
nuestras unidades de análisis en clases mutuamente excluyentes basándonos en sus semejanzas y diferencias.
De este modo tenemos una escala nominal. El requerimiento fundamental para construir una escala nominal
es que se puedan distinguir dos o más categorías significativas y que se establezcan los criterios según los
cuales los individuos, grupos, objetos o respuestas serán incluidos en una o en otra categoría.
En ciencias sociales son muchas las propiedades que se encuentran definidas nominalmente: sexo, estado civil,
nacionalidad, religión, afiliación partidaria, etc.
· Nivel ordinal:
En este nivel aparece la idea de orden. No sólo se puede distinguir entre distintas categorías, sino que es
posible afirmar si una unidad de análisis posee en mayor, en igual o en menor grado que otra la propiedad que
se está midiendo. Así, por ejemplo, en una escala de la jerarquía militar no solamente podemos decir que un
capitán, un teniente y un sargento son diferentes entre sí, sino que dichas categorías pueden ordenarse con
respecto a la autoridad que reviste cada uno de esos grados:
Capitán > teniente > sargento
Pero lo que podemos determinar con exactitud es cuanta más autoridad tiene un capitán que un teniente, ni si
la diferencia entre estos es menor o mayor que la que media entre los grados de sargento y de teniente. <Una
escala ordinal defina la posición relativa de objetos o individuos con respecto a una característica, sin
implicación alguna en cuanto a la distancia entre posiciones>.
· Nivel intervalar:
Cuando se alcanza construir una escala de intervalos iguales, no solamente es posible diferenciar y ordenar
las unidades de análisis, sino que también se puede especificar la distancia que separa a unas de otras en una
determinada propiedad. Este nivel de medición requiere que se establezca algún tipo de medida que pueda ser
considerado por todos como una norma común y que sea repetible, esto es, que se pueda aplicar
indefinidamente a los mismos objetos produciendo los mismos resultados. Para el caso, ello es lo que ocurre
en física con las escalas de temperatura Celcius y Farenheit. Para la mayoría de las variables en ciencias
sociales no existe procedimientos de medición que garanticen tan siquiera la igualdad de intervalos.
8
· Nivel racional:
Se alcanza a producir una escala de intervalos que cuenta con un punto ceron absoluto. Es solamente en este
nivel que se justifican afirmaciones del tipo <A pesa el doble que B>, o bien <Yo gasté la mitad que vos>.
Empero, la discusión entre escalas de intervalos y de razones resulta irrelevante las más de las veces.
Ante cualquier objeto de intervención, ya sea este de significación teórica o de importancia meramente
práctica, las decisiones metodológicas propiamente dichas tienen necesariamente lugar dentro de un cierto
marco conceptual. Dentro de ese marco se debe determinar: a) el grado en que dicho objeto es susceptible de
ser producido en tanto objeto científico dentro de la estructura de la matriz de datos; y b) todas las operaciones
que hagan a la producción del objeto dentro de este esquema, y muy particularmente las que tengan que ver
con la definición de las unidades de análisis y de las propiedades que les sean aplicables.
2) Niveles de inclusión
9
Las variables son susceptibles de ser clasificadas de acuerdo a varios criterios, entre otros:
a) El nivel de medición en que se inscriben: nominal, ordinal, intervarlar;
b) El papel que cumplen en el análisis: desde este punto de vista se podrá distinguir entre variables
independientes, dependientes e intervinientes;
c) Su grado de complejidad: se pueden reconocer así indicadores (variables simples) o índices (variables
complejas o compuestas).
UNIDAD 4
DISEÑOS EXPERIMENTALES
¿Qué es un experimento?
Es un estudio en el que se manipulan intencionalmente 1 o más variables independientes (supuestas
causas-antecedentes), para analizar las consecuencias que la manipulación tiene sobre una o más variables
dependientes (supuestos efectos consecuentes), dentro de una situación de control para el investigador.
CAUSA EFECTO
(Variable independiente) (Variable dependiente)
X Y
Los experimentos son estudios de intervención en los que un investigador genera una situación para
tratar de explicar cómo afecta a quienes participan en ella en comparación con quienes no lo hacen.
¿Cuál es el primer requisito de un experimento?
Es la manipulación intencional de una o más variables independientes. La independiente es la que se
considera como supuesta causa en una relación entre variables, es la condición antecedente, y al efecto
provocado por dicha causa se lo denomina variable dependiente (consecuente).
La variable dependiente se mide
10
La variable dependiente no se manipula, sino que se mide para ver el efecto que la manipulación de la
variable independiente tiene en ella.
La letra X suele utilizarse para simbolizar una variable independiente o tratamiento experimental, las
letras o subíndices a, b indican distintos niveles de variación de la independiente y la letra Y se utiliza para
representar una variable dependiente.
Grados de manipulación de la variable independiente
El nivel mínimo de manipulación es de presencia-ausencia de la variable independiente. Cada nivel o
grado de manipulación involucra un grupo en el experimento.
- PRESENCIA-AUSENCIA: implica que un grupo se expone a la presencia de la variable independiente y el
otro no. Posteriormente, los dos grupos se comparan. El GRUPO DE CONTROL o grupo testigo es en el que
está ausente la variable independiente. El GRUPO EXPERIMENTAL es el que recibe el tratamiento o
estimulo experimental. Ambos grupos participan en el experimento. En general puede afirmarse lo siguiente:
si en ambos grupos todo fue igual, menos la exposición a la variable independiente, es muy razonable pensar
que las diferencias entre los grupos se deban a la presencia-ausencia de tal variable.
- MAS DE DOS GRADOS: manipular la variable independiente en varios niveles tiene la ventaja de que no
solo se puede determinar si la presencia de la variable independiente o tratamiento experimental tiene un efecto
sino también si distintos niveles de la variable independiente producen diferentes efectos. Es decir, si la
magnitud del efecto (Y) depende de la intensidad del estimulo.
- MODALIDADES DE MANIPULACION EN LUGAR DE GRADOS: existe otra forma de manipular una
variable independiente que consiste en exponer a los grupos experimentales a diferentes modalidades de la
variable, pero sino que esto implique cantidad. En ocasiones la manipulación de la variable independiente
conlleva una combinación de cantidades y modalidades de ésta. Finalmente, es necesario insistir en que cada
nivel o modalidad implica, al menos, un grupo. Si hay tres niveles (grados) o modalidades, se tendrán 3 grupos
como mínimo.
¿Cómo se define la manera de manipular las variables independientes?
Al manipular una variable independiente es necesario especificar que se va a entender por esa variable
en el experimento (definición operacional experimental). Es decir, trasladar el concepto teórico a un estimulo
experimental.
Por ej:
Variable independiente a manipular: exposición a la violencia televisada en adultos.
Operacionalización: exposición a un programa donde haya golpes, insultos, agresiones.
A veces resulta sumamente difícil representar el concepto teórico en la realidad, sobre todo con
variables internas, variables que pueden tener dos significados o variables que sean difíciles de alterar. La
socialización, la cohesión, la conformidad, la motivación, etc son conceptos que requieren un enorme esfuerzo
para operacionalizarse.
Para definir cómo se va a manipular la variable es necesario:
1. consultar experimentos antecedentes para ver si en estos resultó exitosa la forma de manipular la variable
independiente. Resulta imprescindible analizar si la manipulación de esos estudios puede aplicarse al contexto
especifico del nuestro, o como se extrapolaría a nuestra situación experimental.
2. evaluar la manipulación antes de que se conduzca el experimento: ¿las operaciones experimentales
representan la variable conceptual que se tiene en mente? ¿Los diferentes niveles de variación de la variable
independiente harán que los sujetos se comporten de diferente forma? ¿Qué otras maneras existen para
manipular la variable?
3. incluir verificaciones para la manipulación. Cuando se experimenta con personas hay varias formas de
verificar si realmente funciono la manipulación:
a. entrevistar a los participantes.
b. incluir mediciones relativas a la manipulación durante el experimento.
¿Cuál es el segundo requisito de un experimento?
Consiste en medir el efecto que la variable independiente tiene en la dependiente. Si no podemos
asegurar que se midió de manera adecuada, los resultados no servirán y el experimento será una pérdida de
tiempo.
¿Cuántas variables independientes y dependientes deben incluirse en un experimento?
11
Depende de cómo se haya planteado el problema de investigación y de las limitaciones que existan.
Conforme se aumenta el número de variables independientes se incrementarán las manipulaciones que deben
hacerse y el número de grupos requeridos para el experimento.
Por otro lado, en cada caso podría optar por medir más de una variable dependiente y evaluar múltiples
efectos de las independientes (en distintas variables). Al aumentar las variables dependientes, no tienen que
incrementarse los grupos, porque estas variables no se manipulan. Lo que aumenta es el tamaño de la medición
(cuestionarios con más preguntas, mayor número de observaciones, entrevistas más largas, etc) porque hay
más variables que medir.
¿Cuál es el tercer requisito de un experimento?
Es el control o la validez interna de la situación experimental. Si en el experimento se observa que una
o más variables independientes hacen variar a las dependientes, la variación de estas últimas se debe a la
manipulación de las primeras y no a otros factores o causas; y si se observa que una o más independientes no
tienen un efecto sobre las dependientes, se puede estar seguro de ello. Tener control significa saber que está
ocurriendo realmente con la relación entre las variables independientes y las dependientes.
Cuando hay control es posible determinar la relación causal. En la estrategia de la experimentación, el
investigador no manipula una variable sólo para comprobar la co-variación, sino que al efectuar un
experimento es necesario realizar una observación controlada.
Fuentes de invalidación interna
Existen diversos factores que tal vez nos confundan y sean motivo de que ya no sepamos ni la presencia
de una variable independiente o un tratamiento experimental surte o no un verdadero efecto. Se trata de
explicaciones rivales frente a la explicación de que las variables independientes afectan a las dependientes.
Atentan contra la validez interna, que se refiere a cuanta confianza tenemos en que sea posible interpretar los
resultados del experimento y éstos sean válidos. Se relaciona con la calidad del experimento y se logra cuando
hay control, cuando los grupos difieren entre sí solamente en la exposición a la variable independiente
(ausencia-presencia o en grados o modalidades), cuando las mediciones de la variable dependiente son
confiables y válidas, y cuando el análisis es el adecuado para el tipo de datos que estamos manejando.
Fuente o Descripción El investigador debe:
amenaza a la
validez interna
Historia Eventos externos que ocurran durante el Asegurarse de que los
experimento e influyan solamente a algunos participantes de los grupos
de los participantes. de control y experimentales
experimenten los mismos
eventos.
Maduración Los participantes cambian o maduran, esto Seleccionar participantes
afecta los resultados. que cambien o maduren de
manera similar durante el
experimento.
Inestabilidad del Poca o nula confiabilidad del instrumento. Elaborar un instrumento
instrumento de estable y confiable.
medición
Inestabilidad del Las condiciones del ambiente o entorno del Lograr que estas condiciones
ambiente experimento no son iguales para todos los sean las mismas para todos
experimental grupos participantes. los grupos.
Administración Que la aplicación de una prueba o Tener pruebas equivalentes y
de pruebas instrumento de medición antes del confiables, pero que no sean
experimento influya las respuestas de los las mismas y que los grupos
individuos cuando se vuelve a administrar la que se comparen sean
prueba después del experimento. equiparables.
12
Instrumentació Que las pruebas o instrumentos aplicados a Administrar la misma prueba
n los distintos grupos no sean equivalentes. a todos los grupos
participantes.
Regresión Seleccionar participantes que tengan Elegir participantes que no
puntuaciones extremas en la variable medida tengan puntuaciones
y que no se mida su valoración real. extremas o pasen por un
momento anormal.
Selección Que los grupos del experimento no sean Lograr que lo sean.
equivalentes.
Mortalidad Que los participantes abandonen el Reclutar suficientes
experimento. participantes para todos los
grupos.
Difusión de Que los participantes de distintos grupos se Mantener a los grupos tan
tratamientos comuniquen entre sí afectando los resultados. separados como sea posible.
Compensación Que los participantes del grupo de control Proveer beneficios a todos
perciban que no reciben nada y eso los los grupos.
desmoralice y afecte los resultados.
Conducta del Que su comportamiento afecte los resultados. Actuar igual con todos los
experimentador grupos y ser “objetivo”.
¿Cómo se logran el control y la validez interna?
El control en un experimento logra la validez interna y se alcanza mediante:
1. varios grupos de comparación (dos como mínimo).
2. equivalencia de los grupos en todo, excepto en la manipulación de la o las variables independientes.
Varios grupos de comparación
Con un solo grupo no estaríamos seguros de que los resultados se debieran al estimulo experimental o
a otras razones. Los experimentos con un grupo se basan en sospechas o en lo que aparentemente es, pero
carecen de fundamentos. Se corre el riesgo de seleccionar sujetos atípicos y de que intervengan la historia, la
maduración y más fuentes de invalidación interna, sin que el experimentador se dé cuenta. Por ello, el
investigador debe tener, al menos, un punto de comparación: dos grupos, uno al que se le administra el
estimulo y otro al que no.
Equivalencia de los grupos
Para tener control no basta con dos o más grupos, sino que éstos deben ser similares en todo, menos
en la manipulación de la o las variables independientes. El control implica que todo permanece constante,
salvo tal manipulación o intervención. Si los grupos no son equivalentes, entonces no podemos confiar en que
las diferencias se deban en realidad a la manipulación de la variable independiente y no a otros factores, o a
la combinación de ambos.
Los grupos deben ser equivalentes al iniciar y durante todo el desarrollo del experimento, menos en lo
que respecta a la variable independiente. Asimismo, los instrumentos de medición deben ser iguales y
aplicados de la misma manera.
Equivalencia inicial
Implica que los grupos son similares entre sí al momento de iniciarse el experimento. No se refiere a
las equivalencias entre individuos sino a la equivalencia entre grupos. Si tenemos dos grupos en un
experimento, es indudable que habrá, por ej, personas muy inteligentes en un grupo, pero también debe
haberlas en el otro. Si en uno hay mujeres, en el otro debe haberlas en la misma proporción. Y así con todas
las variables que lleguen a afectar a la o las variables dependientes, además de la independiente.
Equivalencia durante el experimento
Cuanto mayor sea la equivalencia durante su desarrollo, habrá mayor control y posibilidad de que si
observamos o no efectos estemos seguros de que verdaderamente los hubo o no. Cuando trabajamos
simultáneamente con varios grupos es difícil que las personas que dan las instrucciones y vigilan el desarrollo
de los grupos sean las mismas. Entonces debe buscarse que su tono de voz, apariencia, edad, género y otras
13
características capaces de afectar los resultados sean iguales o similares, y mediante entrenamiento debe
estandarizarse su proceder.
¿Cómo se logra la equivalencia inicial?: asignación al azar.
La asignación al azar nos asegura probalísticamente que dos o más grupos son equivalentes entre sí.
Es una técnica de control que tiene como propósito dar al investigador la seguridad de que variables extrañas,
conocidas o desconocidas, no afectarán de manera sistemática los resultados de estudio. Funciona para hacer
equivalentes a los grupos de participantes, es una precaución contra interferencias que pueden o no ocurrir, y
ser o no importante si ocurren.
Puede llevarse a cabo empleando trozos de papel: se escribe el nombre de cada participante en uno de
los pedazos de papel, luego se juntan todos los trozos, se revuelven y se van sacando para formar los grupos.
También puede llevarse a cabo utilizando una moneda: con cada sujeto se lanza y se le asigna un grupo
según el lado que haya tocado. Limitado solo a 2 grupos.
Una tercera forma es mediante el programa STATS que numera a todos los participantes y les asigna
números al azar de manera aleatoria.
La asignación al azar funciona mejor cuanto mayor sea el número de participantes con que se cuenta
para el experimento, cuanto mayor sea el tamaño de los grupos.
Otra técnica para lograr la equivalencia inicial: el emparejamiento
El proceso consiste en igualar a los grupos en relación con alguna variable específica (ej: agudeza
visual, conocimientos previos, ingresos, etc)que puede influir de modo decisivo en la o las variables
dependientes.
El 1° paso es elegir la variable concreta de acuerdo con algún criterio teórico. Debe estar muy
relacionada con las variables dependientes.
El 2° consiste en obtener una medición de la variable elegida para emparejar a los grupos. Esta
medición puede existir o efectuarse antes del experimento.
El 3° es ordenar a los participantes en la variable sobre la cual se va a efectuar el emparejamiento (de
las puntuaciones más altas a las más bajas).
El 4° es formar parejas, tercias, cuartos, etc de participantes según la variable de aparejamiento e ir
asignando a cada integrante de cada pareja, tercia o cuarto a los grupos del experimento, buscando un balance
entre estos.
Conforme más variables se usan para el emparejamiento, el proceso es más complejo.
Una tipología sobre los diseños experimentales
a. pre-experimentos
b. experimentos puros
c. cuasi-experimentos.
Simbología de los diseños experimentales
R: asignación al azar o aleatoria.
G: grupo de sujetos.
X: tratamiento, estimulo o condición experimental (presencia de algún nivel o modalidad de la variable
independiente).
0: una medición de los sujetos de un grupo (prueba, cuestionario, observación, etc). Si aparece antes del
estimulo o tratamiento, se trata de una pre-prueba. Si aparece después es una pos-prueba.
- : ausencia de estimulo (nivel “cero” en la variable independiente). Indica que se trata de un grupo de control
o testigo.
La secuencia horizontal indica tiempos distintos (de izquierda a derecha) y cuando en dos grupos
aparecen dos símbolos alineados verticalmente, esto indica que tienen lugar en el mismo momento del
experimento.
Pre-experimentos
Se llaman así porque su grado de control es mínimo.
1. Estudio de caso con una sola medición.
Podría diagramarse de la siguiente manera:
G X 0
14
Consiste en administrar un estimulo o tratamiento a un grupo y después aplicar una medición de una
o más variables para observar cuál es el nivel del grupo de éstas.
Este diseño no cumple con los requisitos de un experimento “puro”. No hay manipulación de la
variable independiente (niveles) o grupo de contraste (ni siquiera el mínimo de presencia-ausencia). Tampoco
hay una referencia previa de cuál era el nivel que tenía el grupo en las variables dependientes antes del
estímulo. No es posible establecer causalidad con certeza ni se controlan las fuentes de invalidación interna.
2. Diseño pre-prueba/pos-prueba con un solo grupo.
Podría diagramarse de la siguiente manera:
G 01 X 02
A un grupo se le aplica una prueba previa al estímulo o tratamiento experimental, después se le
administra el tratamiento y finalmente se le aplica una prueba posterior al estímulo. Ofrece una ventaja sobre
el anterior: existe un punto de referencia inicial para ver qué nivel tenía el grupo en la o las variables
dependientes antes del estímulo. Es decir, hay un seguimiento del grupo. Sin embargo, el diseño no resulta
conveniente para fines de establecer causalidad: no hay manipulación ni grupo de comparación, y es posible
que actúen varias fuentes de invalidación interna.
Por otro lado, se corre el riesgo de elegir a un grupo atípico o que en el momento del experimento no
se encuentre en su estado normal.
En ocasiones, este diseño se utiliza con un solo individuo (estudio de caso experimental).
Los dos diseños pre-experimentales no son adecuados para el establecimiento de relaciones causales
porque se muestran vulnerables en cuanto a la posibilidad de control y validez interna. En ciertas ocasiones,
los diseños pre-experimentales sirven como estudios exploratorios, pero sus resultados deben observarse con
precaución.
Experimentos puros
Son aquellos que reúnen los dos requisitos para lograr el control y la validez interna:
1. grupos de comparación (manipulación de la variable independiente);
2. equivalencia de los grupos.
Estos diseños llegan a incluir una o más variables independientes y una o más dependientes. Asimismo,
pueden utilizar pre-pruebas y pos-pruebas para analizar la evolución de los grupos antes y después del
tratamiento experimental.
1. Diseño con pos-prueba únicamente y grupo de control
Este diseño incluye dos grupos: uno recibe el tratamiento experimental y el otro no (grupo de control).
Es decir, la manipulación de la variable independiente alcanza sólo dos niveles: presencia y ausencia. Los
sujetos se asignan a los grupos de manera aleatoria. Cuando concluye la manipulación, a ambos grupos se les
administra una medición sobre la variable dependiente en estudio.
En este diseño, la única diferencia entre los grupos es la ausencia o presencia de la variable
independiente. De preferencia, la pos-prueba debe administrarse inmediatamente después de que concluya el
experimento, en especial si la variable dependiente tiende a cambiar con el paso del tiempo. La pos-prueba se
aplica de manera simultánea a ambos grupos.
La comparación entre las pos-pruebas de ambos grupos nos indica si hubo o no efecto de la
manipulación. Si ambas difieren significativamente nos indica que el tratamiento experimental tuvo un efecto
a considerar. Por tanto, se acepta la hipótesis de diferencia de grupos. Si no hay diferencias se acepta la
hipótesis nula.
El diseño con pos-prueba puede extenderse para incluir más de dos grupos. En este caso, se usan 2 o
más tratamientos experimentales. Los participantes se asignan al azar a los grupos, y los efectos de los
tratamientos experimentales se investigan comparando las pos pruebas de los grupos.
Si se carece de grupo de control, el diseño puede llamarse “diseños con grupos de asignación aleatoria
y pos prueba únicamente”.
En el diseño con pos-prueba únicamente y grupo de control, así como en sus posibles variaciones y
extensiones, se logra controlar todas las fuentes de invalidación interna. La administración de pruebas no se
presenta porque no hay pre-prueba.
Lo que no influya en un grupo también influirá de manera equivalente en todos los demás. Este
razonamiento se aplica a todos los diseños experimentales “puros”.
15
2. Diseño con pre-prueba pos-prueba y grupo de control
Incorpora la administración de pre-pruebas a los grupos que componen el experimento. Los
participantes se asignan al azar a los grupos, después se les aplica simultáneamente la pre-prueba; un grupo
recibe el tratamiento experimental y el otro no (grupo de control); por último, se les administra, también
simultáneamente, una pos-prueba.
La adición de la prueba previa ofrece dos ventajas:
a. sus puntuaciones sirven para fines de control en el experimento, pues al compararse las pre-pruebas de los
grupos se evalúa que tan adecuada fue la asignación aleatoria.
b. es posible analizar el puntaje-ganancia de cada grupo (la diferencia entre las puntuaciones de la pre prueba
y la pos prueba).
Este diseño elimina también las fuentes de invalidación interna.
3. Diseño de 4 grupos de Solomon
Solomon describió un diseño que era la mezcla de los dos anteriores. La suma de estos dos diseños
origina 4 grupos: dos experimentales y 2 de control, los primeros reciben el mismo tratamiento experimental
y los segundos no. Solo a uno de los grupos experimentales y a uno de los grupos de control se les administra
la pre-prueba; a los 4 grupos se les aplica la pos-prueba. Los participantes se asignan en forma aleatoria. Los
efectos se determinan comparando las 4 pos-pruebas. Los grupos 1 y 3 son experimentales y los 2 y 4 son de
control.
La ventaja es que el experimentador tiene la posibilidad de verificar los posibles efectos de la pre-
prueba, puesto que a unos grupos se les administra un test previo y a los otros no. Es posible que la pre-prueba
afecte a la pos-prueba o que aquella interactúe con el tratamiento experimental.
Este diseño controla todas las formas de invalidación interna.
4. Diseños experimentales de series cronológicas múltiples
Los 3 diseños experimentales que se han desarrollado sirven más bien para analizar efectos inmediatos
o a corto plazo. En ocasiones el experimentador está interesado en analizar efectos en el mediano o largo
plazo, porque tiene las bases para suponer que la influencia de la variable independiente sobre la dependiente
tarda en manifestarse.
En otras situaciones se busca evaluar la evolución del efecto en el corto, mediano y largo plazo (no
solo el resultado). También, en ocasiones la aplicación del estimulo por una sola vez no tiene efectos. En tales
casos es conveniente adoptar diseños con varias pos-pruebas, o bien con diversas pre-pruebas y pos-pruebas,
con repetición del estimulo, con varios tratamientos aplicados a un mismo grupo y otras condiciones. A estos
diseños se los conoce como SERIES CRONOLOGICAS EXPERIMENTALES.
En estos diseños se pueden tener dos o más grupos y los participantes son asignados al azar.
5. Diseños factoriales
En ocasiones, el investigador pretende analizar experimentalmente el efecto que sobre la o las variables
dependientes tiene la manipulación de más de una variable independiente. Manipulan dos o mas variable
independientes e incluyen dos o más niveles o modalidades de presencia en cada una de las variables
independientes. Se utilizan muy a menudo, en la investigación experimental. La construcción básica de un
diseño factorial consiste en que todos los niveles o modalidades de cada variable independiente son tomados
en combinación con todos los niveles o modalidades de las otras variables independientes.
¿Qué es la validez externa?
Un experimento debe buscar, ante todo, la validez interna, es decir, la confianza en los resultados. Si
no se logra, no hay experimento puro. Lo primero es eliminar las fuentes que atentan contra dicha validez.
También es deseable que un experimento tenga validez externa, que se refiere a que tan generalizables son los
resultados de un experimento a situaciones no experimentales, así como a otros participantes o poblaciones.
Fuentes de invalidación externa
1. efecto reactivo o de interacción de las pruebas
Se presenta cuando la pre-prueba aumenta o disminuye la sensibilidad o la calidad de la reacción de
los participantes a la variable experimental, lo cual contribuye a que los resultados obtenidos para una
población con pre-prueba no puedan generalizarse a quienes forman parte de esa población pero sin pre-
prueba.
2. efecto de interacción entre los errores de selección y tratamiento experimental
16
Este factor se refiere a que se elijan personas con una o varias características que hagan que el
tratamiento experimental produzca un efecto, que no se daría si las personas no tuvieran esas características.
A veces este factor se presenta cuando se reclutan voluntarios para la realización de algunos experimentos.
3. efectos reactivos de los tratamientos experimentales.
La “artificialidad” de las condiciones puede hacer que el contexto experimental resulte atípico,
respecto a la manera en que se aplica regularmente el tratamiento. Por ej, a causa de la presencia de
observadores y equipo, los participantes llegar a cambiar su conducta normal en la variable dependiente
medida, la cual no se alteraría en una situación común donde se aplicara el tratamiento. Por ello, el
experimentador tiene que ingeniárselas para hacer que los sujetos se olviden de que están en un experimento
y no se sientan observados.
4. interferencia de tratamientos múltiples
Si se aplican varios tratamientos a un grupo experimental para conocer sus efectos por separado y en
conjunto; incluso, si los tratamientos no son de impacto reversible, es decir, si no es posible borrar sus efectos,
las conclusiones que solamente podrán hacerse extensivas a aquellos que experimentan la misma secuencia
de tratamientos, sean múltiples o la repetición del mismo.
5. imposibilidad de replicar los tratamientos.
Cuando los tratamientos son tan complejos que no pueden replicarse en situaciones no experimentales,
es difícil generalizar a éstas.
6. descripciones insuficientes del tratamiento experimental.
En ocasiones, el tratamiento o los tratamientos experimentales no se describen lo suficiente en el
reporte del estudio y, por consecuencia, si otro investigador desea reproducirlos le resultara muy difícil o
imposible hacerlo. Las instrucciones deben incluirse y la precisión es un elemento importante.
7. efectos de novedad e interrupción
Un nuevo tratamiento puede tener resultados positivos simplemente por ser percibido como novedoso,
o bien, lo contrario: tener un efecto negativo porque interrumpe las actividades normales de los participantes.
En este caso, es recomendable incluir a los sujetos paulatinamente al tratamiento y esperar a que asimilen los
cambios provocados por éste.
8. el experimentador.
También es considerado una fuente de invalidación interna. Puede generar alteraciones o cambios que
no se presentan en situaciones no experimentales. Es decir que el tratamiento solamente tenga efecto con la
intervención del experimentador.
9. interacción entre la historia o el lugar y los efectos del tratamiento experimental
Un experimento conducido en un contexto particular (tiempo y lugar), en ocasiones no puede ser
duplicado.
10. mediciones de la variable dependiente.
Puede suceder que un instrumento no registre cambios en la variable dependiente y otro sí. Si un
experimento utiliza un instrumento para recolectar datos, y de este modo sus resultados puedan compararse,
otros estudios deberán evaluar la variable dependiente con el mismo instrumento o uno equivalente.
Para lograr una mayor validez externa es conveniente tener grupos lo más parecidos posible a la
mayoría de las personas a quienes se desea generalizar, y repetir el experimento varias veces con diferentes
grupos. También, tratar de que el contexto experimental sea lo más similar al contexto que se pretende
generalizar.
¿Cuáles pueden ser los contextos de los experimentos?
Se habla de experimentos de laboratorio y experimentos de campo. Los primeros se realizan bajo
condiciones controladas, en las cuales el efecto de las fuentes de invalidación interna es eliminado, así como
el de otras posibles variables independientes que no son manipuladas o no interesan. Los de campo son
estudios efectuados en una situación “realista” en la que una o más variables independientes son manipuladas
por el experimentador en condiciones tan cuidadosamente controladas como lo permite la situación.
¿Qué alcance tienen los experimentos y cuál es el enfoque del que se derivan?
Debido a que analizan las relaciones entre una o más variables independientes y una o más
dependientes, así como los efectos causales de las primeras sobre las segundas, son estudios explicativos (que
obviamente determinan correlaciones). Se trata de diseños que se fundamentan en el enfoque cuantitativo y
17
en el paradigma deductivo. Se basan en hipótesis pre-establecidas, miden variables y su aplicación debe
sujetarse al diseño preconcebido; al desarrollarse, el investigador está centrado en la validez, el rigor y el
control de la situación de investigación. Asimismo, el análisis estadístico resulta fundamental para lograr los
objetivos de conocimiento. Su fin es estimar los efectos causales.
Simbología de los diseños con emparejamiento en lugar de asignación al azar
Otra técnica para hacer inicialmente equivalentes a los grupos es el emparejamiento. Este método es
menos preciso que la asignación al azar. Los diseños se representan con una E de emparejamiento, en lugar
de la R (asignación aleatoria o al azar).
¿Qué otros experimentos existen?: Cuasi-experimentos
Los diseños cuasi-experimentales también manipulan deliberadamente, al menos, una variable
independiente para observar su efecto y relación con una o más variables dependientes, sólo que difieren de
los experimentos puros en el grado de seguridad o confiabilidad que pueda tenerse sobre la equivalencia inicial
de los grupos. Los sujetos no se asignan al azar ni se emparejan sino que dichos grupos ya están formados
antes del experimento: son grupos intactos (por ej: grados escolares, grupos terapéuticos ya integrados,
equipos deportivos previamente formados, etc).
Pasos de un experimento
1. decidir cuantas variables independientes y dependientes deberán incluirse en el experimento. Deben
incluirse las variables que sean necesarias para probar las hipótesis, alcanzar los objetivos y responder las
preguntas de investigación.
2. elegir los niveles o modalidades de manipulación de las variables independientes y traducirlos en
tratamientos experimentales.
3. desarrollar el instrumento o instrumentos para medir la o las variables dependientes.
4. seleccionar para el experimento una muestra de personas que posean el perfil que interesa.
5. reclutar a los participantes del experimento. Esto implica tener contacto con ellos, darles las explicaciones
necesarias, obtener su consentimiento e indicarles día, lugar, hora y persona con quien deben presentarse.
6. seleccionar el diseño experimental o cuasi experimental apropiado para nuestras hipótesis, objetivos y
preguntas de investigación.
7. planear como vamos a manejar a los participantes del experimento. Es decir, elaborar una ruta crítica de
qué van a hacer las personas desde que llegan al lugar del experimento hasta que se retiran.
8. en el caso de experimentos puros, dividirlos al azar o emparejarlos; y en el caso de cuasi experimentos,
analizar cuidadosamente las propiedades de los grupos intactos.
9. aplicar las pre pruebas (cuando las haya), los tratamientos respectivos (cuando no se trate de grupos de
control) y las pos pruebas.
18
A su vez, los diseños transeccionales pueden dividirse en exploratorios, descriptivos y
correlacionales/causales
Exploratorios: es comenzar a conocer una variable o un conjunto de variables, una comunidad, un contexto,
un evento, una situación. Se trata de una exploración inicial en un momento específico.
Descriptivos: tienen como objetivo indagar la incidencia y los valores en que se manifiesta una o más
variables. El procedimiento consiste en medir en un grupo de personas u objetos una o —generalmente— más
variables y proporcionar su descripción. Son, por lo tanto, estudios puramente descriptivos que cuando
establecen hipótesis, éstas son también descriptivas. Ejemplo: Las famosas encuestas nacionales de opinión
sobre las tendencias de los votantes durante periodos de elección. Su objetivo es describir el número de
votantes en un país que se inclinan por los diferentes candidatos contendientes en la elección. Es decir, se
centran en la descripción de las preferencias del electorado. Los estudios transeccionales descriptivos nos
presentan un panorama del estado de una o más variables en uno o más grupos de personas, objetos o
indicadores en determinado momento. En ciertas ocasiones el investigador pretende hacer descripciones
comparativas entre grupos o subgrupos de personas, objetos o indicadores (esto es, en más de un grupo). Por
ejemplo, un investigador que deseara describir el nivel de empleo en tres ciudades. En este tipo de diseños
queda claro que ni siquiera cabe la noción de manipulación puesto que se trata a cada variable individualmente,
no se vinculan variables.
Causales: tienen como objetivo describir relaciones entre dos o más variables en un momento determinado. Se
trata también de descripciones, pero no de variables individuales sino de sus relaciones, sean éstas
puramente correlacionales o relaciones causales. En estos diseños lo que se mide es la relación entre variables
en un tiempo determinado. Por lo tanto, pueden limitarse a establecer relaciones entre variables sin precisar
sentido de causalidad o pueden pretender analizar relaciones de causalidad. Cuando se limitan a relaciones no
causales, se fundamentan en hipótesis correlacionales y cuando buscan evaluar relaciones causales, se basan
en hipótesis causales.
Ejemplo: Una investigación que pretendiera indagar la relación entre la atracción física y la confianza durante
el noviazgo en parejas de jóvenes, observando qué tan relacionadas están ambas variables (se limita a ser
correlacional).
Es importante saber que en ciertas ocasiones sólo se pretende correlacionar variables, pero en otras se busca
establecer relaciones causales. Desde luego, debemos recordar que la causalidad implica correlación pero no
toda correlación significa causalidad. Primero establecemos correlación y luego causalidad.
Su diferencia con los experimentos es la base de la distinción entre experimentación y no experimentación.
En los diseños transeccionales correlacionales/causales, las causas y efectos ya ocurrieron en la realidad
(estaban dadas y manifestadas) y el investigador las(os) observa y reporta. En cambio, en los diseños
experimentales y cuasiexperimentales el investigador provoca —intencionalmente— al menos una causa y
analiza sus efectos o consecuencias.
En estos diseños en su modalidad únicamente causal, a veces se reconstruyen las relaciones a partir de la (s)
variable (s) dependiente (s) en otras a partir de la(s) independiente (s) y en otras más sobre la base de
variabilidad amplia de las independientes y dependientes.
Veamos ahora una investigación causal prospectiva. En los diseños donde se reconstruyen las relaciones sobre
la base de variabilidad amplia de las independientes y dependientes no se parte de una variable en especial ni
de grupos, sino que se evalúa la estructura causal completa.
Todos los estudios transeccionales causales nos brindan la oportunidad de predecir el comportamiento de una
o más variables a partir de otras, una vez que se establece la causalidad. A estas últimas se les denomina
variables predectoras.
De tendencia: son aquellos que analizan cambios a través del tiempo (en variables o sus relaciones)
dentro de alguna población en general. Su característica distintiva es que la atención se centra en una
población. Por ejemplo, una investigación para analizar cambios en la actitud hacia el aborto en una
comunidad. Dicha actitud se mide en varios puntos en el tiempo (digamos anualmente durante 10 años)
y se examina su evolución a lo largo de este periodo. Se puede observar o medir toda la población o bien
tomar una muestra representativa de ella cada vez que se observen o midan las variables o las relaciones
entre éstas.
De evolución de grupo: examinan cambios a través del tiempo en subpoblaciones o grupos específicos.
Su atención son las “cohorts” o grupos de individuos vinculados de alguna manera o identificados por
alguna característica común. Los diseños de los que estamos hablando hacen seguimiento de los grupos
a través del tiempo y por lo común se extrae una muestra cada vez que se mide al grupo o subpoblación
más que incluir a toda la subpoblación.
Diferencia entre diseños de tendencia y de evolución de grupo: en los dos se estudia el cambio en
subpoblaciones o poblaciones, pero debido a que en cada momento o tiempo se recolectan datos sobre una
muestra diferente aunque equivalente el cambio se evalúa colectivamente y no de manera individual. Si hay
variaciones el investigador no seria capaz de establecer en forma especifica qué individuos las provocan.
Ejemplo: Un investigador está interesado en estudiar las actitudes de los maestros respecto a las asociaciones
de profesionales en la Región “A”. Las actitudes son medidas cada tres años durante un periodo de 15 años.
En cada momento que se hace la medición, se seleccione de la población de maestros existente en ese
momento, una muestra de ellos. La membresía de la población puede cambiar a través del tiempo al menos
parcialmente (algunos pueden dejar de ser maestros o ingresar nuevos maestros), pero en cualquier momento
o tiempo la población es la misma: los maestros de la Región ‘A” (llamada población general). Éste sería un
ejemplo de un diseño de tendencia.
Si el investigador estuviera interesado en estudiar las actitudes hacia los sindicatos de profesionales por parte
de los maestros que se iniciaron como tales en 1986, en la Región “A”, el estudio involucraría el análisis de
una subpoblación o grupo específico. Tres años después, la siguiente muestra se obtendría de lo que queda de
esa subpoblación, la cual —en 1989— estará constituida por maestros con tres anos de experiencia. Desde
luego, algunos de los maestros que se iniciaron como tales en 1986 habrán dejado la docencia, y el estudio
incluirá sólo las actitudes del grupo o subpoblación de maestros que comenzaron a serlo en dicho año y en
1989 continúan en el magisterio (de toda la población de maestros se estudia a una subpoblación). Éste sería
un ejemplo de diseño de evolución de grupo o cohort.
Diseños longitudinales panel: son similares a las dos clases de diseños vistas anteriormente, sólo que el
mismo grupo específico de sujetos es medido en todos los tiempos o momentos. Un ejemplo lo sería una
investigación que observara anualmente los cambios en las actitudes de un grupo de ejecutivos en relación a
un programa para elevar la productividad, digamos durante cinco años. Cada año se observaría la actitud de
los mismos ejecutivos. Es decir, los individuos y no sólo la población o subpoblación, son los mismos.
En los diseños panel se tiene la ventaja de que además de conocer los cambios grupales, se conocen
los cambios individuales. Se sabe qué casos específicos introducen el cambio. La desventaja es que a veces
resulta muy difícil obtener exactamente a los mismos sujetos para una segunda medición u observaciones
subsecuentes. Este tipo de diseños puede estudiar poblaciones o grupos más específicos y es conveniente
cuando se tiene poblaciones relativamente estáticas.
Los diseños longitudinales se fundamentan en hipótesis de diferencia de grupos, correlacionales y
causales. Estos diseños recolectan datos sobre variables —o sus relaciones— en dos o más momentos, para
20
evaluar el cambio en éstas. Ya sea tomando a una población (diseños de tendencia o trends) a una subpoblación
(diseños de análisis evolutivo de un grupo o “cohort”) o a los mismos sujetos (diseños panel).
Comparación de los diseños transeccionales y longitudinales: Los estudios longitudinales tienen la ventaja
de que proporcionan información sobre cómo las variables y sus relaciones evolucionan a través del tiempo.
Sin embargo, suelen ser más costosos que los transeccionales. La elección de un tipo de diseño u otro, depende
más bien del propósito de la investigación. Asimismo pueden combinarse ambos enfoques, por ejemplo: Un
investigador puede analizar en un momento dado la productividad en grandes, medianas y pequeñas empresas;
y ver cómo se modifica (o no se modifica) la productividad de las grandes empresas a los seis meses, al año y
a los dos años.
Los estudios de caso: poseen sus propios procedimientos y clases de diseños. Son estudios que al utilizar los
procesos de investigación cuantitativa o mixta; analizan profundamente una unidad para responder al
planteamiento del problema, probar hipótesis y desarrollar alguna teoría. En ocasiones utilizan la
experimentación, es decir se constituyen en estudios preexperimentales. Otras veces se fundamentan en un
diseño no experimental y en ciertas situaciones se convierten en estudios etnográficos al emplear métodos
cualitativos.
RESUMEN
1. La investigación no experimental es la que se realiza sin manipular deliberadamente las variables
independientes, se basa en variables que ya ocurrieron o se dieron en la realidad sin la intervención directa del
investigador. Es un enfoque retrospectivo.
2. La investigación no experimental es conocida también como investigación expost-facto (los hechos y
variables ya ocurrieron) y observa variables y relaciones entre éstas en su contexto natural.
3. Los diseños no experimentales se dividen de la siguiente manera:
4. Los diseños transeccionales realizan observaciones en un momento único en el tiempo. Cuando miden
variables de manera individual y reportan esas mediciones son descriptivos. Cuando describen relaciones entre
variables son correlacionales y si establecen procesos de causalidad entre variables son
correlacionales/causales.
21
5. Los diseños longitudinales realizan observaciones en dos o más momentos o puntos en el tiempo. Si
estudian a una población son diseños de tendencia, si analizan a una subpoblación o grupo específico son
diseños de análisis evolutivo de grupo y si estudian a los mismos sujetos son diseños panel.
6. La investigación no experimental posee un control menos riguroso que la experimental y en aquélla es
más complicado inferir relaciones causales. Pero la investigación no experimental es más natural y cercana a
la realidad cotidiana.
7. El tipo de diseño a elegir se encuentra condicionado por el problema a investigar, el contexto que rodea
a la investigación, el tipo de estudio a efectuar y las hipótesis formuladas.
24
Como se sabe si un instrumento de medición es confiable y valido?
En la práctica es casi imposible que una medición sea perfecta. Generalmente se tiene un grado de error,
aunque se trata de que este error sea el mínimo posible, por lo que cualquier fenómeno se conceptualiza con
la siguiente fórmula: x= t + e. x representa los valores observados; t los valores verdaderos; y e el grado de
error en la medición. Si no hay un error de medición, el valor observado y el verdadero son equivalentes,
situación que refleja el ideal de la medición. Cuanto mayor sea el error al medir, el valor que observamos se
aleja del valor real o verdadero.
● Calculo de la validez: para calcularla primero es necesario revisar como ha sido medida la variable por
otros investigadores. Con base en dicha revisión, elaborar un universo de ítems o reactivos posibles para
medir la variable y sus dimensiones. Se consulta a investigadores familiarizados con la variable para ver si el
universo es verdaderamente exhaustivo. Se seleccionan los ítems bajo una cuidadosa evaluación, uno por uno.
Se administran los ítems, se correlacionan las puntuaciones de estos entre sí, y se hacen estimaciones
estadísticas para ver si la muestra es representativa. Para calcular la validez de contenido son necesarios varios
coeficientes.
27
clases de instrumentos para medir. Los instrumentos que será revisados son: cuestionarios, escalas de
actitudes, registro del contenido y observación.
Las preguntas van pre codificadas? Siempre que se pretenda efectuar análisis estadístico, se requiere
codificar las respuestas de los participantes a las preguntas del cuestionario, y debemos recordar que esto
significa asignarles un símbolo o valores numéricos y que cuando se tienen preguntas cerradas es posible
codificar a priori o decodificar las opciones de respuesta, e incluir este pre codificación en el cuestionario. En
las preguntas abiertas la codificación surge luego de que se realizaron las encuestas y se obtuvieron las
respuestas.
Que preguntas son obligatorias? Las demográficas o de ubicación del sujeto, la edad, genero, nivel socio
económico, estado civil, escolaridad, etc. En cada investigación debemos analizar cuáles son pertinentes y nos
resultaran útiles.
28
Que características debe tener una pregunta? Las características que deben cubrirse al plantearlas son:
- Preguntas tiene que ser claras, precisas, comprensibles, para los sujetos encuestados. Deben evitar
términos confusos, ambiguos y de doble sentido.
- Es aconsejable que las preguntas sean lo más breves posibles, porque las largas resultan tediosas,
toman más tiempo y pueden distraer a los participantes.
- Deben formularse con un vocabulario simple, directo y familiar para los participantes. El lenguaje
debe adaptarse al habla de la población a la que van dirigidas las preguntas.
- No pueden incomodar al sujeto encuestado, ni ser percibidas como amenazantes y nunca este debe
sentir que se le enjuicia.
- Las preguntas deben referirse preferentemente a un solo aspecto o una relación lógica. Cuando se
expresan dos aspectos en la misma pregunta suele llegar a confundir, por lo que es necesario dividir la
pregunta.
- Las preguntas no habrían de inducir las respuestas. Se tienen que evitar las preguntas tendenciosas o
que dan pie a elegir un tipo de respuesta. El participante nunca debe sentirse presionado.
- Las preguntas no pueden apoyarse en instituciones, ideas respaldas socialmente ni en evidencia
comprobada, ya que es tmb una manera de inducir respuestas.
- Es aconsejable que evitar preguntas que nieguen el asunto que s interroga, tampoco incluir dobles
negaciones.
- No deben hacerse preguntas racistas o sexistas, ni que ofendan a los participantes. Se recomienda
sortear las preguntas con fuerte carga emocional o muy complejas.
- En las preguntas con varias categorías de respuesta, y donde el sujeto participante solo tiene que elegir
una , llega a ocurrir que el orden en el que se presentan dichas opciones afecta las respuestas de los
participantes. Resulta conveniente rotar el orden de la lectura de las respuestas a elegir de manera
proporcional.
Con relación a cada pregunta del cuestionario sugieren cuestionar: es necesaria la pregunta?, es lo
suficientemente concreta?, responderán los participantes sinceramente?
En algunos casos es conveniente iniciar con preguntas neutrales o fáciles de contestar, para que el respondiente
vaya adentrándose en la situación. No se recomienda comenzar con preguntas difíciles de responder o
preguntas muy directas. Imaginemos un cuestionario diseñado para obtener opiniones en torno al aborto que
empiece con una pregunta poco sutil tal como: ¿Está usted de acuerdo en que se legalice el aborto en este
país? Sin lugar a dudas será un fracaso.
A veces los cuestionarios pueden comenzar con preguntas demográficas sobre el estado civil, sexo,
edad, ocupación, nivel de ingresos, nivel educativo, religión, ideología, puesto en una organización o algún
tipo de afiliación a un grupo, partido e institución. Pero en otras ocasiones es mejor hacer este tipo de preguntas
al final del cuestionario, particularmente cuando los sujetos puedan sentir que se comprometen al responder
al cuestionario. Cuando construimos un cuestionario es indispensable que pensemos en cuáles son las
preguntas ideales para iniciar. Éstas deberán lograr que el respondiente se concentre en el cuestionario.
¿De qué está formado un Cuestionario?: Además de las preguntas y categorías de respuestas, un
cuestionario está formado por portada, introducción, instrucciones insertas a lo largo del mismo y
agradecimiento final.
Portada: incluye la carátula; en general debe ser atractiva gráficamente para favorecer las respuestas. Debe
incluir el nombre del cuestionario y el logotipo de la institución que lo patrocina.
Introducción: debe incluir: propósito general del estudio; motivaciones para el sujeto encuestado;
agradecimiento; tiempo aproximado de respuesta; espacio para que firme o indique su consentimiento;
identificación de quién o quiénes lo aplican; explicar brevemente como se procesaran los cuestionarios y una
cláusula de confidencialidad del manejo de la información individual; instrucciones iníciales claras y sencillas.
Agradecimiento final: aunque haya agradecido de antemano vuelva a agradecer la participación.
29
Formato, distribución de instrucciones preguntas y categorías: las preguntas deben estar organizadas para
que sea más fácil de responder el cuestionario. La manera en que pueden distribuirse preguntas y categorías
de respuesta es variada cada quien es capaz de utilizar el formato que desee o juzgue conveniente, lo
importante es que en su totalidad sea comprensible para el usuario, las instrucciones, preguntas y respuestas
se diferencien, no resulte visualmente tedioso y se pueda leer sin dificultades.
¿De qué tamaño debe ser un cuestionario?: No existe una regla al respecto, pero si es muy corto se pierde
información y si resulta largo puede resultar tedioso de responder. En este último caso, las personas pueden
‘negarse a responder o —al menos— no completar el cuestionario. El tamaño depende del número de variables
y dimensiones a medir, el interés de los respondientes y la manera como es administrado.
¿Cómo se codifican las preguntas abiertas?: Las preguntas abiertas se codifican una vez que conocemos
todas las respuestas de los sujetos a las cuales se les aplicaron o al menos las principales tendencias de
respuestas en una muestra de los cuestionarios aplicados. El procedimiento consiste en encontrar y darles
nombre a los patrones generales de respuesta (respuestas similares o comunes), listar estos patrones y después
asignar un valor numérico o símbolo a cada patrón. Así, un patrón constituirá una categoría de respuesta. Para
cerrar las preguntas abiertas, se sugiere el siguiente procedimiento:
Al “cerrar” preguntas abiertas y ser codificadas, debe tenerse en cuenta que un mismo patrón de respuesta
puede expresarse con diferentes palabras. Por ejemplo, ante la pregunta: ¿Qué sugerencias podría hacer para
mejorar al programa “Estelar”? Las respuestas: “Mejorar las canciones y la música”, “cambiar las canciones”,
“incluir nuevas y mejores canciones”, etc., pueden agruparse en la categoría o patrón de respuesta “modificar
la musicalización del programa”.
31
UNIDAD 5:
Texto 5.1:CAPITULO 8. SELECCIÓN DE LA MUESTRA
¿Sobre qué o quiénes se recolectaran los datos?
Unidades de análisis: se las denomina también casos o elementos
Solo cuando debemos realizar un censo debemos incluir en el estudio a todos los casos del universo o
población, sino utilizamos una muestra.
El interés se centra en “que o quienes”, los participantes, objetos, sucesos o comunidades de estudio. Esto,
depende del planteamiento inicial de la investigación: no sólo del objetivo de la investigación sino del diseño
32
de la misma, para lograr una coherencia entre los objetivos de la investigación y la unidad de análisis de la
misma.
Para seleccionar una muestra, lo primero que hay que hacer es definir la unidad de análisis; después,
se delimita la población.
La muestra es un subgrupo de la población de interés sobre el cual se recolectaran datos, y que tiene que
definirse de antemano, deben delimitarse las características de la población y debe ser ésta estadísticamente
representativa de la población.
Muestreo cuantitativo:
Objetivo central: seleccionar casos representativos para la generalización.
Generalizar: *características
* Hipótesis
Con la finalidad de construir y probar teorías que expliquen a la población o fenómeno
La delimitación de las características de la población no sólo depende de los objetivos del estudio, sino de
otras razones prácticas: la calidad de un trabajo estriba en delimitar claramente la población con base al
planteamiento del problema; debe situarse claramente en torno a sus características de contenido, lugar y en
el tiempo.
Para una adecuada delimitacion del universo o población: Los criterios que cada investigador cumpla
dependen de sus objetivos de estudio, lo que es importante es establecerlos claramente. Toda investigación
debe ser transparente, sujeta a crítica, y este ejercicio no es posible si al examinar los resultados, no pueden
referirse a la población utilizada en un estudio.
33
Pocas veces se puede medir a toda la población, por lo que obtenemos o seleccionamos una muestra y se
pretende que este
subconjunto sea un reflejo
fiel del conjunto de la
población.
Tipos de muestra
Muestra probabilística: subgrupo de la población en el que todos los elementos de esta tienen la misma
posibilidad de ser elegidos.
Muestra no probabilística o dirigida: subgrupo de la población en la que la selección de los elementos no
depende de la probabilidad sino de las características de la población.
Categorizamos las muestras en dos grandes ramas: las muestras no probabilísticas y las muestras
probabilísticas. En estas últimas todos los elementos de la población tienen la misma posibilidad de ser
escogido, se obtiene definiendo las características de la población, el tamaño de la muestra y a través de una
selección aleatoria y/o mecánica de las unidades de análisis.
En las muestras no probabilísticas, la elección depende de causas relacionadas con las características del la
investigación o de quien que hace la muestra. Aquí el procedimiento depende del proceso de toma de
decisiones de una persona o grupo de personas.
El elegir entre una muestra probabilística o una no probabilística, depende de los objetivos del estudio, del
esquema de investigación y de la contribución que se piensa hacer con dicho estudio.
34
En ocasiones el interés del investigador es comparar sus resultados entre segmentos o grupos de la
población.
Lo que aquí se hace es dividir a la población en subpoblaciones o estratos y se selecciona una muestra para
cada estrato. La estratificación aumenta la precisión de la muestra e implica el uso deliberado de diferentes
tamaños de muestra para cada estrato, a fin de lograr reducir la varianza de cada unidad de la media muestral”
Dice Kish que en un número determinado de elementos muestrales n = Znh (la Z en realidad es ese dibujo
que representa la suma de, como no lo tengo pongo Z!) la varianza de la media muestral y puede reducirse
al mínimo si el tamaño de la muestra para cada estrato es proporcional a la desviación estándar dentro del
estrato.
Esto es:
En donde la muestra n será igual a la suma de los elementos muestrales nh. El tamaño den y la varianza de y
pueden minimizarse, si calculamos “submuestras” proporcionales a la desviación estándar de cada estrato.
Esto es:
En donde, nh y Nh son muestras y población de cada estrato, y sh es la desviación estandar de cada elemento
en un determinado estrato. Entonces tenemos que:
35
Siguiendo el ejemplo del inciso anterior, determinamos una muestra, y a partir de este se determinó una
submuestra para cada estrato.
Se eligen aquellos casos que se dictaminen en la tabla de números random, hasta completar el tamaño de la
muestra. Los números pueden recorrerse hacia arriba, hacia abajo, horizontalmente. Al fin siempre se logra
que cada elemento muestral tenga la misma probabilidad de ser elegido.
Mapas
Los mapas son muy útiles como marco de referencia en muestras por racimo. Por ejemplo, un investigador
quiere saber qué motiva a los compradores en una determinada tienda de autoservicio. Sobre un mapa de la
ciudad y a partir de la lista de tiendas que de cada cadena competidora: el mapa le permite ver la población
(tiendas autoservicio) y su situación geográfica, de manera que eligió zonas donde coexistan tiendas de la
competencia, como para asegurarse que el consumidor de la zona tenga todas las posibles alternativas.
36
las siguientes que indican el tamaño de la muestra más utilizada por los investigadores según sus poblaciones
(nacionales o regionales) y según los subgrupos que quieren estudiarse en ellas.
Las muestras nacionales, las que representan la población de un país, por lo general son de más de
1000sujetos.
Las muestras regionales (por ejemplo las que representen al área metropolitana) algún estado del país
o algún municipio o región son típicamente más pequeñas con rangos de 700 a 400 sujetos. El tamaño de una
muestra tiende más a depender del número de subgrupos que nos interesan en una población.
Recordemos que lo óptimo de una muestra depende en qué tanto su distribución se aproxima a la distribución
de las características de la población. Esta aproximación mejora al incrementarse el tamaño de la muestra
La distribución de muestras de 100 o más elementos tienden a ser normales y esto sirve para el
propósito de hacer estadística inferencial sobre los valores de una población. A esto se le llama teorema de
límite central: señala que una muestra de mas de 100casos, será una muestra con una distribución normal en
sus características, lo cual sirve para el propósito de hacer estadística inferencial.
Distribución normal: esta distribución en forma de campana se logra generalmente con muestras de
100 o más unidades muéstrales y es útil y necesaria cuando se hacen inferencias de tipo estadístico
El método estadístico:
Es el metodo por el cual se procesan los datos, cuenta con las siguientes etapas:
Recolección de datos: es la etapa inicial, estos datos brindan información sobre las características de los
individuos observados.
Agrupamiento de datos. Gráficos : los datos recogidos deben ser convenientemente ordenados y agrupados,
dispuestos en tablas o graficos para facilitar su lectura.
Medición De datos. Analisis: aquí comienza a actuar la matematica. Se observa si los datos tienden a centrarse
en torno de algunos valores denominados parámetros de posición (media, mediana,modo). Luego se analiza
la dispersión de esos valores respecto de esos parámetros de posicion. Surgen asi los parámetros de dispersión
(desviación media, varianza, desviación estándar)
Inferencia estadística: mientras la estadística descriptiva trabaja con TODOS los individuos de la población;
la estadística inferencial trabaja con muestras, subconjuntos formados por algunos individuos de la población.
La inferencia estadística puede permitir en algunos casos predecir el comportamiento futuro de la población
obeservada.
1)RECOLECCION DE DATOS:
para que el investigador social pueda llevar a cabo una investigación necesita de su materia prima, y ésta son
los DATOS y sus tecnicas el METODO ESTADISTICO. si la materia prima no es buena, el producto final,
su investigacion, tmp lo será. por eso es que es tan improtante esta etapa.
POBLACION: es el Total del conjunto de observaciones
Individuo: es cada uno de los elementos observados
Atributo: es el aspecto que se observa.
Ejemplo: se quiere realizar un estudio sobre los pesos de los alumnos de un curso. La POBLACION es el
conjunto de pesos, el INDIVIDUO es cada peso, y el ATRIBUTO es el peso.
Tipos de atributos:
Cualitativos: no se expresan por un numero (sexo, religión, nacionalidad)
38
Cuantitativos: se expresan por un numero (peso, estatura,salario)
Cuando el atributo es cuantitativo: si la variable se mide en un Numero Entero, es una Variable Discreta; si
se mide en números reales es una Variable Continua.
o Serie Simple: se indica la estatura correspondiente a cada alumno es una tabla o matriz de datos:
ALUMN ESTATUR
O A EN MTS
1 1,62
2 1,77
3 1,64
4 1,64
5 1,64
6 1,66
7 1,69
8 1,66
9 1,66
10 1,66
11 1,66
12 1,66
13 1,74
14 1,67
15 1,67
16 1,67
17 1,67
18 1,67
19 1,69
20 1,69
21 1,69
22 1,66
23 1,69
24 1,71
25 1,71
26 1,71
27 1,72
28 1,67
29 1,74
30 1,62
o Serie de Frecuencias:
39
X f fr fa %
1,62 2 0,07 2 7
1,64 3 0,1 5 10
1,66 7 0,23 12 23
1,67 6 0,2 18 20
1,69 5 0,17 23 17
1,71 3 0,1 26 10
1,72 1 0,03 27 3
1,74 2 0,07 29 7
1,77 1 0,03 30 3
30 1 100%
E
Frecuencia absoluta (f) indica cuantas veces aparece el valor de cada variable
Frecuencia relativa (fr) es qué parte del total representa cada valor de la variable. Se obtiene dividiendo la
frecuencia absoluta por el número total de observaciones:
Frecuencia absoluta f
Fr= =
Total de observaciones n
Frecuencia acumulada (fa): indica cuantos datos se acumulan hasta un cierto valor. Se obtiene sumando a la
Frecuencia de ese valor, las Frecuencias de los valores anteriores.
Porcentaje (%): se obtiene multiplicando la Frecuencia relativa por 100. ( Fr x 100)
Intervalos de clase:
Cuando hay muchos datos, a veces conviene agruparlos por intervalos iguales llamados intervalos de clase.
Para determinar cuantos intervalos tomar y de qué amplitud, debemos primero, determinar el RANGO: que
es la diferencia entre el mayor valor y el menor valor.
La Amplitud se obtiene dividiendo el Rango por el numero de intervalos con los que se quiere trabajar. Si es
necesario el valor se puede aproximar.
Rango
A=
Numero de intervalos
GRAFICOS:
Otra forma de visualizar la información son los graficos. Hay distintos tipos.
● Graficos circulares: trabajan con porcentajes, el área de cada sector representa el porcentaje que
corresponde a la frecuencia de un cierto valor de la variable. Resultan muy adecuados cuando hay
POCOS VALORES, o bien cuando el carácter que se estudia es
cualitativo.
40
a) horizontales
b) verticales
● Polígono de frecuencia: es la curva que se obtiene asi: se determinan los puntos medios de cada
intervalo de clase y su correspondiente frecuencia; además el punto medio del intervalo que antecede
al primero y el que sigue al ultimo. La CURVA que uno esos puntos se denomina Poligono de
Frecuencias.
● Curvas: se emplean para representar la evolución de una variable a traves del tiempo.
41
A partir de las observaciones, es necesario obtener números que las caractericen o representen. Estos se
denominan Parámetros. Ellos pueden ser:
✓ Parámetros de posición: Los más comunes son la media aritmética (promedio), la mediana y la moda.
Media Aritmética ( x ) : es el centro de gravedad de la distribución. Se calcula:
*si los datos NO están agrupados: X = X1 + X2 +… + Xn
N
es decir: X = Ex (chicas la E, es ese simbolito raro parecido q aparece en los apuntes, acá no hay)
n
Es decir: X = Exm. f
N
La Mediana (Md)
Indica el valor de la variable por encima y por debajo del cual está la misma cantidad de observaciones.
a) Los datos NO están agrupados: se ordenan las observaciones de mayor a menos. Si N es par, la mediana
es el promedio de los valores centrales, si N es impar , es el valor central.
*serie de frecuencias: la mediana corresponde al menor valor cuya frecuencia acumulada es mayor o igual
que N(es el total, o sea la cantidad de muestras. por Ej. 20 personas) dividido 2.
*intervalo de clase: consideramos los intervalos de clase y las frecuencias acumuladas. Determinamos el
intervalo de clase en el cual la frecuencia acumulada es el menor valor mayor o igual que n / 2. Se obtiene:
N - fa
Md = li + 2 h
f
42
✓ Parámetros de dispersión:
Desviación: es la diferencia entre el valor de cada variable y la media.
Desviación media (Dm)
a) Los datos no están agrupados (serie simple): se obtiene efectuando el cociente entre la suma de los
valores absolutos de las desviaciones y el numero de observaciones.
Dm = E( x – x)
N
*intervalo de clase: es igual al promedio de los productos d los valores absolutos de los desvíos respecto del
punto medio del intervalo por la frecuencia del intervalo:
E (Xm – X). F1
N
LA VARIANZA: se trabaja con los cuadrados de las desviaciones. (Es decir los 3 casos anteriores, cada uno
al cuadrado)
La desviación estándar (o) es la raíz cuadrada de la varianza. Mide la dispersión de los datos con respecto a la
media.
O = / o2
PARAMETROS:
DE POSICION:
Media aritmética
Mediana
Moda
DE DISPERSION:
Desviación
Desviación media
Varianza; desviación estándar.
43
Unidad 6
Texto 6.1 leer de toma de nota
Las estimaciones que surgen de comparar los ingresos de los hogares que provienen de la Encuesta Permanente
de Hogares con el valor de la línea de pobreza que se computa regularmente. Para cada período se calcula una
línea de pobreza por hogar de manera de tomar en cuenta las diferencias que existen entre ellos en cuanto a la
cantidad de personas que lo componen, como en la distribución de sus miembros en términos de edades y
géneros.
En el año 1992 se introducen mejoras metodológicas donde el punto de partida de dicha metodología es el
cómputo del valor de la Canasta Básica de Alimentos. El valor monetario de esta canasta corresponde a la
Línea de Indigencia.
44
Para determinar dicha Canasta, se consideran inicialmente los valores recomendados por los nutricionistas
respecto de las cantidades mínimas de calorías y otros nutrientes que requieren personas de distinto género y
edad.
Ahora bien, es obvio que el gasto no alimentario de la población de referencia incluye gastos de vivienda,
medicamentos, indumentaria y transporte público, y turismo y mantenimiento de vehículos particulares. De
todos modos se insiste en que metodológicamente se emplea un estimador agregado: la inversa del coeficiente
de Engel.
A los efectos de poder seguir la evolución de la magnitud de la pobreza, esos valores originales son
regularmente actualizados a fin de tomar en cuenta la variación de los precios( el valor original de la canasta
alimentaria se actualiza con la variación de los precios de los artículos considerados en ella tomando los
precios medios de cada producto); para establecer en cada período el valor del coeficiente de Ángel, se procede
a actualizar la estructura de gastos del segundo quintil del ingreso per cápita del hogar (población de
referencia) de acuerdo a los cambios experimentados por los índices de precios correspondientes, lo cual
supone que se mantienen constantes las cantidades físicas del año base.
3. Comentarios sobre el ejercicio metodológico “Población Indigente y pobre en el total urbano: metodología
alternativa” de la Dirección Nacional de Coordinación de Políticas Macroeconómicas (DNCPM).
La DNCPM elaboró recientemente un informe en el cual se ejercita un cálculo de medición de la pobreza
basado en el “enfoque del ingreso”, pero que utiliza criterios metodológicos diferentes.
Esto merece algunas consideraciones.
En primer lugar, cuando se dispone de nueva información, no resulta recomendable realizar modificaciones
parciales de una metodología sino que deben encararse revisiones integrales.
No hay diferencias entre las metodologías del INDEC y de la DNCPM, ya que utilizan la misma Canasta
Básica Alimentaria.
45
Las diferencias surgen en el criterio utilizado para valorizar esa canasta ya que la DNCPM argumenta que los
precios medios - que utiliza el INDEC- no son representativos de los que pagan los hogares de menores
ingresos porque tienen un alto componente de precios tomados en grandes centros comerciales (a los cuales
los pobres no concurren).
La dificultad que tiene esta propuesta es que implica abandonar el mejor indicador disponible para medir la
evolución de los precios y optar por alternativas que importan una menor calidad en términos estadísticos.
Por otra parte, definido el valor de la CBA en el año base, la actualización supone aplicar tasas de variación
de los precios. Estadísticamente lo mejor es aplicar el
Estimador IPC de los alimentos que componen la CBA.
3. b Gastos no alimentarios.
La otra modificación que propone la metodología de la DNCPM se refiere al cálculo de la inversa del
coeficiente de Engel para determinar el componente no alimentario de la línea de pobreza. En
Primer lugar propone utilizar el primer quintil de ingreso per cápita como población de referencia y no el
segundo .
Se justifica el cambio argumentando que el INDEC considera como población de referencia un estrato que
tiene "consumos suntuarios" como los que se efectúan en concepto de compra y mantenimiento de vehículos
particulares.
En segundo lugar, a fin de contar con una estructura más actualizada del consumo – propone utilizar como
población de referencia el primer quintil de la Encuesta Nacional de Gastos de los Hogares de 1996/97.
Se vuelve a afirmar que el procedimiento correcto es utilizar la misma población de referencia, y esta debe
estar constituida por los hogares ubicados en el umbral inmediato superior a aquellos que apenas satisfacen
las necesidades básicas alimentarias.
Si la propuesta de considerar al primer quintil se basa en el cuestionamiento por la inclusión de determinados
rubros de gastos que podrían considerase suntuarios, un procedimiento más ajustado sería excluir tales rubros
del gasto de la población de referencia y recalcular el coeficiente de Engel.
Otro punto cuestionable de la metodología de la DNCPM, es que no solo utiliza dos poblaciones de referencia
sino que además, las mismas surgen de encuestas realizadas con una diferencia de 10 años.
En resumen, el ejercicio metodológico realizado por la DNCPM significa, en los hechos, que la Línea de
Indigencia estimada, tiene en común con la medición oficial, la misma población de referencia y la misma
composición de la Canasta Básica Alimentaria, cuyas pautas de consumo de alimentos es la que surge del año
base 1985, pero utiliza para valuarla precios más bajos.
Otra cuestión que se contempla en dicha revisión es la que hace al estudio de los sesgos de la medición de los
ingresos en las encuestas a hogares.
Todas estas revisiones y avances reconocen la necesidad de que se proporcione a los usuarios y público en
general la más amplia información acerca de la metodología y de los supuestos implícitos de las estimaciones
oficiales de pobreza. Marzo de 2003
46
VALORIZACION MENSUAL DE LA CANASTA BASICA ALIMENTARIA Y DE LA CANASTA
BASICA TOTAL
Concepto de Canasta Básica Alimentaria y de Canasta Básica Total
La medición de la pobreza con el método de la "Línea de Pobreza" (LP) consiste en establecer, a partir de los
ingresos de los hogares, si éstos tienen capacidad de satisfacer -por medio de la compra de bienes y servicios-
un conjunto de necesidades alimentarias y no alimentarias consideradas esenciales.
El procedimiento parte de utilizar una Canasta Básica de Alimentos (CBA) y ampliarla con la inclusión de
bienes y servicios no alimentarios (vestimenta, transporte, educación, salud, etcétera) con el fin de obtener la
Canasta Básica Total (CBT).
La CBA se ha determinado en función de los hábitos de consumo de la población. Previamente se tomaron
en cuenta los requerimientos normativos kilocalóricos y proteicos imprescindibles para que un hombre adulto,
entre 30 y 59 años, de actividad moderada, cubra durante un mes esas necesidades. Se seleccionaron luego los
alimentos y las cantidades a partir de la información provista por la Encuesta de Ingresos y Gastos de los
Hogares.
Para determinar la Canasta Básica Total, se consideraron los bienes y servicios no alimentarios. Se amplía la
CBA utilizando el "Coeficiente de Engel" (CdE), definido como la relación entre los gastos alimentarios y los
gastos totales observados.
Tanto la CBA como los componentes no alimentarios de la CBT se valorizan cada mes con los precios
relevados por el Índice de Precios al Consumidor (IPC).
Dado que los requerimientos nutricionales son diferentes según la edad, el sexo y la actividad de las personas,
es necesario hacer una adecuación que refleje las características de cada individuo en relación a sus
necesidades nutricionales. Para ello se toma como unidad de referencia la necesidad energética (2.700 kcal)
del varón adulto (de 30 a 59 años, con actividad moderada) y se establecen relaciones en función del sexo y
la edad de las personas construyendo así una tabla de equivalencias. A esa unidad de referencia se la denomina
"adulto equivalente".
2. Resultados recientes
El INDEC comunica periódicamente la incidencia de la pobreza y de la indigencia. En el primer caso se analiza
la proporción de hogares cuyo ingreso no supera el valor de la CBT; en el segundo, la proporción de los que
no superan la CBA.
Para efectuar esa comparación, se calculan los ingresos mensuales de cada uno de los hogares, relevados a
través de la Encuesta Permanente de Hogares (EPH) y se los compara con la CBA y la CBT correspondientes
al mismo hogar, considerando los valores "equivalentes" de todos sus miembros.
4. Tabla de equivalencias
Para calcular las unidades consumidoras en términos de adulto equivalente, se utiliza la tabla de equivalencias
de las necesidades energéticas.
5. Ejemplos de cálculos
5.1 Determinación de las unidades consumidoras (adultos equivalentes)
Se presentan a continuación un ejemplo de cómo se determina la cantidad de unidades consumidoras (adultos
equivalentes) para diferentes hogares.
– Hogar 1: de tres miembros, compuesto por una jefa de 35 años, su hijo de 18 y su madre de 61:
La jefa equivale a 0,74 de adulto equivalente.
El hijo equivale a 1,06 de adulto equivalente.
La madre equivale a 0,64 de adulto equivalente.
En total el hogar suma 2,44 unidades consumidoras o adultos equivalentes.
47
5.2 Determinación de los ingresos necesarios por hogar para superar el umbral de indigencia y de pobreza
La composición de cada hogar en términos de adultos equivalentes determina un valor de CBA específico
para ese hogar. Surge de multiplicar el costo de la CBA del adulto equivalente por la cantidad de adultos
equivalentes que conforman el hogar.
Para obtener el valor de la CBT, se multiplica el valor de la CBA del hogar por la inversa del Coeficiente de
Engel.
Los hogares serán considerados pobres si su ingreso es menor al valor de la CBT que le corresponde,
e indigente si su ingreso es inferior a la CBA correspondiente.
Texto 6.3
Capitulo 11 - Hernandez Sampieri
· El reporte de resultados del proceso cuantitativo
Se mencionan dos tipos de reportes académicos y no académicos, así como los elementos más comunes que
integran un reporte producto de la investigación cuantitativa.
48
Usuarios Contextos Estándares que normalmente Tipo de Report
comunes posibles aplican para elaborar el
reporte
49
Revisores de Académico Lineamientos o estándares Ponencia, poster o
ponencias para definidos en la convocatoria del cartel
congreso y congreso. Estos estándares son
académicos para el escrito que se presenta
externos( y/o publica así como para los
presentaciones en materiales adicionales
congresos, foros) requeridos.
50
Pero cada elemento se trata con mayor brevedad y se eliminan las explicaciones técnicas que no pueden
ser comprendidas por los usuarios.
1) Tipos
Al igual que en los reportes cuantitativos, los reportes cualitativos son una manera de describir el estudio a
otras personas, y representa la culminación del proceso de investigación, el reporte debe ofrecer una respuesta
al planteamiento del problema y señalar las estrategias que se usaron para abordarlo.
Son más flexibles que los cuantitativos y se desarrollan mediante un esquema y forma narrativa.
Portada: comprende, titulo de la investigación, el nombre del autor o los autores , nombre de la
institución u organización
Índice de reporte o tabla de contenidos: capítulos, apartados y sub apartados
Resumen: contiene de manera breve el contenido fundamental del reporte de investigación y en
general incluye el planteamiento del problema , el método los resultaos más importantes y
principales conclusiones .
Cuerpo del documento:
Introducción: incluye antecedentes, planteamiento del problema, contexto de investigación,
importante que se comente la importancia del estudio para el campo profesional.
Método: como fue llevada la investigación?
- Contexto lugar o escenario
- Muestra o participantes: tipo procedencia, edad, genero etc.
- Diseño o abordaje: teoría fundamentada. Estudio narrativo etc.
- Procedimiento: resumen de cada paso en el procedimiento de la investigación.
Referencia o bibliografía
Apéndices un ejemplo de apéndice para un estudio cualitativo serian la guía de entrevistas.
3) Descripción del contexto o ambiente
A tener en cuenta:
52
Preg d parcial
que es un cuestionario, requisito, tipos..
que es una muestra, tipos de muestreo aleatorio
medir Media, Mediana y Moda
que es un diseño de intervencion, clasificacion y describir el experimental puro
y los NBI, que son y explicar los 5...
El otro parcial era: q es medir? Describir requisitos del instrumento. Requisitos de la investigacion
experimental. Tipos. Un ejercicio de media aritmetica y desviacion media en serie de frecuencias. Calcular
pobreza e indigencia en un caso. Y diseño descriptivo explicativo y correlacional. ejercicios de como sacar
la media aritmetica y la desviacion estandar, y calcular la linea de pobreza e indigencia (ellos te dan las
formulas)
53
aquellos elementos qe deben ser incluidos en la muestra. Estas muestras no son tan útiles y se emplean en los
estudios de caso.
Muestra causal o accidental: es aquella q se obtiene sin ningún plan preconebido.las unidades elegidas resultan
producto de circunstancias fortuitas. El investigador no puede saber hasta que punto sus resultados podrán
proyectarse con confiabilidad.
Bola de nieve: se localizan algunos individuos, los cuales conducen a otros y estos a otros y así hasta conseguir
una muestra suficiente. Se aplica a casos especiales como drogadictos, pandillas,etc.
Tamaño de la muestra: la muestra descansa en el principio de que las partes representan al todo, y por tal,
refleja las características que definen a la población de la cual fue extraída, lo cual nos indica que es
representativa. Es decir, que para hacer una generalización exacta de una población, es necesario tomar una
muestra representativa.
La inferencia estadística realiza un estudio sobre una o varias muestras extraídas de una población o universo
y las conclusiones a las que se arriban son aplicables a todos los elementos de dicha población.
Limite de confianza: es la probabilidad de que el verdadero valor del parámetro estimado en la población se
sitúe en el intervalo de confianza obtenido.
Error sistemático: llamado de Distorsión o sesgo de la muestra, se presenta por causas ajenas a la muestra,
como:
Situaciones inadecuadas: se presentan cuando el encuestador tiene dificultades para obtener información y la
sustituye por la q más fácilmente está a su alcance, q no siempre es la más confiable.
Insuficiencia en la recolección de datos: hay distorsión por falta de respuestas o respuestas inadecuadas, ya
sea por ignorancia o falta de datos relativos a los elementos incluidos. Distorsiones causadas por prejuicios,
interés personas.
Errores de cobertura: a causa de que no se han incluido elementos importantes y significativos para la
investigación que se realiza.
Error de muestreo o muestral: error de estimación o estándar. Es la diferencia entre un estadístico y su
parámetro correspondiente. Es una medida de la variabilidad de las estimaciones de muestras repetidas en
torno al valor de la población, nos da una noción clara de hasta dónde y con qué probabilidad una estimación
basada en una muestra se aleja del valor que se hubiera obtenido por medio de un censo completo.
A medida que incrementamos el tamaño de la muestra, el error muestral tiende a reducirse, pues la muestra
va acercándose más al tamaño del universo.
Para fijar el tamaño de la muestra adecuado a cada investigación, es preciso primero determinar el porcentaje
de error que estamos dispuestos a admitir.
En estadística se llama, ESTIMACION, al conjunto de técnicas que permiten dar un valor aproximado de un
parámetro de una población a partir de los datos proporcionados por una muestra.
El termino PARAMETRO es utilizado para designar alguna característica descriptiva de los elementos de la
población. De forma análoga llamaremos estadístico A ALGUNA CARACTERISTICA DESCRIPTIVA DE
LOS ELEMENTOS DE LA MUESTRA.
Llamamos ERROR Muestral a la diferencia entre el valor del estadístico y el valor del parámetro. Para
determinar el tamaño de la muestra, el investigador necesita especificar el Error Muestra Tolerable, o sea
cuando se permite errar en la evaluación de los parámetros de interés., una fórmula para el cálculo del tamaño
mínimo de las muestras es:
No = 1
Eo (al cuadrado)
N: tamaño de la población
N: Tamaño de la muestra
No: Una primera aproximación para el tamaño de la muestra
Eo: error muestral tolerable
El uso de las MUESTRAS tiene el objetivo de extraer conclusiones q sean validas para el universo del cual se
obtuvo dicha muestra. Estas conclusiones tienen 2 propositos:
● ESTIMAR el valor de determinada característica de la población
54
● Prueba de Hipótesis estadísticas referidas a características de universo. Toman la forma de una
hipótesis nula. El investigador está interesado en rechazar esa hipótesis y aceptar consecuentemente
una hipótesis alternativa.
Condiciones de una buena muestra:
✓ TAMAÑO:
✓ Calidad
POBLACION Y MUESTRA
Población o universo: es el conjunto de todas las unidades o individuos en los que se desea estudiar el
fenómeno, el investigador debe definir y delimitar claramente el universo.
Una población está determinada por sus características definitorias. Por lo tanto, el conjunto de elementos que
posea esta característica se denomina Población o Universo. Población es la totalidad del fenómeno a estudiar,
donde las unidades de población poseen una característica común, la q se estudia y da origen a los datos d una
investigación.
Entonces, una población es el conjunto de todas las cosas q concuerdan con una serie determinada de
especificaciones.
En el caso q nuestro universo está compuesto por un numero alto de unidades será prácticamente imposible
examinar cada una de ellas, por ello se procede extraer una muestra. Cuando seleccionamos algunos elementos
con la intención de averiguar algo sobre una población determinada, nos referimos a este grupo de elementos
como Muestra.
La muestra descansa en el principio de que las partes representan al todo, y por tal, refleja las características
q definen la población de la que fue extraída.
Muestra es un subconjunto del universo, seleccionado por algun método de muestreo sobre el cual se realiza
la observación y recolección de los datos. El metodo de muestreo debe ser tal q asegure que la misma tenga
validez técnico-estadistica, es decir cumpla con los siguientes requisitos:
✓ Debe ser representativa: o reflejo general del unvierso estudiado, reproduciendo lo mas exactamente
las características del mismo
✓ Qe su tamaño sea estadísticamente proporcionado a la magnitud del universo
✓ Que el error muestral se mantega dentro de los limites adoptados como permitidos.
Individuo-unidad de observación: es cada uno de los elementos que componen el universo y la muestra. Los
individuos no son necesariamente personas pueden serlo o sino ser acontecimientos.
Marco de referencia de un estudio estadístico:
1_ definir la unidad de observación. Las unidades de observación pueden tener existencia natural, como una
persona o cosa, o puede estar definida artificialmente como las distintas areas d una empresa.
2_ determinar qué vamos a medir
3_ definir si el relevamiento de datos se hace sobre la totalidad(población) o sobre una muestra. Si el analisis
se realiza en base a una muestra, el objetivo es obtener conclusiones acerca de la población.
4_ identificar el marco del muestreo.
NO PROBABILISTICO:
Por cuotas
Intencional / teórico
Casual- accidental
Bola de nieve.
56