Ruiz 2016 PDF
Ruiz 2016 PDF
Ruiz 2016 PDF
Tesis Doctoral
UNIVERSIDAD DE GRANADA
Departamento de Didáctica de la Matemática
Trabajo realizado en el marco del Proyecto EDU2010.14947 (MCIN) y
Grupo PAI FQM126 (Junta de Andalucía).
Resumen, 1 1
Inntroducció
ón, 5
PARTE I: FUNDAM
MENTACIÓN
Capítulo 1. Fundamen
ntación de lla investigaación
1. Introoducción, 11
1
2. El prroblema de investigació
ón, 11
2.1. Demanda ssocial y desarrrollo de la edducación en eestadística, 122
2.2. Rezago de las institucioones educativvas, 14
2.3. Problemass de la enseñaanza y el apreendizaje de laa estadística, 16
2.4. El objeto d
de estudio: Laa variable aleaatoria, 17
3. Marcco teórico, 2
20
3.1. Teoría de ssituaciones didácticas, 20
3.1.1. Teeoría de la equilibración mmayorante de Piaget, 21
3.1.2. Sittuaciones a‐ddidácticas, 22
3.1.3. Sittuación didácctica, 23
3.1.4. Cooncepciones y y errores, 25
3.2. Elementos del enfoque ontosemióticco, 27
3.2.1. Siggnificado de uun objeto maatemático, 27
3.2.2. Ob bjetos que inttervienen en los sistemas de prácticas, 28
3.2.3. Faacetas duales del conocimiiento matemáático, 30
3.2.4. Ido oneidad didááctica, 31
4. Objeetivos de inv
vestigación, 32
5. Metoodología de investigacióón, 34
5.1. Ingeniería didáctica, 377
5.2. Entrevista clínica, 39
5.3. Análisis dee contenido en produccion
nes escritas, 4
40
Capítulo 2. Anteceden
ntes
1. Intro
oducción, 45
5
2. Estu
udios de Piagget sobre el desarrollo eevolutivo dee la idea de d
distribución
n, 46
2.1. La idea de aleatoriedad
d según Piagett, 46
2.2. ones normalees, 49
Distribucio
2.3. Distribució
ón de Poisson
n, 51
i
Índice
3. Investigaciones sobre la comprensión de la idea de distribución, 53
3.1. Distribuciones de variables estadísticas, 54
3.2. Distribuciones de variables aleatorias, 58
4. Investigaciones sobre la comprensión de la distribución normal, 59
5. Investigaciones específicas sobre la variable aleatoria, 61
5.1. Investigaciones sobre libros de texto, 61
5.2. Otras investigaciones sobre la didáctica, 65
5.3. Investigaciones sobre aspectos epistemológicos, 67
5.4. Investigaciones cognitivas, 71
6. Investigaciones sobre percepción de la aleatoriedad, 74
6.1. Generación de resultados aleatorios, 76
6.2. Reconocimiento de resultados aleatorios, 77
7. Conclusiones del capítulo, 78
ii
Índice
Capítulo 4. Estudio 2: Análisis Epistemológico histórico
1. Introducción, 129
2. Primeros indicios. Previsión de la apuesta en juegos de azar. Esperanza
matemática, 130
3. Elaboración de censos y previsión de datos socioeconómicos. Variable
estadística, 134
4. Teorema central del límite y modelos generales de distribuciones, 140
4.1. Las aportaciones de Jacob Bernoulli, 140
4.2. Las aportaciones de Abraham de Moivre, 144
4.3. Las aportaciones de Gauss, Legendre, Laplace, 148
4.4. Las aportaciones de Simeón Denis Poisson, 152
4.5. Las aportaciones de Pafnuti L. Chebyshef y sus discípulos, 155
5. Inferencia estadística. Relación entre las variables estadística y aleatoria, 162
5.1. Las aportaciones de Lambert Adolphe Jacques Quetelet, 163
5.2. Las aportaciones de Francis Galton, 164
5.3. Las aportaciones de Karl Pearson, 168
5.4. Las aportaciones de Gosset, Fisher, Neyman y E. Pearson, 171
5.5. La variable estadística en la actualidad, 175
6. Formalización matemática de la variable aleatoria, 176
6.1. Aportaciones de Kolmogorov y Fréchet, 177
6.2. Aportaciones de Lévy, Petrov y Parzen, 181
7. Conclusiones del capítulo, 186
7.1. Etapas históricas, 190
7.2. Interacciones entre los análisis estadísticos y probabilísticos, 195
7.3. Saltos cualitativos de las etapas históricas, 198
7.4. Algunos usos posibles en la didáctica, 199
iii
Índice
7. Implementación, 230
8. Análisis de los resultados, 231
8.1. Objeto de análisis: Aleatoriedad, 232
8.1.1. Aleatoriedad en la situación problema, 232
8.1.2. Relación establecida entre aleatoriedad y probabilidad, 234
8.1.3. Discusión de los resultados obtenidos en el objeto aleatoriedad, 235
8.2. Objeto de análisis: Probabilidad, 236
8.2.1. La probabilidad en el espacio muestral, 237
8.2.2. La distribución de probabilidad como función, 240
8.2.3. Discusión de los resultados obtenidos en el objeto probabilidad, 248
8.3. Objeto de análisis: Variable aleatoria, 252
8.3.1. La variable aleatoria en el problema, 253
8.3.2. La variable aleatoria como función, 254
8.3.3. La variable aleatoria y su distribución de probabilidad, 256
8.3.4. Lenguaje utilizado, 261
8.3.5. Discusión de los resultados obtenidos en el objeto variable aleatoria,
263
8.4. Objeto de análisis: Solución del problema, 266
8.4.1. Estrategias y recursos en la solución del problema, 266
8.4.2. Discusión de los resultados obtenidos en el objeto solución del
problema, 268
9. Conclusiones del capítulo, 271
9.1. Confrontación de la entrevista con las hipótesis, 272
9.2. Idoneidad de la actividad propuesta, 277
iv
Índice
7.2. Objeto de Análisis: Variable estadística, 348
7.2.1. Distribución de la variable estadística, 348
7.2.2. Momentos de la variable estadística, 372
7.2.3. Discusión de resultados en el objeto variable estadística, 377
7.3. Objeto de análisis: Variable aleatoria y su relación con la variable estadística,
377
7.3.1. Referencia a la variable, 380
7.3.2. Referencia a las probabilidades o distribución, 382
7.3.3. Referencia a los parámetros, 384
7.3.4. Discusión de resultados en el objeto relación entre la variable
aleatoria y su relación con la estadística, 386
7.4. Objeto de análisis: Ciclo de modelación, 387
7.4.1. Observación de la realidad, 388
7.4.2. Descripción simplificada de la realidad, 390
7.4.3. Construcción de un modelo, 392
7.4.4. Trabajo matemático con el modelo, 393
7.4.5. Interpretación de resultados en la realidad, 397
7.4.6. Discusión de resultados en objeto ciclo de modelación, 415
8. Conclusiones del capítulo, 418
8.1. Confrontación de los resultados con las hipótesis, 418
8.2. Idoneidad del proyecto, 426
7. CONCLUSIONES
1. Introducción, 431
2. Sobre los estudios epistemológicos, 432
3. Sobre los estudios cognitivos, 438
4. Aportaciones y limitaciones de la investigación, 445
5. Algunas ideas para investigaciones futuras, 447
9. ANEXOS
Anexo 1. Actividad propuesta en la entrevista clínica (Estudio 3), 471
Anexo 2. Proyecto propuesto estudio de evaluación (Estudio 4), 473
Anexo 3. Transcripción de la entrevista clínica (Estudio 3), 479
Anexo 4. Ejemplos de producciones de alumnos en el proyecto (Estudio 4), 505
v
RESUMEN
Análisis epistemológico de la variable aleatoria y comprensión de objetos
matemáticos relacionados por estudiantes universitarios
La temática abordada en esta tesis es didáctica de la variable aleatoria, una de las ideas
fundamentales propuestas por Heitele (1975) en la enseñanza de la probabilidad, que,
como tal, proporciona modelos explicativos en cada etapa del desarrollo del concepto a
lo largo de la educación del individuo. Su comprensión se apoya en muchos conceptos,
como los de variable, distribución, centro, dispersión, forma o probabilidad, función y
función inversa. Otras razones que justifican el tema son las dificultades en su
aprendizaje y su interés como herramienta de modelación.
Se presentan cuatro estudios diferentes alrededor de la variable aleatoria desde la
perspectiva de la ingeniería didáctica, haciendo uso de algunos elementos del enfoque
onto-semiótico, y de los antecedentes de investigación:
Estudio 1. Estudio epistemológico de la variable aleatoria desde la disciplina,
relacionándolo con la asignación de probabilidad y la actividad de
modelación.
Estudio 2: Análisis del desarrollo histórico de la variable aleatoria que
permitirá proponer algunas posibles acciones didácticas e identificar algunas
dificultades ligadas a su desarrollo.
Estudio 3. Se analiza una exploración cognitiva en profundidad de las
concepciones y comprensión de una pareja de estudiantes sobre la variable
aleatoria cuando se enfrentan a la resolución de un problema que requiere el
uso del objeto «variable aleatoria». La metodología empleada es una
entrevista clínica guiada.
Estudio 4: Se analizan las soluciones escritas de una muestra de 101
estudiantes a un proyecto estadístico donde trabajan con tres pares de
variables estadísticas y las variables aleatorias subyacentes.
Los dos primeros estudios proporcionan información detallada sobre el objeto
matemático «variable aleatoria» desde el punto de vista matemático e histórico,
mientras en los dos últimos se analizan exhaustivamente los razonamientos de los
alumnos participantes cuando se enfrentan a las tareas propuestas, proporcionando
resultados nuevos sobre sus concepciones y dificultades cuando se enfrentan a
problemas vinculados con la variable aleatoria y otros objetos matemáticos relacionados
con ella. Estos resultados proporcionan información valiosa en un terreno en que la
investigación previa es casi inexistente y se han recogido en una serie de publicaciones
que se describen a lo largo de la memoria.
ABSTRACT
Epistemological analyses of random variable and university students' understanding
of related mathematical objects
The topic addressed in this dissertation is the random variable, one of the fundamental
ideas proposed by Heitele (1975) in the teaching of probability. As such, it provides
explanatory models at each developmental stage of the concept along the education of a
subject. Its understanding is based on many concepts, such as those of variable,
distribution, center, spread, probability, function and inverse function. Other reasons
supporting the interest of the topic are the learning difficulties and its interest as a tool
for modelling.
We present four different studies around the random variable from the
perspective of didactic engineering, using also some elements from the onto-semiotic
approach, and the research background:
Study 1. Epistemological study of the random variable from the discipline,
relating it to the assignment of probability and the modelling activity.
Study 2: Analysis of the historical development of random variable that is
used to propose some possible teaching activities and to identify some
difficulties linked to their development that may appear in the students.
Study 3. We analyze in-depth a cognitive exploration of a couple of students’
conceptions and understanding of random variable when solving a problem
that requires the use of the object "random variable." The methodology is a
guided clinical interview.
Study 4: The written solutions from a sample of 101 students to a statistical
project where they work with three pairs of statistical variables and the
underlying random variables are analyzed.
The first two studies provide detailed information about the random variable
from the mathematical and historical points of view, while the last two analyze in depth
the reasoning of the participants when faced with the tasks proposed, providing new
results on their conceptions and difficulties when faced with problems related to
random variable and related mathematical objects. These results provide valuable
information in an area where research is almost nonexistent and have been reflected in a
series of publications that are described throughout the dissertation.
INTRODUCCIÓN
5
Introducción
6
Introducción
7
Capítulo 1.
Fundamentación de la
investigación
ÍNDICE DE CAPÍTULO
1. Introducción, 11
2. El problema de investigación, 11
2.1. Demanda social y desarrollo de la educación en estadística, 12
2.2. Rezago de las instituciones educativas, 14
2.3. Problemas de la enseñanza y el aprendizaje de la estadística, 16
2.4. El objeto de estudio: La variable aleatoria, 17
3. Marco teórico, 20
3.1. Teoría de situaciones didácticas, 20
3.1.1. Teoría de la equilibración mayorante de Piaget, 21
3.1.2. Situaciones a‐didácticas, 22
3.1.3. Situación didáctica, 23
3.1.4. Concepciones y errores, 25
3.2. Elementos del enfoque ontosemiótico, 27
3.2.1. Significado de un objeto matemático, 27
3.2.2. Objetos que intervienen en los sistemas de prácticas, 28
3.2.3. Facetas duales del conocimiento matemático, 30
3.2.4. Idoneidad didáctica, 31
4. Objetivos de investigación, 32
5. Metodología de investigación, 34
5.1. Ingeniería didáctica, 37
5.2. Entrevista clínica, 39
5.3. Análisis de contenido en producciones escritas, 40
1. Introducción
En este primer capítulo se presentan el problema de investigación resaltando su
importancia, el marco teórico en que se apoya, los objetivos planteados y un resumen de
la metodología, que se detallará más ampliamente en los capítulos posteriores.
En primer lugar se describe la justificación del problema de investigación,
principiando con una perspectiva general de la problemática de la didáctica de la
estadística. El segundo apartado se concluye destacando la particularidad del tema
seleccionado. El tercer apartado está dedicado a la descripción del marco teórico.
Sustentamos la investigación en la teoría de situaciones didácticas (Brousseau, 1981)
complementada en algunos puntos con el análisis del sistema de prácticas matemáticas,
a través de la perspectiva semiótico-ontológica de la cognición e instrucción
matemática que sostiene Godino (2002). En ese apartado nos ocuparemos brevemente
de ellas. Los elementos teóricos seleccionados conducen, desde el punto de vista
metodológico, a la Ingeniería Didáctica (Artigue, 1995a y 1995b) y a algunas
metodologías auxiliares que le sirven de apoyo.
El capítulo finaliza con la descripción de los objetos de la investigación y una
breve exposición de su metodología, que se ampliará en cada uno de los estudios en que
se ha organizado la Memoria.
2. El problema de investigación
La educación en probabilidad y estadística es una demanda cada vez más urgente de
nuestras sociedades modernas. En respuesta a ello, tanto profesores como investigadores
y las mismas oficinas responsables de la producción de la estadística han comenzado a
abordarla esta educación de manera científica. Este interés está justificado puesto que es
necesario tanto que los especialistas en el área produzcan y analicen estadísticas, como
que profesionistas y ciudadanos sepan interpretarlas y tomar decisiones basándose en
ellas. Pero también está vinculado con el rápido desarrollo de la estadística como
ciencia, las dificultades intrínsecas de la asignatura en sí misma y su vinculación tan
cercana, y en ocasiones tan específica, con otras profesiones.
Así mismo dentro del sistema educativo vivimos cambios, no sólo en los temas
tratados sino también en la incorporación de nuevas estrategias de aprendizaje y usos de
la tecnología, que requieren una revisión cuidadosa de las modificaciones de los
11
Capítulo 1
contenidos que con ellos se ocasiona. Las directrices de diseños curriculares, como los
del NCTM (2000), de la SEP (2006) en México y del MEC (2006) en España,
introducen la estadística desde los primeros niveles escolares aunada a un cambio en la
metodología de enseñanza.
Se pretende que los niños sean capaces de comprender la idea de distribución de
datos, describir su forma y usar las características estadísticas, como el rango y las
medidas de tendencia central, para comparar conjuntos de datos. Deben considerar que
los datos son muestras recogidas de poblaciones mayores y llevar a cabo investigaciones
y proyectos, considerando el ciclo: formular preguntas, recoger datos y representarlos.
Los niños deberían, además, usar programas de ordenadores que les ayuden a
representar gráficos, por ejemplo, la hoja de cálculo electrónica. Sugerencias similares,
pero a nivel más avanzado, se presentan en los currículos de la enseñanza universitaria y
las directrices son muy similares en muchos otros países. Se pretende desarrollar el
razonamiento estadístico en los estudiantes e implícitamente se reconoce, como lo
indica Scheaffer (2006) y Gattuso y Ottaviani (2011), que este tipo de razonamiento es
diferente del matemático, pero ambos complementarios en el currículo global de
matemáticas y esenciales en la sociedad moderna.
Aunque la didáctica de la estadística está emergiendo con mucha fuerza en los
últimos años como área de investigación, la mayor parte de los trabajos realizados se
centran en la enseñanza primaria o secundaria, o bien abordan el tema sólo desde su
perspectiva psicológica, por demás necesaria, pero no suficiente. Muchas de las
dificultades de aprendizaje de varios conceptos básicos no han sido todavía exploradas y
el profesor se encuentra sin recursos para hacerles frente cuando se presentan en sus
clases con sus estudiantes.
Dentro de este contexto, en este apartado situamos nuestra investigación acerca
del aprendizaje del concepto de variable aleatoria como una idea fundamental dentro de
la enseñanza de la estadística sobre el que resulta pertinente detenernos a reflexionar.
Precisamos el problema específico que se aborda en este trabajo, continuación de otros
trabajos previos de didáctica de la probabilidad a nivel universitario realizados por
nuestros compañeros (Serrano, 1996; Tauber, 2001; Alvarado, 2007; Olivo, 2008;
Arteaga, 2011; Contreras, 2011).
12
Fundamentación
13
Capítulo 1
14
Fundamentación
15
Capítulo 1
16
Fundamentación
análisis de datos reales, como se reconoce en los trabajos del Joint ICMI/IASE Study.
En el nivel superior, los profesores generalmente no tienen una buena instrucción
pedagógica que les permita adentrarse en el pensamiento de los estudiantes y diseñar
estrategias de enseñanza efectivas.
El problema no sólo radica en la forma en cómo se le presente el contenido a los
estudiantes, pues algunas de las dificultades se repiten con estudiantes de diversa edad y
en contextos educativos muy diferentes. Gattuso y Ottaviani (2011) resaltan la fuerte
especificidad de la educación estadística, que se refleja en las cuestiones filosóficas,
éticas, procedimentales e incluso políticas que todavía son objeto de debate en la
estadística y sus aplicaciones. Pero, por otro lado, la estadística está mucho más
relacionada que las matemáticas con otras ciencias (como psicología, lingüística,
geografía, física, ingeniería o economía) que han contribuido al desarrollarlo de muchos
métodos estadísticos. Por este motivo, es también más sencillo establecer conexiones
con otras áreas curriculares de la escuela en estadística que en matemáticas (Scheaffer,
2006).
17
Capítulo 1
conceptos sino que también educa la intuición y desarrolla conexiones significantes con
la realidad.
Para Heitele una idea fundamental se puede enseñar de manera provechosa en
cualquier nivel escolar con niveles de aprendizaje bien definidos. Su lógica está de
acuerdo con un currículo en espiral en el que en cada etapa se desarrollan modelos
explicativos sobre una idea fundamental, que difieren en los niveles cognitivos, en su
forma lingüística y en sus niveles de profundización, pero no en su estructura. El
principio básico de currículum en espiral es que un niño es capaz de aprender
seriamente cualquier tema en un cierto nivel y que por lo tanto todos los tópicos pueden
ser introducidos en una edad temprana, pero que no pueden ser exhaustivos a ninguna
edad, sino que sólo pueden ser retomados para incrementar su profundidad.
Heitele pone como ejemplo de este proceso curricular el desarrollo cognitivo de
la idea de variable aleatoria. La primera aproximación es un modelo explicativo burdo
en donde el niño observa repeticiones del fenómeno e interpreta qué es lo que ocurrirá
más frecuentemente, a través de actividades de juego en donde no se involucra una
instrucción formal ni analítica. En este primer estadio, Heitele propone la noción de
esperanza vinculada con una variable de interés que el niño debe detectar, la percepción
de algunos valores que puede tomar y el criterio que se establecería para tomar una
decisión con respecto a por cuál valor es por el que más le conviene apostar. Aunque en
este nivel el modelo es meramente intuitivo, para Heitele se pre-establecen
conocimientos analíticos posteriores, como los de espacio muestral, probabilidad
frecuencial y esperanza matemática, además de pre-figuraciones del concepto de
variable aleatoria a través de la variable de interés.
En una etapa intermedia se pondría énfasis en un modelo más cuantitativo en
donde no sólo se detecten sino también se enumeren los eventos posibles y se
identifiquen los favorables. Así mismo, se retoma a la variable estadística como una
pre-figuración de la variable aleatoria y se pre-establece la distribución de probabilidad
y la esperanza matemática, pero ya se maneja conocimiento analítico como el concepto
de probabilidad clásica (laplaciana). Un modelo más elaborado daría cuenta de la
identificación e interpretación de la variable aleatoria, el análisis de la situación
completa y la observación de parámetros que definen el comportamiento del fenómeno.
El conocimiento aquí explorado sería analítico.
Heitele manifiesta que la variable aleatoria y todo el inventario conceptual
relacionado con ella, juegan un papel básico en la matematización de la probabilidad,
pero también en las aplicaciones de la estocástica a la vida diaria. Como idea
fundamental también tiene un sostén psicológico, porque considera que la intuición de
18
Fundamentación
magnitudes en las que participa el azar surge en una etapa más temprana que la de
experimento aleatorio.
Desde la perspectiva del modelo explicativo, Heitele considera que la variable
aleatoria tiene un papel fundamental en tres aspectos: su distribución, su esperanza y la
composición entre variables aleatorias. En la distribución juegan un papel importante la
equiprobabilidad, la distribución normal y el teorema central del límite que podrían
proporcionar modelos explicativos tanto en niveles primarios como universitarios. La
distribución de una variable aleatoria está innegablemente vinculada con sus dos
características más importantes, su esperanza y su dispersión, pero Heitele considera a
la esperanza como un capítulo especial en las teorías de aprendizaje por su valor
explicativo y por lo tanto, en la configuración de las etapas cognitivas de sus modelos
explicativos. Las operaciones entre variables aleatorias permitirían construir nuevos
modelos matemáticos complejos a partir de uno inicial, lo que daría lugar a un modelo
explicativo más complejo.
Miller (1998) también considera el concepto de variable aleatoria como
fundamental en la Estadística. Debido a la importancia que este concepto tiene en
posteriores nociones estadísticas, como las distribuciones de probabilidad, el modelo de
regresión o la obtención de estimadores, indica que la confusión que se puede generar
en este tema, tendría repercusiones posteriores importantes en los estudiantes. Por su
parte Batanero (2001) afirma que la variable aleatoria es la responsable del paso del
estudio de los sucesos aislados al estudio de las distribuciones de probabilidad, además
de que, junto con las funciones de distribución, son una herramienta muy potente que
permiten hacer uso del análisis matemático en los fenómenos aleatorios.
Los argumentos cognitivos y epistemológicos expuestos anteriormente para
afirmar que la variable aleatoria como idea fundamental resaltan la importancia de
realizar investigaciones que confirmen y sustenten de manera más detallada el
desarrollo de ese concepto a lo largo del currículo escolar. Nuestro trabajo se orientará a
realizar análisis epistemológicos y cognitivos sobre este objeto matemático.
Indirectamente, la metodología usada en los estudios cognitivos permitirá también
analizar posible situaciones a-didácticas que se podrían refinar posteriormente y serían
útiles para evaluar y desarrollar pre-figuraciones intuitivas y posteriormente la
profundización y abstracción del concepto.
A continuación presentamos el marco teórico y la metodología de nuestro
trabajo. El capítulo concluye con la clarificación de los objetivos de esta investigación
desde la perspectiva de nuestro marco teórico y la metodología utilizada.
19
Capítulo 1
3. Marco teórico
En esta sección primero expondremos el marco teórico que respalda nuestra
investigación para abordar y plantear la problemática tratada en los incisos anteriores, y
su metodología. Nos apoyamos fundamentalmente en la teoría de situaciones didácticas
planteada por Brousseau (1981, 1986 y 1997) que nos conduce, desde el punto de vista
metodológico, a la Ingeniería Didáctica (Artigue, 1995a y 1995b), aunque nos
limitaremos a la fase del análisis a priori. Aunado a este enfoque, nos parece útil usar
algunos elementos de la perspectiva semiótico-ontológica de la cognición e instrucción
matemática que propone Godino (2002).
Todo ello nos servirá de apoyo en la descripción y análisis del objeto variable
aleatoria, tanto desde la cognición matemática como desde su epistemología.
20
Fundamentación
21
Capítulo 1
22
Fundamentación
1
Que potencialmente, mejoradas podrían llegar a convertirse en situaciones a-didácticas.
23
Capítulo 1
24
Fundamentación
25
Capítulo 1
2
También hay errores que no son debidos a una mala manipulación conceptual, sino testimonio de un
conocimiento que tuvo su ámbito de validez en otro contexto o nivel de conocimiento, a este tipo de
errores, Brousseau (1981) los llamó obstáculos epistemológicos. No los estudiaremos en este trabajo.
26
Fundamentación
También en concordancia con las ideas piagetianas anteriormente expuestas, este marco
teórico se sostiene en tres aspectos importantes del conocimiento matemático:
Las matemáticas son un quehacer humano que surgen como respuesta o
solución a problemas externos o internos. Estos problemas y sus soluciones
son compartidos por un grupo de personas implicadas en el estudio de una
cierta clase de problemas. De modo que los objetos matemáticos son
27
Capítulo 1
Para formular una ontología del objeto matemático de acuerdo con estos
aspectos, Godino (2002) retoma de Chevallard (1991) la idea de objeto matemático
como un emergente de un sistema de prácticas para relacionar el significado sistémico
de un objeto matemático con las prácticas que realiza un individuo o institución cuando
enfrenta una situación problema. De Chevallard (1992), también, retoma la relatividad
del conocimiento con respecto a las instituciones y añade una faceta personal, para
proponer los constructos de significado institucional y significado personal. El sentido
de ‘las prácticas’ en el contexto de esta teoría se refieren concretamente a prácticas
significativas que incluyen tanto componentes operatorios como discursivos, esto es,
cuando la práctica desempeña una función para la consecución del objetivo en los
procesos de resolución de un problema o bien para comunicar la solución, para validarla
o para generalizarla a otros contextos o problemas.
A su vez, el significado se concibe como el contenido asignado a una expresión
que designa un objeto (función semiótica) es decir, es aquello a lo cual se refiere un
sujeto en un momento y circunstancias dadas. Así, las prácticas significativas se
relacionan con un campo o tipo de problemas y se conciben en contexto institucional,
una persona (o institución) y los instrumentos semióticos que matizan la acción.
También se propone una investigación en didáctica que centre su atención
principalmente en el estudio de las relaciones de los significados institucionales de los
objetos matemáticos y los significados personales construidos por los sujetos y por lo
tanto se introduce la necesidad de un análisis más profundo de los componentes del
significado del objeto matemático.
28
Fundamentación
Vergnaud (1990) y añade explícitamente las acciones de los sujetos en su afán por
resolver un problema, sus argumentos y las propiedades de los objetos puestas en juego.
La forma en que queda constituido el significado de un objeto matemático en esta teoría
y que tendremos en cuenta en nuestro trabajo, es a través de los siguientes elementos:
Las situaciones-problema: Son los problemas y campos de problemas, que
incluyen tanto problemas de situaciones simples y complejas, como
problemas propiamente matemáticos, de donde emerge un objeto
matemático y que inducen la actividad matemática.
El lenguaje matemático: Para resolver los problemas matemáticos,
generalizar su solución o describirlos a otra persona se hace uso de
expresiones, notaciones, gráficos, etc. Aquí también se incluye la notación
simbólica, que puede ser usada para representar objetos abstractos,
situaciones concretas y disposiciones tabulares. Estos sistemas de signos no
sólo tienen la función comunicativa sino un papel instrumental que modifica
al propio sujeto que los utiliza como mediadores.
Las acciones del sujeto. Son los modos de actuar del sujeto (o institución)
ante las situaciones-problema o tareas. Con este término asignan las diversas
operaciones, algoritmos, técnicas de cálculo, procedimientos y estrategias
que llegan a automatizarse.
Los conceptos-definición. Son los conceptos o nociones matemáticas que
previamente se conocen y en los que se apoya la resolución del problema
mediante sus definiciones o descripciones.
Las propiedades o atributos. Propiedades específicas del objeto matemático.
Suelen darse mediante proposiciones o descripciones y se relacionan con las
diferentes definiciones que se le atribuya al objeto.
Argumentos. Son razonamientos o argumentaciones que se usan para
comprobar la validez de las soluciones o de los procesos que se ponen en
juego. Pueden ser deductivas, con contraejemplos, generalización, análisis y
síntesis, simulaciones con computadora, demostraciones informales, etc.
29
Capítulo 1
30
Fundamentación
31
Capítulo 1
4. Objetivos de investigación
El objetivo general del presente trabajo es realizar algunos estudios preliminares sobre
la didáctica de la variable aleatoria que permitan posteriormente el diseño
fundamentado de situaciones didácticas. De acuerdo a las consideraciones hechas en el
capítulo y al marco teórico seleccionado, se puede descomponer en dos objetivos
fundamentales:
32
Fundamentación
33
Capítulo 1
5. Metodología de investigación
La metodología de esta investigación, tiene diversas fases y características y, acorde con
el marco teórico en el que se sustenta, sigue las directrices de la ingeniería didáctica.
Específicamente la centramos en los estudios preliminares que se suelen llevar a cabo
en esta metodología y dentro de ellos, a las componentes cognitiva y epistemológica.
En este último aspecto nos enfocamos al análisis del concepto desde la disciplina y
desde la historia. La estructura general de la memoria se presenta en la Figura 1.1.
EXPLORACIÓN EXPLORACIÓN
JUSTIFICACIÓN FUNDAMENTACIÓN EPISTEMOLÓGICA COGNITIVA
JUSTIFICACIÓN FUNDAMENTACIÓN
Investigaciones
sobre
Aleatoriedad
34
Fundamentación
35
Capítulo 1
EXPLORACIÓN EXPLORACIÓN
EPISTEMOLÓGICA COGNITIVA
Diseño y análisis
Análisis a priori
a priori
Implementación Implementación
Conclusiones Conclusiones
36
Fundamentación
37
Capítulo 1
Análisis preliminar
Para Chevallard (1985) el objeto de estudio de la didáctica no puede ser visto como un
fenómeno aislado, sino como un fenómeno sistémico. La didáctica se interesa en el
juego que se realiza entre un docente, los alumnos y un saber matemático. Esta relación
ternaria forma una relación didáctica, a la que Chevallard denomina sistema didáctico y
que se sustenta en el triángulo epistemológico: docente-saber matemático-alumno y sus
relaciones. Así el objeto de estudio de la didáctica es el sistema didáctico, y más
ampliamente, el sistema de enseñanza, que reúne los sistemas didácticos y se ocupa de
todo lo que la sociedad organiza a través de instituciones para el funcionamiento de
dichos sistemas didácticos.
El análisis preliminar dentro de situaciones didácticas está sustentado en el
sistema didáctico. En él se analizan y se detectan aquellas restricciones o vínculos del
conocimiento matemático a partir de distinguir tres dimensiones que surgen del sistema
didáctico:
Componente epistemológica. Ésta se refiere a los aspectos relacionados con
el conocimiento mismo. Pueden considerarse su emergencia histórica, estado
actual o su referencia teórica. En esta investigación, nos concentraremos en
el estudio histórico y el estudio disciplinar correspondiente a una
introducción elemental a la variable aleatoria en los cursos universitarios de
especialidades donde la estadística es sólo una herramienta instrumental3. Se
3
Es decir, no tratamos el estudio disciplinar en especialidades avanzadas como matemáticas o estadística.
38
Fundamentación
39
Capítulo 1
40
Fundamentación
41
Capítulo 1
42
Capítulo 2.
Antecedentes
ÍNDICE DE CAPÍTULO
1. Introducción, 45
2. Estudios de Piaget sobre el desarrollo evolutivo de la idea de
distribución, 46
2.1. La idea de aleatoriedad según Piaget, 46
2.2. Distribuciones normales, 49
2.3. Distribución de Poisson, 51
3. Investigaciones sobre la comprensión de la idea de distribución, 53
3.1. Distribuciones de variables estadísticas, 54
3.2. Distribuciones de variables aleatorias, 58
4. Investigaciones sobre la comprensión de la distribución normal, 59
5. Investigaciones específicas sobre la variable aleatoria, 61
5.1. Investigaciones sobre libros de texto, 61
5.2. Otras investigaciones sobre didáctica, 65
5.3. Investigaciones sobre aspectos epistemológicos, 67
5.4. Investigaciones cognitivas, 71
6. Investigaciones sobre percepción de la aleatoriedad, 74
6.1. Generación de resultados aleatorios, 76
6.2. Reconocimiento de resultados aleatorios, 77
7. Conclusiones del capítulo, 78
1. Introducción
En este capítulo se describen los antecedentes sobre los que se basa nuestro trabajo.
Aunque la investigación sobre la didáctica de la probabilidad es muy abundante
(Borovcnik, Bentz y Kapadia, 1991a y b; Shaughnessy, 1992, 2007; Jones 2005; Jones,
Langrall y Mooney, 2007), hay poca literatura de investigaciones centradas
específicamente en la didáctica de la variable aleatoria. Sin embargo, son muy
abundantes las que tratan sobre cuestiones vinculadas con nuestro tema de interés, como
estudios sobre el desarrollo de la idea de distribución, la enseñanza y el aprendizaje de
las distribuciones de probabilidad (en particular de la Normal) y la idea de aleatoriedad.
De todos estos últimos estudios, revisaremos exclusivamente los que son más
necesarios para introducirnos en el estudio de la enseñanza-aprendizaje de la variable
aleatoria.
Como punto de inicio, en este apartado describiremos brevemente las
investigaciones de Piaget e Inhelder sobre el desarrollo de la idea de distribución en los
niños, pues esta investigación contempla los modelos de las variables aleatorias con las
distribuciones Normal y de Poisson y proporciona pautas sobre las concepciones de los
individuos en diversos estados de desarrollo. Estos autores, además de ser pioneros en la
investigación en didáctica de la probabilidad, también hicieron importantes aportaciones
que sirvieron de base para el desarrollo de la teoría de situaciones didácticas que hemos
incluido en el marco teórico que usamos en esta tesis (Capítulo 1).
A continuación analizaremos investigaciones más recientes que se centran en la
comprensión de la idea de distribución, tanto de la variable estadística, como de la
variable aleatoria. La revisión sobre los resultados de investigación en didáctica de la
variable estadística proporcionará, por un lado, fundamento al segundo estudio
cognitivo (Capítulo 6), en donde analizamos la comprensión de los estudiantes sobre
algunas variables estadísticas, sus distribuciones y su relación con algunas variables
aleatorias. También, por otro lado, es necesario ahondar sobre su estudio puesto que
existe una relación conceptual íntima entre las variables estadísticas y aleatorias (como
se describirá en el Capítulo 3), que se refleja en la vertiente cognitiva.
Después nos concentraremos en aquellos autores que, consideramos, se han
interesado directamente en el estudio de la enseñanza o el aprendizaje de la variable
aleatoria o que han obtenido resultados en esta área aunque su investigación no se centre
necesariamente en ella. Eso permitirá tener un panorama del estado actual de las
investigaciones que aportan resultados sobre la didáctica de la variable aleatoria. Esta
45
Capítulo 2
46
Antecedentes
47
Capítulo 2
48
Antecedentes
I II III IV V
Figura 2.1. Esquema de los aparatos de Galton utilizados en las experiencias de Piaget
49
Capítulo 2
50
Anteceddentes
2
2.3. Disttribución
n de Poisson
ones de Piaaget e Inhellder (1951) sobre la coomprensión
Las investigacio
i n de lo que ellos
buciones unniformes, se basaron en la expeeriencia de los niños en la
llamaaron distrib
obserrvación de la distribución de las primeras
p gottas de lluviaa o copos de
d nieve sobbre un
piso embaldosado cuando empieza un
na lluvia o nevada. Piiaget e Inheelder usaronn una
hoja de papel blanco divvidida en cuadros
c de 2 ó 3 cm
m como reppresentaciónn del
embaaldosado y sobre ella pidieron
p a loos niños que simularann las gotas de
d lluvia o copos
c
de niieve con ficchas que dejjaban caer al
a azar o conn puntos quue dibujabann sobre ella.. Otra
experiencia fue directamennte sobre un e donde see les pidió a los
n piso embbaldosado, en
niñoss que coloccaran piedrrecitas sobrre el piso en
e el lugar donde ello
os pensabann que
caeríía la siguien
nte gota o copo cuand
do empezarra a llover o nevar. Piaget
P e Inhhelder
comeenzaron con
n unos pocos puntos y aumentaron
a su número progresivam
mente para vver la
distriibución globbal en el plaano (Ver Fig
gura 2.2) quue Batanero
o (2001) ideentifica com
mo una
distriibución Poissson en el pllano.
Figura 2.2
2. Dibujos o disposiciones de puntoss en la experiencia del em
mbaldosado
Los niñoos pequeñoss (etapa pre operacionaal) supusieroon que las gotas
g de lluvvia se
reparrtirían por toda
t la supeerficie y quee se distribuuirían regullarmente enn los cuadroos. En
el experimentoo, los niñoos colocaro
on las pieedrecitas o puntos siistemáticam
mente,
rellennando uno a uno todoos los cuaddros antes de
d repetir las
l piedreciitas o puntoos en
51
Capítulo 2
alguno de ellos. Si la retícula tenía un solo cuadro vacío, los niños colocaron la marca o
piedra en el cuadro vacío para completar un patrón uniforme. Piaget e Inhelder
interpretaron este comportamiento como falta de comprensión de la aleatoriedad en esa
etapa.
Los niños con edad situada en el periodo de las operaciones concretas aceptaron
la irregularidad de la distribución, aunque si había un solo cuadro sin marca, el cuadrado
«seco» se consideraba como el más probable para recibir la siguiente gota o copo. Sin
embargo, los puntos se colocaron desordenados dentro de cada cuadrado, mientras en la
etapa anterior se colocaban exactamente centrados.
En el periodo de las operaciones formales los niños usaron el mecanismo de la
convergencia progresiva. Entre más gotas haya, la diferencia en el número de gotas por
baldosa tiende a disminuir más, no en forma absoluta, sino en forma relativa, es decir,
en promedio. De acuerdo con Piaget e Inhelder, la ley de los grandes números se
comprende por su doble aspecto combinatorio y proporcional. Es decir, en este estadio
(12 años o más) también aparece el razonamiento proporcional y por lo tanto, los niños
comprenden la ley de los grandes números.
En resumen, las investigaciones de Piaget e Inhelder sobre el desarrollo del
razonamiento probabilista en el niño, suponen que la base para la adquisición de este
razonamiento es la construcción de relaciones lógicas tales como causa y efecto, porque
ello permitirá la comprensión de la diferencia entre los sucesos necesarios (y por tanto
predecibles) y los aleatorios (no predecibles). Pero también el desarrollo este tipo de
razonamiento requiere construir y representar la totalidad de los sucesos (razonamiento
combinatorio) y tener en cuenta múltiples relaciones para calcular proporciones. Piaget
e Inhelder también suponen que estas construcciones se adquieren paulatinamente a
diferentes edades, culminando en la adolescencia con el dominio de las operaciones
concretas. En particular concluyen que en esa etapa se tendrá una buena percepción de
la aleatoriedad y de las distribuciones uniformes y normales. Estas conclusiones han sido
contradichas, indicando que muchos adultos tienen sesgos respecto a su concepción sobre
los experimentos aleatorios y también que los niños tienen intuiciones sobre la
aleatoriedad. Sin embargo la obra de Piaget e Inhelder no puede ser pasada por alto, los
aportes al razonamiento probabilista han sido de gran utilidad en otras investigaciones con
adultos sobre la percepción de la aleatoriedad, además de que las tareas experimentales que
usaron son muy ingeniosas y se han incorporado y mejorado en otras muchas
investigaciones.
52
Antecedentes
53
Capítulo 2
54
Antecedentes
idea de distribución cuando comparan dos distribuciones de datos e indican que los
estudiantes no suelen usar la media para comparar conjuntos de datos, sino que más
bien usan parte de los datos, por ejemplo, suelen comparan los valores máximos o las
longitudes del rango. Un ejemplo lo tenemos en los resultados obtenidos por Konold,
Pollatsek, Well, and Gagnon (1997) quienes trataron de detectar las barreras críticas que
encuentran los estudiantes para analizar los datos. A pesar de que formalmente estas
comparaciones se llevan a cabo a partir de los promedios y la dispersión de las
distribuciones, Konold et al. encontraron que ni siquiera el uso de la media como
representante para comparar dos conjuntos de datos es intuitivo para algunos
estudiantes, quienes, en su investigación, se centraron en las frecuencias absolutas y no
en las relativas. Incluso cuando las muestras eran de tamaño muy diferente, la
comparación la realizaron sobre las frecuencias de los valores de la variable que
coincidían en ambos grupos. Konold, et al. concluyen que el problema tiene sus
orígenes en que los estudiantes no han dado el paso de comparar los valores de la
variable como propiedades de los individuos aislados a comparar las propiedades de los
conjuntos de datos.
También Batanero, Estepa y Godino (1997) estudiaron las estrategias seguidas
por los estudiantes al comparar dos distribuciones como parte de un estudio sobre
asociación. Como estrategias correctas encontraron comparar medias o totales en las dos
distribuciones o reducir el conjunto de datos a una sola variable restando los valores
correspondientes en el caso de muestras relacionadas y luego comparar la media o el
total con cero. También encontraron estrategias incorrectas como comparar solo valores
aislados en las dos distribuciones o esperar un aumento/disminución similar en todos los
casos para las muestras relacionadas.
En una serie de estudios longitudinales, Watson analizó las estrategias utilizadas
por estudiantes de primaria y secundaria al comparar conjuntos de datos presentados en
forma gráfica (Watson y Moritz, 1999; Watson, 2001). En sus trabajos, clasificó estas
estrategias de acuerdo al modelo SOLO1, que es un modelo jerárquico, en tres niveles
cognitivos, que a su vez, se enmarcaron en dos ciclos por la dificultad de la tarea. Los
niveles cognitivos denotaron el tipo de razonamiento usado por los estudiantes para
resolver las tareas dadas: (a) uso de algún aspecto importante de la tarea
(Uniestructural); (b) procesamiento de varios aspectos disjuntos (Multiestructural); y,
finalmente, (c) integración de las relaciones entre varios aspectos del dominio de la
tarea (Relacional).
1
Structure of Observed Learning Outcome. La traducción al español es «estructura del resultado del
aprendizaje observado».
55
Capítulo 2
56
Antecedentes
estudiantes en cada nivel y que, a su vez, sustentan esos tres niveles propuestos por
ellos.
Prodromou y Pratt (2006) proponen actividades de simulación en donde los
estudiantes hacen emerger datos a partir de una distribución de la que puedan manipulan
su centralización y su dispersión. De esta manera los estudiantes pueden observar el
efecto de esas manipulaciones sobre los datos que surgen a partir de ellas, ofreciéndoles
la visión de modelismo2 de la distribución. Prodromou y Pratt encontraron apoyo en los
niveles propuestos por Bakker y Gravemeijer (2004) en donde «las distribuciones
pueden ser leídas desde o hacia la colección de datos» (p. 84) pero sugieren un viaje
desde dos perspectivas: centrada en los datos y en el modelismo de la distribución y no
sólo desde las medidas (de centralización, dispersión, densidad y sesgo) hacia los datos
o hacia la distribución, en un solo sentido. Una perspectiva desde la distribución daría
oportunidad de visualizar el tipo de datos que se generan a partir de ella y, por tanto, de
abstraer conceptualmente la idea de distribución. Prodromou y Pratt consideran que lo
conceptual descansa en la coordinación que se puede dar entre las dos perspectivas.
Ciancetta (2007) refina y construye un marco teórico interpretativo basándose en
marcos teóricos propuestos por otros autores y en un análisis con estudiantes
universitarios. Su marco tiene la intención de establecer categorías que permitan el
estudio de las estrategias de razonamiento (reasoning strategies) que ponen en juego los
estudiantes cuando se enfrentan a tareas que requieren hacer inferencias informales
sobre pares de conjuntos de datos. Él considera cinco niveles de análisis: razonamiento
idiosincrático (0), local (1), transicional (2), distribucional inicial (3) y distribucional
(4). En el primero (Nivel cero: idiosincrático) incluye respuestas que no se centran en
un razonamiento de los datos y por lo tanto no proporcionan información sobre
razonamiento estadístico. En el Nivel 1, Local, se refiere a respuestas que implican una
vista local de los datos y el uso exclusivo de razonamientos aditivos. El razonamiento
transicional (Nivel 2) manifiesta una visión transicional entre la visión local y la global.
Un tercer nivel (distribucional inicial) llevaría al uso de razonamiento proporcional y
comenzar a reconocer los aspectos globales de los datos. Todos estos aspectos se
integrarían en el más alto nivel, el distribucional (Nivel 4).
Como se puede observar, las investigaciones sobre el concepto de distribución
de una variable estadística se centran en los conceptos sobre cuya comprensión descansa
este concepto y en la definición de niveles de comprensión de la distribución. Con
2
En inglés los autores usan la palabra modelling, refiriéndose a la capacidad de generar modelos. En el
sentido cotidiano, modelización se refiere, principalmente, a reproducciones (modelos) a escala. En el
contexto que Prodromou y Pratt, lo entendemos como la capacidad de una distribución de modelar
diversas situaciones al modificar sus parámetros.
57
Capítulo 2
58
Antecedentes
investigación, ellas trabajan con un grupo pequeño de niños de 9 años a los que les
piden realizar una secuencia de tareas enfocadas en las ideas de probabilidad y de
ambos tipos de distribuciones y después los entrevistan para analizar sus concepciones.
Para Kazak y Confrey la idea de distribución comprende dos ideas: 1) una visión
estadística, como agregado de un conjunto de datos (distribución de la variable
estadística); y 2) una visión probabilística como conjunto de posibles resultados de un
experimento aleatorio. En la primera se manejan distribuciones de datos y son descritas
por los estadísticos de centralización y dispersión; la segunda se refiere al modelo
teórico de una variable aleatoria vinculada con los resultados de un experimento
aleatorio (distribución de probabilidad). Las tareas que ellas proponen a los niños
incluyen el análisis de distribuciones espaciales de objetos reales (como flores o rebaños
de animales), replicaciones de los experimentos de Piaget sobre la comprensión de la
distribución normal, lanzamiento de monedas y experimentos que pueden asociarse con
la distribución binomial. Concluyen que la comprensión intuitiva de la idea de
distribución estadística de los niños puede evolucionar a un modelo más formal de
distribución de una variable aleatoria, sobre todo si se realizan tareas de simulación.
En el estudio 4 de nuestra investigación, como Kazak y Confrey, trataremos de
coordinar estas dos visiones de la distribución. Propondremos, a estudiantes
universitarios, trabajar simultáneamente con variables estadísticas y aleatorias con el
objetivo de obtener información sobre las concepciones y errores de los estudiantes al
trabajar la vinculación de estos dos objetos matemáticos.
59
Capítulo 2
puntuaciones Z han de tomar un valor comprendido entre -3 y +3, mientras que el hecho es
que sólo el 99,7% de las observaciones se encuentra entre la media 3 desviaciones
típicas. Otros estudiantes creen que las puntuaciones Z no tienen límite superior ni inferior,
pues han aprendido que las colas de la curva normal son asintóticas al eje de abscisas y
hacen una generalización incorrecta.
Para Hawkins, Joliffe y Glickman (1992) los errores más comunes en relación a
la distribución normal vienen del rol dominante que tiene el teorema central del límite
en estadística que llega a inducir la creencia de que todas las variables tendrían una
distribución normal asintótica. También aparecen errores cuando los estudiantes usan la
distribución normal como una aproximación de la distribución binomial, porque no ven
la diferencia entre lo discreto y lo continuo, y en muchos casos aplican la corrección por
continuidad de una forma mecánica sin entender su significado.
En su tesis de doctorado, Tauber (Tauber, 2001; Batanero, Tauber y Sánchez,
2001 y 2004; Tauber, Batanero y Sánchez, 2004) estudió el aprendizaje de la
distribución normal en un curso de estadística con alumnos universitarios. Su estudio no
se centró en la variable aleatoria, aunque es uno de los conceptos que consideró
importantes en la descripción del significado de la distribución normal. La autora hizo
un estudio sistemático de la enseñanza y aprendizaje de la distribución normal.
Describió el significado del tema en los libros de texto universitarios y diseñó una
secuencia de enseñanza con uso de ordenadores. Este proceso de enseñanza no siguió la
pauta tradicional, sino que formuló problemas más realistas, incorporando los recursos
gráficos y de cálculo que posibilita el ordenador, entremezclando actividades
tradicionales, tales como exposición del profesor o resolución de problemas con papel y
lápiz, con otras basadas exclusivamente en el uso del ordenador. La investigación se
realizó en una muestra de 117 alumnos de la Facultad de Ciencias de la Educación y
permitió mostrar la diferencia entre el aprendizaje producido a través de esa secuencia
diseñada y el observado en una clase tradicional, sobre la que no se tuvo injerencia.
La evaluación del aprendizaje estuvo basada en los reportes escritos de
actividades que realizaron los alumnos en sus clases, en un cuestionario final y en una
prueba abierta de ensayo para ser resuelta con ayuda del ordenador. Como consecuencia
del análisis de estos datos se describen dificultades y errores en un tema en el que la
investigación previa era prácticamente inexistente. Asimismo, se describen las
diferencias en la evaluación de dos tipos de alumnos: aquellos que tienen conocimientos
previos de estadística, adquiridos en la educación secundaria o en cursos anteriores a la
universidad y los que no los tienen.
60
Antecedentes
61
Capítulo 2
define los elementos de significado asociados a cada uno de ellos, siguiendo el marco
teórico de Godino y Batanero (1998). En particular, los elementos de significado
vinculados a la variable aleatoria que obtiene, los presentamos como un resultado de
tipo epistemológico importante (sección 5.3), puesto que con ellos, Ortiz definió el
significado de referencia de este objeto matemático.
Dentro de los resultados del análisis de los elementos de significado presentes en
su muestra de libros de texto, Ortiz reportó que en la mayoría de los textos que analizó
no se trata el concepto de variable aleatoria de manera explícita, pero aquellos que lo
hacen, lo ubican ya sea en los temas de probabilidad o en los de estadística y que sólo
contemplan una mínima parte de sus elementos de significado. Él encontró que el
concepto también es tratado de manera implícita, sobre todo cuando se describe la
variable estadística, que se obtiene a partir de los valores observados de una variable
aleatoria en una muestra. En uno de los textos observó cierta confusión entre los
conceptos de variable aleatoria y variable estadística, ya que atribuyen tanto la
distribución de probabilidad como la distribución muestral a la variable aleatoria.
Recomienda que, dada la importancia que tiene, la variable aleatoria debe ser tratada y
relacionada con la probabilidad, aunque de una manera no excesivamente formalizada.
Para lograrlo se deberá retomar con diferentes grados de profundización a lo largo de la
educación secundaria.
En la caracterización del tipo de actividades (ejercicios, problemas o ejemplos)
que se pueden resolver en el contexto de la variable aleatoria, define nueve tipos de
actividades, pero en los libros de texto analizados, cuatro de ellas no se presentan. Las
actividades presentes más frecuentemente se refieren a la determinación de la
distribución de probabilidad de una variable aleatoria y a la representación gráfica de
dicha distribución. Así mismo, reporta que las actividades presentes sólo se manejan
referidas a espacios muestrales finitos en contexto únicamente de juego, que la
asignación de probabilidades predominante es mediante la regla de Laplace y que la
forma de presentación más usada es la verbal, en ocasiones con tablas de datos. Ortiz
recomendó diversificar las actividades en los libros de texto, sin olvidar que los
conceptos deben introducirse acordes al nivel de enseñanza y edades de los alumnos. Él
considera que la categorización de la variable aleatoria que realizó de acuerdo a sus
elementos de significado (presentados en el apartado 5.3 de este capítulo), sería una
buena guía para lograrlo.
Oseguera (1994) hace un análisis del material de apoyo para el alumno que sirve
como base para el diseño de la enseñanza y la evaluación del tema de variable aleatoria
en la asignatura de probabilidad y estadística en la Unidad Profesional Interdisciplinaria
62
Antecedentes
63
Capítulo 2
3
1995. The basic practice of stadistics. Freeman: New York
64
Antecedentes
probabilidad. También coincide con Oseguera (1994) en que los libros de texto
enfatizan sobre todo en los elementos simbólicos, algebraicos y numéricos,
particularmente las tablas de la distribución y se dedica gran espacio al cálculo de
probabilidades a partir de las tablas, con menor énfasis en la experimentación,
simulación y estudio de propiedades.
En resumen, estas investigaciones indican que algunos autores se enfocaron
directa o indirectamente al estudio del objeto de nuestro interés en los libros de texto
concluyendo que los libros de texto casi no desarrollan la idea de variable aleatoria de
manera explícita y cuando lo hacen sólo contemplan una mínima parte de sus elementos
de significado o bien cometen errores en su interpretación (Oseguera, 1994; Miller,
1998; Tauber, 2001 y Ortiz, 2002). También encontraron errores en los libros. Ortiz
reportó una confusión entre variable aleatoria y variable estadística en algunos libros de
secundaria. Miller (1998) muestra la inconveniencia de asociar a la variable aleatoria
con el valor de los datos directamente en los libros de introducción a la estadística
universitarios. En este mismo sentido Borovcnik et al (1991, citado por Ortiz, 2002, p.
121) da una definición práctica del concepto: «una variable aleatoria se determina como
resultado de un experimento aleatorio» (p. 121) que aunque sería considerada imprecisa
por Miller (puesto que relaciona la variable directamente con el resultado de un
fenómeno aleatorio), Ortiz la considera apropiada para el nivel secundaria.
65
Capítulo 2
66
Antecedentes
67
Capítulo 2
R : 0,1
x : F x P x
VA7: La función de distribución de una variable aleatoria es una función real
de variable real, monótona no decreciente.
VA8: La función de distribución de una variable aleatoria determina en forma
biunívoca la distribución de probabilidad.
VA9: Sea xi , pi i I la distribución de probabilidad de una variable aleatoria
discreta. Se define la media o esperanza matemática como
E iI xi pi . Este concepto extiende la idea de media en una variable
estadística.
VA10: La moda es el valor más probable de la variable aleatoria y extiende la
idea de moda de una variable estadística
VA11: La mediana es el valor de la variable para el cual la función de
distribución toma el valor 1/2. Por tanto, la probabilidad de que una
variable aleatoria tome un valor menor o igual a la mediana es
exactamente 1/2.
Las actividades (problemas y ejercicios) característicos de la variable
aleatoria, son categorizadas en los siguientes puntos (Ortiz, 2002, pp 199-
202):
68
Antecedentes
Hay que hacer notar que estos problemas corresponden a problemas presentados
en libros, son, por tanto, problemas intra-matemáticos, pero no constituyen verdaderas
situaciones que den origen a la idea de variable aleatoria. Sobre estos tipos de ejercicios
identifica las siguientes variables adicionales, en función de lo encontrado en los libros
de texto (pp 50-51):
V1: Tipo de actividad que se pide al alumno, que puede ser: ejemplo
introductorio; ejemplo después de la definición; ejercicio introductorio;
ejercicio después de la definición y ejercicio después de haber hecho un
ejemplo similar.
V2: Concepto al que el ejercicio se refiere explícitamente o implícitamente,
entre los citados anteriormente.
V3: Tipos de espacio muestral, considerando espacio muestral infinito, finito,
con dos elementos equiprobables; finito, con más de dos elementos
equiprobables, finito, con sucesos no equiprobables e impreciso.
V5: Posible asignación de probabilidades a los sucesos; clásica, frecuencial o
bayesiana
V6: Contexto del enunciado del ejercicio: Se refiere al campo de aplicación
mostrado.
V7: Presentación de la información: Verbal, numérica o gráfica.
El desglose de los elementos de significado de la variable resulta valioso por ser
una propuesta de análisis epistémico del concepto para el nivel secundaria.
Tauber (2001) realiza un estudio conceptual detallado de la distribución normal
y sus elementos de significado en nivel universitario. En su análisis enfatiza la
dificultad de discriminar entre la variable aleatoria (modelos matemáticos) y variable
estadística (datos que se quieren modelar). Sin una adecuada discriminación entre ellos
se pierde el sentido de la modelación.
Heitele (1975) recalca la diferencia de la modelación en matemáticas y en
probabilidad y estadística. Wild y Pfannkuch (1999) consideran que cualquier forma de
representar la realidad puede considerarse modelo (un estadístico útil, un texto, un
gráfico o una línea de regresión), siempre y cuando se diferencie el modelo de los datos
y al mismo tiempo se relacione con ellos. Esta diferenciación se facilita cuando las
relaciones entre realidad y matemáticas se ven de acuerdo a la estructura de estratos que
propone Heitele. Esto es, los datos numéricos en estadística descriptiva se pueden
considerar datos de un modelo, a la vez que desde un nivel más alto (en otro estrato), se
les puede considerar parte de la realidad. Lo importante para él es definir cuál es el nivel
del estrato en el que se está trabajando y qué es lo que en ese estrato puede fungir como
«realidad» y qué como «modelo». Heitele no enfatiza en la variable aleatoria en
69
Capítulo 2
70
Antecedentes
Alvarado indica que es importante que el profesor sea consciente que estos
obstáculos pueden estar siendo fomentados por su enseñanza. También en que son
necesarias investigaciones que documenten la presencia de estos obstáculos en los
procesos de aprendizaje de los distintos niveles educativos.
71
Capítulo 2
72
Antecedentes
Algunas de las conclusiones que Tauber obtiene, importantes dentro del contexto
que nos ocupa, son las siguientes:
Pudieron observarse ciertas dificultades de los alumnos en la distinción de la
distribución teórica y empírica, sobre todo cuando se ven en la necesidad de
resolver problemas abiertos.
Los alumnos llegan a un manejo razonable de la herramienta informática y a
realizar correctamente cálculos aislados. Sin embargo, cuando se trata de
poner en correspondencias diferentes elementos del significado para tomar
una decisión -por ejemplo decidir si la variable estadística podría modelarse
adecuadamente mediante la distribución normal- el número de respuestas
correctas baja drásticamente.
Observemos que tanto Vallecillos (1999) como Tauber (2001) hacen hincapié en
la importancia de una de las concepciones de la media muestral como variable aleatoria.
Por otro lado, Miller (1998) afirma que el tratamiento didáctico de las variables
aleatorias definidas como el resultado de un experimento aleatorio generará confusión
en el estudio de las variables aleatorias dadas por un valor calculado. Ambas cuestiones
están sumergidas dentro de la problemática de la composición de variables aleatorias,
que ya Heitele (1979) mencionaba como uno de los aspectos epistemológicos
fundamentales de este concepto.
Además de estas investigaciones en donde directamente se hace mención a
problemas cognitivos vinculados con la variable aleatoria, existen otros que aunque sus
autores no los relacionan como vinculados con la variable aleatoria, se puede observar
la vinculación directa con este concepto. Así por ejemplo, la creencia de que en el
lanzamiento de dos dados, la suma de las caras superiores puede ser 11 ó 12 con la
misma probabilidad (Lecoutre, 1992; Bennett, 1998) nos da evidencia, entre otras, de
una confusión conceptual: los valores que puede tomar la variable aleatoria se piensan
como los eventos posibles del espacio muestral.
De esta revisión podemos concluir que la investigación sobre la variable
aleatoria es aún muy somera, incluso cuando este tema forma parte fundamental del
discurso escolar de la Probabilidad y Estadística universitaria. Los autores citados
concuerdan en que el concepto es básico para introducirse en el estudio de la estadística
universitaria y algunos de ellos recomiendan que sea retomado una y otra vez a lo largo
de la educación previa a la universitaria con diferentes grados de profundidad (Heitele,
1975; Batanero, 2001; Miller, 1998 y Ortiz, 2002).
73
Capítulo 2
Estas investigaciones muestran que los sujetos no son buenos para generar ni
reconocer la aleatoriedad. En general se tiende a encontrar patrones deterministas en las
situaciones aleatorias, es decir, tratan de encontrar asociaciones inexistentes, con objeto
74
Antecedentes
OXOXXXXXOOOOOOXOOOXXO
Sin embargo, muchas personas pensarían que la primera es más probable porque en
la segunda secuencia se presentan rachas excesivamente largas. Esta creencia (de que las
rachas en una secuencia aleatoria son más cortas) puede estar sustentada en la falacia del
jugador, según la cual, las cruces serían consideradas más probables que las caras después
de una serie de caras consecutivas. En una tarea en donde se le pidiera a un sujeto decidir
cuál de las dos series no fue generada a través de un proceso aleatorio, él escogería la
segunda secuencia basándose en ese criterio.
Bennett (1998) realizó un estudio histórico-epistemológico sobre la emergencia de
la idea de aleatoriedad y los significados que ha recibido a lo largo de la historia,
identificando, entre otras, las siguientes concepciones:
75
Capítulo 2
76
Antecedentes
77
Capítulo 2
apreciación de la aleatoriedad con la edad. Entre las razones aducidas por los niños para
justificar su decisión, encontró las siguientes:
Razones correctas: el patrón de la sucesión es demasiado regular para ser
aleatorio; hay demasiadas rachas o rachas demasiado cortas.
Razones incorrectas: no se apreciaba suficientemente bien la irregularidad
de una sucesión aleatoria; se espera que la frecuencia relativa sea
exactamente el 50% de caras y cruces o un valor muy próximo; rachas
demasiado largas; no se admite la posibilidad de este tipo de rachas en una
sucesión aleatoria.
Toohey quedó sorprendido al ver mejores respuestas en los niños más jóvenes,
entre los cuales casi la mitad seleccionó el patrón aleatorio correctamente. En general
encontró que los niños considerados más inteligentes seleccionaban con mayor frecuencia
que sus compañeros el patrón determinista.
Estos resultados fueron replicados y completados por Batanero y Serrano (1999) en
estudiantes universitarios. Ellos sugieren que los alumnos atribuyen diferentes significados
a la aleatoriedad y algunos de ellos coinciden con los admitidos en diferentes periodos
históricos dentro de la estadística descritos por Bennett (1998), por ejemplo:
Aleatoriedad como inexistencia de causas o causa desconocida;
Aleatoriedad como equiprobabilidad;
Aleatoriedad como estabilidad de las frecuencias relativas;
Aleatoriedad como impredecibilidad.
78
Antecedentes
79
Capítulo 2
80
Capítulo 3.
Estudio 1.
Análisis Epistemológico
desde la Disciplina
ÍNDICE DE CAPÍTULO
1. Introducción, 83
2. La variable aleatoria, 84
3. Función de distribución de una variable aleatoria, 87
3.1. Distribución de probabilidad de la variable aleatoria discreta, 90
3.2. Función de densidad de las variables aleatorias continuas, 91
4. Otros conceptos relacionados, 92
4.1. Promedios, 93
4.2. Medidas de dispersión, 94
4.3. Momentos, 95
5. El orden en que son presentados los conceptos, 96
6. La variable aleatoria como función, 96
7. La variable aleatoria y la variable estadística, 97
8. La variable aleatoria y asignación de probabilidades, 100
8.1. Asignación laplaciana de probabilidad, 101
8.2. Asignación frecuencial de probabilidad, 102
8.3. Asignación subjetiva de probabilidad, 103
9. Modelación y variable aleatoria , 105
9.1. Modelo y teoría, 106
9.2. Modelación y razonamiento estadístico, 107
9.3. La modelación en probabilidad, 110
9.4. Modelación por estratos, 112
9.5. Relación entre las variables estadística y aleatoria en la modelación,
113
9.6. La experimentación como puente entre modelo matemático y la
realidad, 115
10. La variable aleatoria y los modelos de distribuciones, 118
10.1. Modelos de variables discretas, 120
10.2. Modelos de variables continuas, 121
11. Conclusiones del capítulo, 121
1. Introducción
El análisis de la variable aleatoria desde la disciplina indaga sobre la naturaleza e
interrelaciones del objeto matemático que se estudia. Se trata de delimitar el saber
sabio, desde la perspectiva de Chevallard (1985) o el significado de referencia desde el
marco teórico de Godino (1996; 2002), desde la perspectiva de la ingeniería didáctica.
Este análisis permitirá fundamentar el resto de nuestra investigación, a la vez que podrá,
por sí mismo, ser utilizado en futuras ingenierías didácticas sobre la variable aleatoria.
Lo consideramos una primera aproximación que nos permitirá detectar puntos sobre los
que será necesario profundizar en futuros estudios.
Para llevarlo a cabo tomamos libros que consideramos de referencia para
nosotros tomando en cuenta que nuestra intención en los cursos universitarios no está
enfocada a la enseñanza de una teoría rigurosa de probabilidades. En primera instancia
recurrimos a libros de probabilidad, cuyo propósito principal está en la enseñanza de la
teoría de probabilidades en niveles universitarios o de postgrado. Cuatro de ellos, Meyer
(1989), Feller (1989), Wackerly, Mendenhall y Scheaffer (2002) y Devore (2011),
tratan de presentar, junto con el desarrollo de la teoría probabilística, aplicaciones, a la
misma probabilidad, a la estadística o a diversas áreas de la ingeniería y a sí mismos se
califican de no rigurosos. El resto de los libros: Mood y Graybill (1963), Krickeberg
(1973), Cuadras (1999) y Petrov y Mordecki (2002) describen la teoría matemática
desde una perspectiva más rigurosa y sin más aplicaciones que las propias de la misma
teoría. Uno más, Ríos (1967) presenta una perspectiva diferente. Su enfoque más bien
va hacia la estadística y la probabilidad la maneja desde una perspectiva útil para esta
última.
Los libros que utilizamos para este análisis tienen en común que se presentan a
sí mismos como adecuados para un primer curso de teoría de probabilidades o
estadística matemática, no presuponen conocimientos previos dentro de la probabilidad
o conocimientos muy profundos de la teoría de la medida, más bien sólo piden como
requisito profundización en el análisis matemático.
Recurrimos también a otros libros que añaden otros objetivos diferentes a la
propia exposición del tema y que sin embargo proporcionan elementos importantes para
concluir nuestro análisis. Nos referimos al libro de Boudot (1979) de corte filosófico y
al de Godino, Batanero y Cañizares (1996) que trata de mostrar los temas de azar y
probabilidad desde una perspectiva didáctica. De este último tomamos elementos que
completan sólo la perspectiva epistemológica.
83
Capítulo 3. Estudio 1
Son diversos los problemas relacionados con la variable aleatoria, desde hacer
una predicción, evaluar una hipótesis, determinar factores que influyan en una cierta
magnitud o tomar una buena decisión, hasta describir una cierta característica en una
población. A partir de ellos se derivan otros problemas de tipo matemático, tanto en
probabilidad como en estadística, como la estimación de parámetros, las pruebas de
hipótesis y la obtención de las distribuciones muestrales, o la definición de nuevas
variables aleatorias a partir de una o más variables aleatorias, como la definición de
suma, multiplicación, máximos y mínimos, o incluso la composición de variables
aleatorias.
La solución matemática a estos problemas pasa por definir cuál es la variable
aleatoria vinculada a un fenómeno aleatorio. Pero aparecen ligados otros muchos
conceptos (parámetro, estadístico, probabilidad, distribución, función), así como un
lenguaje específico (verbal, simbólico y gráfico), propiedades, definiciones y
argumentos específicos. Consideramos así, la variable aleatoria no sólo como un
concepto matemático, sino como una configuración de objetos matemáticos y a la vez
un instrumento de resolución de problemas en el que se requiere encontrar la regla de
correspondencia que asigne valores numéricos a los resultados de un experimento
aleatorio, que cumpla con ciertos criterios matemáticos y que, a su vez, esté vinculada
con un contexto real.
2. La variable aleatoria
El tema que nos ocupa parte de una situación aleatoria (experimento), cuyo resultado se
puede valorar mediante una medida cuantitativa (usualmente referida a una cierta
magnitud). Pero ante la imposibilidad de predecir con exactitud cada resultado en
particular, el estudio de un experimento requiere del análisis del espacio muestral que
nos brindará la posibilidad de establecer un criterio basado en las probabilidades de
todos los resultados posibles.
Esto es, en algunas situaciones «para caracterizar el resultado de un
experimento, no basta con decir que se ha producido un determinado suceso, sino que es
preciso dar cuenta de las diversas medidas que se hayan efectuado. La variable
aleatoria, es decir, la magnitud que ‘depende del azar’, es entonces indispensable»
(Boudot, 1979, p 332). La variable aleatoria es la herramienta matemática que permite
pasar del estudio de sucesos aislados al estudio de las distribuciones de probabilidad,
que son funciones reales y por lo tanto, hace posible la aplicación del análisis
matemático y de otras herramientas matemáticas a la estadística (Batanero, 2001).
84
Análisis desde la disciplina
1
El axioma 3 se generaliza para cualquier número de sucesos incompatibles dos a dos.
2
En algunos libros se le denomina campo.
3
Algunos autores las denominan magnitudes aleatorias.
85
Capítulo 3. Estudio 1
86
Análisis desde la disciplina
4
La preocupación de Miller (1998) por la definición de variable aleatoria como «el resultado de un
experimento aleatorio» se describe de manera más completa en el punto 5.1 del Capítulo 2.
5
La propuesta de Parzen será tratada más ampliamente en el apartado 6.2 del capítulo 4 de esta misma
memoria.
87
Capítulo 3. Estudio 1
Concepción de
Aleatoriedad
probabilidad
Experimento
Espacio de probabilidad
Número Suceso
Variable aleatoria
Regla de correspondencia
6
Los autores de los libros estadísticos consultados difieren en la terminología utilizada. La función de
distribución de una variable aleatoria se denomina a veces función de distribución acumulada.
88
Análisis desde la disciplina
(2) F ( x) P( X x) P X x
X-1 P [0, 1]
R: A
x: A= P(A)
F
x: F(x)
Figura 3.2. Asignación de probabilidad a los valores de la variable aleatoria
89
Capítulo 3. Estudio 1
Los tres axiomas principales que deben cumplir las funciones de distribución
son:
1. La función debe ser monótona no decreciente. En el sentido que se cumple que
F a F b si a < b.
2. Los límites al infinito positivo y negativo de la función deben existir y ser:
lim x F x 0 y lim x F x 1.
3. Es continua por la derecha. En el sentido de que lim b x F b F x .
p( xi ) P( X xi ) P X xi
7
Algunos autores la denominan función de probabilidad, pero usaremos el término distribución de
probabilidad para diferenciarla de la probabilidad definida sobre el espacio muestral que es también una
función de probabilidad, pero de conjunto.
90
Análisis desde la disciplina
distribución para dos valores consecutivos de la variable. Para cada valor xi, podemos
definir una nueva función, nuevamente de variable real, con imagen en el intervalo [0,
1] en la forma dada en la siguiente expresión.
(3)
p( xi ) F xi F xi1
El valor p(xi) no sería más que la probabilidad de que la variable tome el valor xi.
La definición formal de la distribución de probabilidad es:
Sean x1, x2, x3, ... xn los distintos valores que puede tomar la variable aleatoria discreta y
p(x1), p(x2),... p(xn) la probabilidad con que toma estos valores. El conjunto de pares de
valores (xj, p(xj)) de una variable aleatoria discreta se denomina distribución de
probabilidades de la variable aleatoria. La aplicación que a cada valor x en una variable
aleatoria discreta le asigna el valor p(x) es una función y debe cumplir con las siguientes
propiedades:
91
Capítulo 3. Estudio 1
92
Análisis desde la disciplina
5.1. Promedios
Los promedios evalúan la tendencia central de los datos y se manejan desde dos
visiones, muestral y poblacional. La diferencia entre ambas es que en la primera se
trabaja con datos o con conglomerados de datos resumidos generalmente en una tabla y
no se trabaja con el total de datos de la población. El cálculo puede ser muy simple
porque se limita al manejo directo de los datos. La visión poblacional, en cambio,
involucra al total de la población, que puede no ser numerable o finita. Bajo esta visión,
cuando en el problema de interés se involucra un fenómeno aleatorio, entonces se puede
definir un espacio de probabilidad y por lo tanto, también una variable aleatoria y su
función de densidad, para el caso continuo, o distribución de probabilidad, para el caso
discreto. En las variables aleatorias discretas finitas el cálculo de los promedios puede
resultar muy parecido al procedimiento que se sigue en el análisis de una muestra, pero
la interpretación es completamente diferente. Es por eso que es importante que se tenga
claro la visión desde la que se obtienen los promedios.
Por el objetivo de nuestro estudio, pondremos más énfasis en los promedios de
la variable aleatoria, sin embargo no hay que perder de vista la complejidad epistémica
que añade a este concepto el que los cálculos de los promedios puedan ser de la
población o de la muestra. Algunas de las confusiones que esto genera en los
estudiantes están reportadas en De la Cruz (2007).
Los promedios más socorridos son la esperanza matemática, la moda y la
mediana. La esperanza matemática es un concepto vinculado a la variable aleatoria y
que extiende la idea de media muestral. Para las variables aleatorias discretas se define
como:
E X xi pi
iI
93
Capítulo 3. Estudio 1
La moda es el valor más probable de la variable. Viene dada por los valores de X
para los cuales la distribución de probabilidad (variable discreta) o la función de
densidad (variable continua) tiene un máximo. En el caso continuo el valor más
probable en realidad es un conjunto de valores dados por un intervalo alrededor del
máximo de la función de densidad. También es posible que se presente más de una
moda. Otra cuestión importante es el hecho de que en un experimento aleatorio la moda
sea el valor más probable, no significa que a largo plazo o a nivel masivo se espere que
ese sea el valor esperado. Ese papel preponderante lo tiene la esperanza matemática.
La mediana es el valor de la variable para el cual la función de distribución toma
el valor 1/2. Por tanto, la probabilidad de que una variable aleatoria tome un valor
menor o igual a la mediana es exactamente 1/2. Sería la solución de la ecuación:
Igualmente se pueden definir las medidas de posición, que son los percentiles,
deciles o cuartiles. Por ejemplo el percentil de r% es la solución de la ecuación:
94
Análisis desde la disciplina
población, pero la varianza se calcula de manera diferente para una población que para
una muestra. La varianza de una población en la que se involucra un fenómeno aleatorio
es la varianza de una variable aleatoria. La desviación estándar es la raíz cuadrada de la
varianza para ambos casos.
La varianza de una variable aleatoria discreta y continua respectivamente está
definida por:
Var X i 1 xi E ( X ) 2 pi
n
V X x E x
2
f ( x ) dx
5.3. Momentos
La media y la varianza son casos particulares de los momentos de la distribución de una
variable aleatoria. La media es un momento ordinario de orden 1 y la varianza es un
momento de orden 2 con respecto a la media.
En general, los momentos ordinarios se definen de la siguiente forma:
r
mr i 1 xi pi para las variables discretas
n
mr x r f ( x ) dx para las variables continuas
r i 1 xi E ( X ) r pi
n
para las variables discretas
r x E( X )
r
f ( x ) dx para las variables continuas
Otros momentos importantes son los de orden 3, que sirven para definir los
coeficientes de asimetría, y los de orden 4, que sirve para definir la curtosis. Otro
motivo por el cual son importantes los momentos es que la función generatriz de una
variable aleatoria puede desarrollarse en serie y los coeficientes del desarrollo son
95
Capítulo 3. Estudio 1
precisamente los momentos. De modo que el desarrollo en serie hasta un cierto orden
usando los momentos proporciona una aproximación a la función generatriz, que a su
vez determina en forma unívoca la función de distribución.
96
Análisis desde la disciplina
página en donde advierte diversas dificultades con las que un estudiante se puede
enfrentar al tocar el tema.
Tanto Ríos (1967), como Parzen (1971), Krickerberg (1973), Meyer (1989) y
Devore (2011) defienden sus propuestas de orden de los temas tratados basándose en
visiones diferentes del mismo tema, enfocados a diferentes objetivos, pero cada uno de
ellos propone su propia visión como la mejor opción para introducir a los estudiantes en
el tema sin pedirles grandes antecedentes matemáticos de teoría de la medida o análisis
matemático. Sin embargo, en ninguno de los casos, sus posturas parten del análisis del
conocimiento de los estudiantes, sino más bien un análisis del conocimiento en sí
mismo. Así, podemos presumir que cada libro se sustenta en posturas epistémicas
diferentes para desarrollar en los estudiantes, aparentemente8, el mismo tema. Las
reflexiones diversas de estos autores, evidencian la complejidad epistémica del tema que
nos ocupa.
8
Nuestra referencia a lo aparente es porque cada uno de ellos lleva distintos objetivos al enunciar la
definición de variable aleatoria, como parte del engranaje de la postura conceptual de su libro. Lo cual
hace que su forma de abordar la definición, se impregne un poco de su postura aunque en ninguno de
ellos deja de ser el mismo concepto matemático.
97
Capítulo 3. Estudio 1
98
Análisis desde la disciplina
99
Capítulo 3. Estudio 1
100
Análisis desde la disciplina
101
Capítulo 3. Estudio 1
102
Análisis desde la disciplina
103
Capítulo 3. Estudio 1
104
Análisis desde la disciplina
(9) p ( y / ) p ( )
p ( / y )
p ( y / ) p ( )
A pesar de que en la estadística bayesiana también se habla de variables
aleatorias, no tienen el mismo sentido que en la estadística paramétrica. El hecho de que
el parámetro también sea aleatorio hace la comprensión de este concepto adquiera
mayor realce. Así mismo, la distribución de probabilidades de una variable aleatoria es
en realidad una familia de distribuciones de variables aleatorias.
105
Capítulo 3. Estudio 1
106
Análisis deesde la disciiplina
see seleccionan
Formalizació ón
que ex
xplica
científica Aspeectos
(Teoría) Realiidad importan
ntes de la
realiidad
con
nstituyendo
se compara con
n
que permite
p M
Modelo Estructu
ura
Organizar el
e
conocimiennto que genera ell
Figura 3.3
3. Diagrama de la relacióón entre mod
delo y teoría
107
Capítulo 3. Estudio 1
estudiante genere conocimiento nuevo no sólo para él mismo sino también, a largo
plazo, para la sociedad en la que vive. Describir el proceso de modelación que siguen
los estudiantes cuando se enfrentan a un problema en el que está en juego el objeto
matemático de variable aleatoria y la teoría alrededor de él, es uno de los objetivos de
nuestro estudio. Nuestro trabajo, por lo tanto, forzosamente deberá incluir el
razonamiento con y a través de la teoría, lo cual conlleva al estudio del razonamiento
con modelos probabilísticos y estadísticos, y la modelación como un proceso de
enseñanza.
108
Análisis desde la disciplina
abstractos que viven fuera de él y pueden ser menos complejos de lo que en contextos
diferentes al educativo se conciben.
El razonamiento estadístico trabaja a partir del conocimiento estadístico, el
conocimiento del contexto y la información proporcionada por los datos. En nuestros
estudios empíricos asumiremos esta idea, puesto que el trabajo de modelación con la
variable aleatoria requiere una síntesis entre el conocimiento del contexto y el
conocimiento estadístico en donde la variable aleatoria juega un papel importante: surge
del contexto y permite la matematización del problema, como se representa en la Figura
3.4.
Conocimiento Conocimiento
ESTADÍSTICO DEL CONTEXTO
IDEAS
PREGUNTAS
Generales
PLAN
Para la conexión de datos
109
Capítulo 3. Estudio 1
información no invalide las conclusiones en el contexto del problema. Por tanto, los
primeros indicios de trabajo con una variable aleatoria o estadística están en las
preguntas específicas que el estudiante se plantea al intentar resolver un problema que
darán lugar a la regla de correspondencia que permitirá el trabajo de la variable aleatoria
como función.
110
Análisis desde la disciplina
111
Capítulo 3. Estudio 1
112
Análisis desde la disciplina
113
Capítulo 3. Estudio 1
trabajar con ellos para dar una solución al problema planteado. La última fase de la
modelación sería la interpretación del modelo en la realidad para determinar la solución
a las preguntas planteadas.
REALIDAD
MATEMATIZACIÓN
Punto de partida
DESARROLLO Construcción
MATEMÁTICO lógico
114
Análisis deesde la disciiplina
Expeerimento aleatorio
definición dee
Valorees de
MODELO Frecueencia
la variiable
ESTADÍSTICO
E relatiiva
estadíística
Estabilizacióón Estabilizzación
contextualización
de la frecuenccia descontextu
ualización de la freccuencia
Valores de
d la MODELO DE
M
Suceesos Probabiilidad
variable aleeatoria CONJUNTO
MODELO
PRO
OBABILÍSTIC
CO
Teoría de probabilidad
des y
Estaddística Matemáttica
9
9.6. La e
experime
entación ccomo puen
nte entre el modelo
mattemático y la realid
dad
Con frecuencia los problem
mas de prob
babilidad soon demasiaado complejjos para alggunos
estuddiantes. Porr ejemplo, en la situ
uación expeerimental propuesta
p e el Estuddio 4
en
115
Capítulo 3. Estudio 1
116
Análisis desde la disciplina
en cada una de las secuencias reales y simuladas obtenidas por cada uno de los
estudiantes. De cada una de estas variables estadísticas obtendremos la correspondiente
distribución empírica de frecuencias que podrán compararse por pares para resolver el
problema de interés. De este modo, en el Estudio 4, la variable estadística constituye un
puente entre el dominio de la realidad en que se encuentra la situación que queremos
analizar y en la que interviene el azar y el dominio teórico donde, con ayuda de la
probabilidad se contruye un modelo teórico de variable aleatoria desconocido para el
estudiante y, en el caso de sus intuiciones, incluso para nosotros. En el caso de la
estadística matemática, existen teorías que ayudan a subsanar la distancia y que generan
el modelo apropiado para la variable aleatoria.
En nuestro caso, el estudiante habrá de realizar un proceso de inferencia
informal (Rossman, 2008) para obtener conclusiones sobre la variable aleatoria a partir
de la estadística. Sin embargo este proceso informal no es posible si el estudiante no
tuviera como sustento la posibilidad teórica de la convergencia de la variable aleatoria
hacia la estadística. Es decir, puesto que sólo se trabaja con una muestra, el proceso de
modelación no pasará por la convergencia de la frecuencia relativa (repetición de
experimentos) ni la definición de la función de conjunto, pero sí exige el conocimiento
de que, teóricamente, eso ocurrirá. Es en ese sentido que la distribución de frecuencias
aporta información sobre la distribución de probabilidades. También es de observar que
no se obtiene propiamente al modelo probabilístico (la distribución de la variable
aleatoria) sino sólo se infiere de las características de la variable estadística. Es decir, en
el proceso de realizar una inferencia informal, se obvian cuestiones teóricas, de las que
el profesor debe ser consciente cuando la introduce en el salón de clases.
Esta otra forma de modelar a través del muestreo es diferente a la que implica
una asignación de probabilidades laplaciana o frecuencial, aunque comparte elementos
con ésta última puesto que la experimentación también funge como puente entre el
modelo teórico y la realidad en el primer estrato de modelación.
En la Figura 3.7 se observa que un primer estrato de modelación se finaliza
cuando se asignan valores de la variable estadística a cada resultado del experimento
aleatorio. Ese momento nos aporta un modelo matemático que será usado como la
«realidad» en un siguiente estrato en el que propiamente se establecerá la distribución
de frecuencias de la variable estadística. El puente entre el modelo estadístico y el
modelo probabilístico (la inferencia informal) está dado por el trabajo matemático con
la variable estadística, a través de la cual se efectúa propiamente la inferencia informal,
puesto que en una inferencia informal el modelo probabilístico sólo se infiere a través
de las medidas de la variable estadística. En este trabajo no se espera que se obtenga
117
Capíítulo 3. Estuudio 1
Exxperimento alea
atorio
Resu
ultados del expeerimento
Variablee
estadísticca
Valoores de MODELOO
ESTADÍSTIC
CO Freccuencia
la vaariable
rellativa
estaddística
Análisis Estadíístico
Inferencia info
ormal
Valoores de la
Probaabilidad
variablle aleatoria
MODELOO
PROBABILÍST
P TICO
F
Figura 3.7. Proceso de modelación
m e una infereencia informaal
en
118
Análisis desde la disciplina
datos, basta obtener una estimación de la dispersión en los errores de medida (una
estimación de la desviación típica en la población de los posibles errores) para tener el
modelo completamente determinado. Las aplicaciones prácticas que podemos deducir a
partir de esto son muy variadas: previsión del número de defectos (piezas que se saldrán
de los límites considerados como «normales»); decisión sobre límites de garantías; coste
de la política de garantía; criterios para considerar que el proceso de producción está
«controlado», etc.
Krickeberg (1973) sostiene que si estamos interesados en la variable aleatoria X,
en realidad lo estamos en su función de distribución, puesto que ésta nos proporciona
las probabilidades con las cuales el valor X() está comprendido dentro de los
diferentes conjuntos de A en una observación aleatoria con resultado . Sin embargo
otros autores (Meyer, 1989; Feller, 1989) sostienen que es en la variable aleatoria en la
que radica la importancia de las distribuciones de probabilidad puesto que es ésta en la
que se manifiesta el espacio muestral y el experimento y por lo tanto la realidad. Lo
cierto es que cuando se define la variable aleatoria queda automáticamente definida su
función de distribución. Así, el estudio de una implica el estudio de la otra y también la
actividad de modelación que vincula la realidad con una representación matemática de
ella.
Como regla de correspondencia y desde una perspectiva puramente matemática,
la variable aleatoria podría ser arbitraria, siempre y cuando el espacio muestral definido
satisfaga las condiciones establecidas en la definición (Mood y Graybill, 1963), pero
desde una perspectiva de modelación, la regla de correspondencia debe tener un sentido
a partir de una pregunta que se pretenda resolver.
Esto significa que desde una perspectiva exclusivamente teórico-matemática a
un espacio muestral se le podrían asignar diferentes reglas de correspondencia (Godino,
Batanero y Cañizares, 1996), pero éstas se ven limitadas cuando se condicionan a la
pregunta de interés que nos mueve a ocuparnos del fenómeno aleatorio.
Cuando se aplica la teoría de la probabilidad a situaciones reales, no es necesario
encontrar una distribución distinta para cada modelo estudiado. A menudo nos
encontramos con que muchas situaciones muestran una serie de aspectos comunes,
aunque superficialmente parezcan diferentes. En este caso, podemos formular un
modelo probabilístico aplicable a estas situaciones. Por este motivo, se han definido
varios modelos de variables aleatorias que permiten resolver una gama amplia de
situaciones y cuyas distribuciones de probabilidad quedan determinadas, como se ha
dicho anteriormente, por uno o varios parámetros. Tradicionalmente los modelos se
dividen de acuerdo a la continuidad de las variables aleatorias en continuas y discretas.
119
Capítulo 3. Estudio 1
Entre dichos modelos citaremos sólo algunos de los más importantes por la frecuencia
con la que se presentan en el contexto real.
1
p x ; x (a, b)
ba
n
P ( r ) p r q n r
r
x e
p x
x!
120
Análisis desde la disciplina
1
f x; a , b ; x (a, b)
ba
x 2
1 2 2
f ( x; , ) e
2 ,- < x <
121
Capítulo 3. Estudio 1
122
Análisis desde la disciplina
Significado de la probabilidad
Clásico/Frecuencial
Clásico Frecuencial Subjetivo Axiomático
/Subjetivo
Situaciones Realizar inferencias Juegos de azar Análisis de Evaluar Problemas intra-
problemas Toma de decisiones datos grado de matemáticos
credibilidad
personal
Lenguaje Verbal, simbólico, Tablas, gráficos Formal
numérico
Conceptos Experimento Experimento Experimento
aleatorio estadístico aleatorio
Población Muestra Espacio muestral
Sucesos Álgebra de
sucesos, espacio
probabilístico
Probabilidad Frecuencia Probabilidad Función medible,
relativa inicial/final medida
Variable aleatoria, Variable Dato Función de
valor de la variable, estadística conjunto, original,
rango, máximo, Dato imagen; v.
mínimo. dependiente e
independiente
Distribución de Distribución de Distribución Función
probabilidad frecuencias inicial/final, compuesta;
verosimilitud inversa
Parámetros (media, Esperanza Estadísticos Distribución Parámetros
varianza, etc.) Matemática (media, del (media, varianza,
varianza, etc.) parámetro, etc.)
inicial y final
Función de Distribución Integral
distribución acumulada de
frecuencias
Función de Histograma de Derivada
densidad frecuencias
Distribución de Polígono de
probabilidad frecuencias
Propiedades Dependencia, Equi Repetibilidad Carácter Axiomas
Independencia probabilidad Convergencia subjetivo,
parámetros
variables
Procedimientos Análisis Combinatoria, Registro de Teorema de Conjuntistas
Matemático proporciones, datos Bayes,
análisis a priori estadísticos, probabilidad
de la estructura simulación, condicional
del ajuste de curvas
experimento
Argumentos Deductivo Combinatorios Inductivos Deductivo
123
Capítulo 3. Estudio 1
124
Análisis desde la disciplina
125
126
Capítulo 4.
Estudio 2.
Análisis Epistemológico
Histórico
ÍNDICE DE CAPÍTULO
1. Introducción, 129
2. Primeros indicios. Previsión de la apuesta en juegos de azar. Esperanza
matemática, 130
3. Elaboración de censos y previsión de datos socioeconómicos. Variable
estadística, 134
4. Teorema central del límite y modelos generales de distribuciones, 140
4.1. Las aportaciones de Jacob Bernoulli, 140
4.2. Las aportaciones de Abraham de Moivre, 144
4.3. Las aportaciones de Gauss, Legendre, Laplace, 148
4.4. Las aportaciones de Simeón Denis Poisson, 152
4.5. Las aportaciones de Pafnuti L. Chebyshef y sus discípulos, 155
5. Inferencia estadística. Relación entre las variables estadística y aleatoria,
162
5.1. Las aportaciones de Lambert Adolphe Jacques Quetelet, 163
5.2. Las aportaciones de Francis Galton, 164
5.3. Las aportaciones de Karl Pearson, 168
5.4. Las aportaciones de Gosset, Fisher, Neyman y E. Pearson, 171
5.5. La variable estadística en la actualidad, 175
6. Formalización matemática de la variable aleatoria, 176
6.1. Aportaciones de Kolmogorov y Fréchet, 177
6.2. Aportaciones de Lévy, Petrov y Parzen, 181
7. Conclusiones del capítulo, 186
7.1. Etapas históricas, 190
7.2. Interacciones entre los análisis estadísticos y probabilísticos, 195
7.3. Saltos cualitativos de las etapas históricas, 198
7.4. Algunos usos posibles en la didáctica, 199
1. Introducción
La variable aleatoria, como muchos otros objetos de la ciencia, ha surgido
progresivamente y ha presentado etapas de mayor o menor desarrollo caracterizadas por
sucesos que marcan algún progreso en su conceptualización como objeto matemático.
Un aspecto esencial para la comprensión didáctica de la variable aleatoria es conocer su
génesis histórico-epistemológica.
En este estudio el análisis epistemológico histórico tendrá la intención no sólo de
poner de manifiesto la diversidad de puntos de vista que se han sucedido, algunos de los
cuáles en su tiempo se han considerado correctos, pero que después se han rechazado o
modificado. Este análisis también tendrá la intensión de buscar elementos
epistemológicos constitutivos del significado del objeto y su adaptación a la resolución
de distintos problemas (Gómez, 2003). Se tiene también la intención de identificar los
obstáculos ligados al desarrollo del objeto matemático.
Nos interesa el análisis del devenir histórico como una herramienta cognitiva
puesto que pretendemos encontrar en la historia elementos que ayuden a la comprensión
del aprendizaje del concepto de variable aleatoria. Se tiene el propósito de que esta
información pueda convertirse en fuente de hipótesis y aporte elementos para el diseño
de situaciones didácticas centradas en un objeto matemático y que a su vez, marque
etapas de desarrollo en su construcción en los estudiantes (Brousseau, 1997).
La variable aleatoria ha estado presente en casi toda la historia de la probabilidad
y la estadística; sin embargo no ha sido sino hasta años relativamente recientes cuando
se ha puesto de manifiesto en forma explícita. Es difícil de seguir a lo largo del tiempo
debido a la especificidad de su definición, a la trivialización de su importancia, a lo
complejo de las herramientas matemáticas necesarias para formalizarlo, a la cercanía
temporal de su definición formal y a que la variable aleatoria está vinculada con
problemas filosóficos que la teoría de la probabilidad no resuelve (Doob, 1986).
En este análisis nos guiamos por la presencia implícita que percibimos en la
historia de la probabilidad y las propiedades distintivas de su formalización denotada en
el capítulo anterior.
Iniciamos nuestro análisis basamos en las etapas históricas del desarrollo de la
teoría de la probabilidad que propone García (1971) resaltando los momentos
importantes que intervinieron en la formulación de la conceptualización de la variable
aleatoria como la conocemos actualmente. Destacamos la participación de algunos
matemáticos a esta formulación, generalmente agrupados por las fechas en que
129
Capítulo 4. Estudio 2
trabajaron, pero sobre todo por el momento histórico en que se sitúan sus aportaciones
al desarrollo del concepto de variable aleatoria. Recurriremos al anacronismo de
actualizar términos, e indicaremos el momento en que lo hacemos, para poder observar
y comprender el desarrollo del concepto de variable aleatoria desde nuestra perspectiva
actual, aunque trataremos de no obviar las diferencias entre las concepciones de
entonces y las actuales.
Concluimos el capítulo con una propuesta de ocho etapas históricas de acuerdo
al desarrollo histórico de la variable aleatoria en particular, resaltando las características
que las distinguen y los principales personajes que contribuyeron a su desarrollo. Así
mismo detallamos las dos líneas que conducen el devenir histórico del objeto
matemático y las formas en que se interaccionan a lo largo de las ocho etapas. También
proponemos los saltos cualitativos conceptuales que se dieron a lo largo de la historia y
que contribuyeron al paso de una etapa a otra. Finalmente proponemos algunas posibles
recomendaciones didácticas e identificamos algunos obstáculos históricos que pueden
ser pertinentes para su conceptualización en las clases de probabilidad y estadística.
130
Análisis histórico
análisis de los posibles resultados de un juego en el que se apuesta sobre la suma de los
puntos obtenidos en las caras superiores al lanzar tres dados. Fournival busca explicar
los resultados obtenidos tras haber observado varias veces repeticiones del experimento
aleatorio. Para ello analiza teóricamente las posibles respuestas de un lanzamiento.
Según Bellhouse este poema es el escrito más antiguo en el que se establece una
relación entre las frecuencias observadas (de los valores de una variable aleatoria al
repetir el experimento) y sus posibilidades (espacio muestral del experimento aleatorio):
«Se producen dieciséis números. No tienen, sin embargo el mismo valor, puesto que el
menor y el mayor ocurren rara vez, mientras los centrales aparecen frecuentemente»
(Bellhouse, 2000, p. 134).
En su análisis, Richard de Fournival trata de explicar por qué esos dieciséis
números aparecen más o menos veces y se da cuenta que existen diferentes formas en
las que puede surgir cada uno de ellos. Enumera las posibles configuraciones (es decir,
enumera el espacio muestral actual) de los tres dados al ser lanzados y conecta cada una
de ellas con los dieciséis números que se producen a partir de la suma de las caras de los
dados. Finaliza con la determinación de sus posibilidades (probabilidades) y recomienda
a los jugadores que apuesten según el beneficio esperado. En ese poema, el autor liga
las configuraciones de los dados a un número a través de una norma («la suma de los
números obtenidos en la cara superior de los tres dados») y después con una
probabilidad para tratar de obtener una respuesta a sus inquietudes.
Alrededor de 1620 (400 años después) este mismo juego fue propuesto a Galileo
por el Duque de Toscana. La inquietud del Duque era que había notado que las sumas 9
y 12 aparecen menos veces que las sumas 10 y 11, aun cuando para ambas sumas hay el
mismo número de combinaciones de números que las producen. Galileo encontró la
misma solución que aparece en el poema De Vetula, pero añadió una demostración
combinatoria completa de la solución, obteniendo 25 casos teóricos favorables para 9 y
12 y 27 para 10 y 11. En su solución, él tomaba en cuenta el orden de los dados y una
definición apropiada del espacio muestral: cada configuración de los sucesos posibles
tomando en cuenta el orden de colocación de los dados.
En estas dos soluciones dadas por Fournival y Galileo al juego con tres dados, se
observa la necesidad del análisis de la situación completa para contestar una pregunta.
El «número obtenido en la cara superior de un dado» es una variable aleatoria, de modo
que la «suma de las caras superiores obtenidas en los tres dados» también lo es. Se
manifiesta la necesidad de analizar una variable para estudiar el problema y asignar una
probabilidad (o posibilidad) a cada valor que toma. Tomando en cuenta que este es uno
de los primeros problemas de probabilidad resuelto en la historia (Batanero, Henry y
131
Capítulo 4. Estudio 2
Parzysz, 2005), podemos decir que la definición de la variable aleatoria está en los
orígenes de la probabilidad, aunque de manera implícita.
También hay que observar que la motivación para el análisis teórico de las
posibles respuestas (tanto por parte de Galileo como por Fournival) se basa en
observaciones empíricas de los distintos posibles resultados y sus frecuencias. La
inquietud tanto del Duque de Toscana como de Fournival tuvo que haber sido producto
de una recopilación y análisis de muchos datos tomados de la experiencia, puesto que
pocas observaciones no habrían sido suficiente para hacer notable la diferencia que se
produce entre la aparición de sucesos que tienen 25 ó 27 casos favorables de entre 216
casos posibles. Es decir, se tuvo que haber hecho uso de variables estadísticas. Sin
embargo, en ninguno de los dos casos se hizo explícito el uso de la variable estadística
ni su vinculación con la variable aleatoria.
Cardano, Pascal, Fermat y Huygens enfocaron su interés por la predicción de los
juegos de azar en establecer las normas necesarias para tener un juego equitativo. En su
análisis recurrieron intuitivamente al uso de la distribución de las variables aleatorias
vinculadas y su valor esperado.
Aunque Cardano no visualizó su libro como un trabajo de índole matemático, su
Liber de Ludo Aleae (Cardano, 1953/1663) ha sido estudiado por muchos historiadores
como el más completo tratamiento del cálculo de probabilidades antes del libro de
Huygens. A Cardano se le atribuye la introducción de la idea de asignar una
probabilidad p entre cero y uno, tomando en cuenta el número total de resultados y el
número de casos favorables. Pero su gran aportación, fue sugerir explícitamente el uso
del «peso relativo de los sucesos favorables» en los juegos de azar para hacer una
apuesta equitativa. Recomendó a los jugadores usar el cálculo combinatorio y les dio
una regla general: «…deberemos considerar el circuito completo y el número de
lanzamientos que representan como puede ocurrir el resultado favorable en muchas
formas y comparar ese número con el resto del circuito, y de acuerdo a esa proporción
se deberán hacer las mutuas apuestas, así, se competirá en igualdad de condiciones.»
(Cardano 1953/1663, p 202). Por «circuito completo» Cardano se refería al número de
resultados elementales posibles.
En su principio fundamental del juego definió lo que debería de ser un juego
equitativo: «igualdad de condiciones… de dinero, de situación y del dado mismo»
(Cardano, 1953/1663, p 189). Cardano sustentó este principio en lo que en lenguaje
contemporáneo sería el número esperado de ocurrencias y equiprobabilidad: «…en seis
lanzamientos, cada punto debería aparecer una vez, pero ya que alguno se repetirá, a
esto seguirá que otro no aparecerá.» (Cardano, 1953/1663, p 191). En lenguaje
132
Análisis histórico
contemporáneo diríamos que a largo plazo esperamos que en seis lanzamientos, cada
punto aparezca una vez. Al reconocer que la equiprobabilidad es un ideal y que sólo se
puede obtener después de una serie de intentos repetidos, Cardano, no sólo menciona
una forma rudimentaria de la ley de los grandes números sino también trabaja
implícitamente con la relación tan delicada entre la probabilidad clásica y la frecuencial,
al mismo tiempo que maneja una variable aleatoria y una estadística, su vinculación en
el contexto del problema y la tendencia de una hacia la otra en tales situaciones.
La correspondencia entre Pascal y Fermat (Pascal y Fermat, 2007/1654) se
considera el punto de partida de la teoría de la probabilidad. En ese intercambio de
cartas, resuelven varios problemas haciendo uso de la combinatoria y del análisis de las
posibilidades que cada jugador tiene de ganar. Entre ellos, el problema de la apuesta
interrumpida propuesto a Pascal por el caballero de Meré ha sido de los más relevantes.
Dicho problema se cuestionaba sobre la forma en que una apuesta debía ser dividida
entre dos jugadores dado que el juego no había sido concluido, pero existían resultados
que podían dar cuenta de a quién estaba favoreciendo la suerte. Ambos autores
resolvieron el problema por diferentes vías, pero estaban de acuerdo en que había que
dividirla proporcionalmente en función de las posibilidades que cada jugador tenía de
ganar en el momento en que se interrumpiera el juego. Se dieron cuenta de que «hay
que buscar primero en cuántas partidas estará decidido el juego con toda seguridad…
Hay que ver, ahora, de cuántas maneras se combinan las partidas… y cuántas hay
favorables [a cada jugador]» (Pascal y Fermat, 2007/1654, pp 255-256). Es decir,
utilizan una variable aleatoria, aunque no la enunciaron explícitamente. Pascal y Fermat
resolvieron el problema para un caso particular de número de partidas, pero lo
intentaron resolver para varios casos y con varios jugadores, haciendo más complicada
la variable aleatoria y su distribución. Posteriormente, en su libro Traité du Triangle
Arithmétique (Pascal (1963/1654), demostró algunas propiedades de lo que a partir de
entonces se llamó El triángulo de Pascal, y las aplicó para producir una solución
sistemática del problema del reparto de las apuestas.
Hald (2003) menciona que uno de los primeros indicios del uso intuitivo de la
variable aleatoria fue el realizado por Christian Huygens (1629-94) en su libro De
Ratiociniis in Ludo Aeae (1714/1657). Huygens, como buen discípulo, retoma la
correspondencia de Pascal y Fermat y resuelve varios de los problemas discutidos por
ellos, entre ellos el problema de la apuesta interrumpida (Proposición IV).
Prop. IV: Suponiendo que juego contra otra persona esta condición, que quien gane
primero tres juegos se llevará la apuesta; y que ya he ganado dos juegos de los tres y él
sólo uno. Quiero saber qué proporción de la apuesta me correspondería, en caso de que
133
Capítulo 4. Estudio 2
Prop. XIV. Supongamos que otro jugador y yo jugamos por turnos con un par de dados
bajo estos términos, yo ganaré si obtengo 7 puntos, o él si obtiene 6 puntos antes, y él
tiene la ventaja de lanzar primero. Hallar la proporción de nuestras oportunidades
(Huygens, 1714/1657, p 11).
134
Análisis histórico
135
Capítulo 4. Estudio 2
136
Análisis histórico
indicaron que el número de niños nacidos fue superior al número de niñas en esos 81
años, pero además en una proporción constante. Ante este hecho concluyó que la
proporción no igualitaria existente entre el número de niños y de niñas que nacen cada
año en Inglaterra no estaba gobernada por el modelo ideal de la probabilidad atribuible
al azar, sino que esa proporción entre los dos sexos estaba regida por el misterioso «arte
de la Divina Providencia» que escapaba a la comprensión del intelecto humano.
Aunque el escrito de Arbuthnott claramente se inclina por un misticismo
religioso, sus estudios pusieron en duda que el modelo clásico de la probabilidad
desarrollado por Pascal y Fermat rigiera todos los fenómenos de la naturaleza, pero
también para hacer notar la diferencia entre los modelos matemáticos ideales de la
probabilidad y la forma en que ocurren esos fenómenos en la realidad. Es decir, dio a
conocer que el modelo clásico de la probabilidad desarrollado por Pascal y Fermat
puede resultar controvertido para estudios fuera de los juegos de azar.
Observemos que este estudio Arbuthnott siguió un proceso de modelación
diferente al seguido por los autores que indagaron sobre los juegos de azar descritos en
el momento histórico anterior (Apartado 2 de este capítulo). Él estaba entusiasmado con
la teoría de probabilidades y trató de llevarla a los fenómenos naturales, a diferencia de
Galileo, Pascal y Fermat, quienes partieron del análisis de la realidad para generar
teoría. Pero en este proceso también usó una concepción de aleatoriedad más moderna,
puesto que su razonamiento fue que si el fenómeno no seguía los derroteros dados por la
entonces naciente teoría de probabilidad, entonces el fenómeno no podía considerarse
azaroso y buscó otra explicación para su comportamiento.
De este modo en la mente de los investigadores paulatinamente surgía la
necesidad de acoplar cada vez más la teoría de probabilidades al estudio estadístico de
los fenómenos aleatorios (Hald, 2003), pero también a la inversa, de aplicar los modelos
generados a la realidad en la que vivían.
Una de las ciudades que llevaba el recuento de las defunciones y nacimientos
con mucha regularidad y minuciosidad fue Breslau. Alrededor de 1690 el registro había
sido llevado por más de un siglo y la cantidad de datos acumulados atrajeron el interés
de dos investigadores interesados en resolver distintas cuestiones: Gaspar Neumann y
Edmund Halley. Después de revisar miles de partidas de defunción, Neumann probó la
falsedad de la antigua creencia popular de que en las edades «climatéricas» (múltiplos
de 7) hay más propensión a adquirir enfermedades y morir que en el resto de su vida.
Sin embargo demostró que sí había ciertas edades (en la infancia y en la ancianidad) en
las que el ser humano estaba más susceptible de morir, puesto que ahí es donde se
presentaban mayores defunciones.
137
Capítulo 4. Estudio 2
Los datos de Breslau fueron conocidos por Halley gracias al trabajo de Neumann
y los aplicó en el estudio de la vida humana. Hizo un exhaustivo análisis de las tasas de
mortalidad y calculó las «posibilidades»1 que tiene una persona de morir a una cierta
edad para regular el precio de los seguros de vida. Sus cálculos fueron la base de los
trabajos de esperanza de vida y los índices de mortalidad que hoy utilizan muchas las
compañías de seguros.
Tanto Neumann como Halley analizaron la variable estadística: «edad de las
personas que mueren» y la relacionaron con la mortalidad anual (Halley, 1693, p 599).
Ambos trabajaron con variables estadísticas y sus distribuciones e incluso trataron de
ajustar curvas matemáticas para hacer predicciones. De alguna forma, fueron
precursores de la función de densidad, aunque no usaron explícitamente las ideas de
variable estadística o aleatoria.
Halley también se dedicó a la astronomía y es de suponerse que conocía el
trabajo de Galileo. Su más famoso descubrimiento fue la predicción del año de
aparición del cometa que hoy lleva su nombre. Gracias al análisis de viejos datos
acumulados descubrió que las orbitas de los cometas aparecidos en 1531, 1607 y 1682,
eran muy parecidas y dedujo que correspondían a un mismo cometa. Estimó que el
periodo de aparición era de 76 años y predijo que volvería a aparecer en 1758. Su
experiencia en estos trabajos hizo que le llamaran la atención los datos de Breslau.
Halley empleó los razonamientos estadísticos usados en astronomía para estudiar datos
poblacionales y sociales y los hizo progresar hacia nuevas herramientas de análisis.
También se percató de la valía de los grandes números, al mencionar que de tener un
mayor número de datos, el cálculo sería más confiable:
Trabajando con un problema muy distinto, Galileo Galilei también se ocupó por
el recuento de datos y por el análisis en una variable estadística continua. Desde la
época de la Revolución Copernicana, los astrónomos organizaban los registros de las
observaciones del movimiento de los planetas. Galileo concentró su atención en los
diferentes valores que se obtienen al realizar varias veces la misma medida para
1
Halley (1693) usa la palabra «odds» y en algunas ocasiones la palabra «probability», aparentemente en
el mismo sentido. Sin embargo, no debemos confundir su definición con las actuales acepciones de
nomios o probabilidad. En Halley traduciremos ambos términos como «posibilidad».
138
Análisis histórico
139
Capítulo 4. Estudio 2
140
Análisis histórico
azar, que podía aplicarse a los asuntos morales, cívicos y económicos. De importancia
tanto filosófica como matemática, en este trabajo no sólo encontramos las primeras
demostraciones probabilísticas, sino también mejores aproximaciones al concepto de
probabilidad, cosa que permite, por vez primera, establecerlo en un sentido
epistemológico (Sylla, 2006).
La principal aportación de Bernoulli es el enunciado del primer teorema del
límite en la teoría de probabilidad, al que él llamó proposición principal, pero no es
menos importante que lo demostrara de manera rigurosa (Bernoulli, 2006/1713, pp.
330-335). Hald (2003) tradujo a la nomenclatura actual la comprobación de Bernoulli
de la ley débil de los grandes números y mostró que está completa y es rigurosa (pp
259-262). Aunado a este rigor matemático, Bernoulli visualiza que debe haber una
tolerancia del resultado empírico con respecto al teórico, que permitiría aplicar la
probabilidad a ámbitos en los que no se pueden conocer la probabilidad teórica de los
resultados posibles de un experimento aleatorio. Es decir, establece un puente entre el
mundo empírico con el teórico. Desde nuestro objeto de interés, el establecimiento de
una «tolerancia» implica que la variable estadística y la variable aleatoria nunca podrán
llegar a ser las mismas.
Bernoulli (2006/1713) también hace un tratamiento sistemático de la
combinatoria como una forma de conocer los distintos modos en que se puede dar un
acontecimiento y así calcular su probabilidad (3ª parte, pp 193-250). Sin embargo él
también fue consciente que ésta teoría sería poco empleada para obtener la probabilidad
en situaciones distintas a las de los juegos de azar y propuso obtener la probabilidad a
través de aproximaciones sobre la base de frecuencias empíricas:
141
Capítulo 4. Estudio 2
…el número de formas en las cuales m puede ser obtenido tirando n dados es igual al
coeficiente de xm en el desarrollo de (x + x2 + x3 + x4 + x5 + x6)n como una serie de
potencias de x (Bernoulli, 2006/1713, p 157).
…la expresión general para la probabilidad de que [el éxito] ocurra al menos m veces en
n intentos, cuando es conocida la probabilidad de un intento, consistiría de los términos
de la expansión de (b/a + c/a)n desde (b/a)n hasta el término que involucra
(b/a)m (c/a)n-m, ambos inclusive, en donde b/a y c/a es la probabilidad de éxito y falla en
un intento, respectivamente (Bernoulli 2006/1713, p. 165).
142
Análisis histórico
143
Capítulo 4. Estudio 2
2
Aunque De Moivre publicó diversos artículos sobre probabilidad en las Philosophical Transactions a
partir de 1708, todos esos trabajos se concentraron en las tres ediciones de su obra La Doctrina del azar
(1718, 1738 y 1756).
144
Análisis histórico
1756, p. 241).
de √ veces, que se puede expresar por la suma doble del valor obtenido en el
segundo corolario, esto por 0,682688 (de Moivre, 1757, p. 246).
145
Capítulo 4. Estudio 2
Los sucesos en una larga racha podrían caer en una proporción diferente de la real…
Por lo tanto, se deberían asignar momios en contra de una variación tan grande de la
146
Análisis histórico
igualdad, así la mente estaría mejor dispuesta a las conclusiones derivadas de los
experimentos (de Moivre, 1756, p 242).
Sus artículos y libros son totalmente deductivos, por lo que es posible que de
Moivre no se haya ocupado de colectar o analizar observaciones. Sin embargo, lo cierto
es que profundizó teóricamente en la probabilidad frecuentista y en su relación con un
modelo teórico ideal, que, a largo plazo, conduciría a la relación entre la variable
estadística y la aleatoria.
Es importante notar que, aunque logra generalizaciones y ecuaciones que
posteriormente darían paso a la formulación de diversas distribuciones, él las establece
como métodos para el cálculo de probabilidades y no como distribuciones de
probabilidad o funciones de densidad, puesto que para ello era necesario el concepto de
variable aleatoria que aún no se visualizaba.
Así mismo, se observa que a pesar de sus contribuciones a la aproximación de la
Binomial a través de la Normal, de Moivre no trabajó con variables continuas
explícitamente, ni tampoco hay indicios de que él pudiera percatarse de la existencia de
un tipo de variables que no fueran numéricas. Sin embargo pareciera una necesidad de
la época. Si las variables enunciadas por de Moivre no hubiesen sido numéricas, no le
hubiese sido posible aplicar el análisis matemático en boga ni tampoco obtener
generalizaciones. Esto concordaba enteramente con el pensamiento científico de
entonces, en el que se apoyaba la vertiente de las ciencias exactas y la imagen ideal de
un universo determinista. Gran parte de este pensamiento se reflejaba en el lenguaje
empleado y la estructuración de sus escritos.
En esa época, los científicos usaban la idea de variable ligada al estudio del
análisis matemático. Comúnmente la llamaban cantidad o magnitud variable, lo cual
evidenciaba su carácter de cualidad vinculada con la medición, proceso a través del
cual, la cualidad podría tomar distintos valores. La economía del lenguaje fue dando
paso al uso de una sola palabra y la distinción entre las cantidades que no varían y las
que sí, hizo que predominara la sustantivación del adjetivo y fuera nombrada solamente
«variable» (Gómez, 2008). Actualmente se conceptualizan distintos tipos de variables,
así mismo la idea de variable numérica se concibe de manera distinta en el ámbito
determinista que en el probabilista, sin embargo en este momento histórico no se
distinguía un tipo de ciencia de la otra y los probabilistas usaban el término bajo una
acepción similar a la que los calculistas empleaban para denotar sus variables. No se
vislumbraba, aún, la necesidad de distinguir un concepto propio para el ámbito
probabilista.
147
Capítulo 4. Estudio 2
148
Análisis histórico
149
Capítulo 4. Estudio 2
3
que es la forma en como propone Parzen que se inicie el estudio de las variables aleatorias en
estudiantes universitarios (ver apartado 6.2 de este capítulo o apartado 2 del capítulo 3). En forma
150
Análisis histórico
variables, hace explícita la regla a través de la cual se calcula una nueva variable.
También se nota que, intuitivamente, para él, la nueva variable, que surgía a partir otras
variables aleatorias, era de la misma naturaleza aleatoria que sus precedentes, puesto
que buscaba acotar su probabilidad.
Hay que recordar que a pesar de la definición de probabilidad que privaba en
Laplace y aunque eran manejados de manera informal, en esa época, no había una
definición de suceso o espacio muestral, lo que limita el surgimiento de la idea de la
variable aleatoria como una función conjunto de valor real, comprensión que sólo
llegaría con la axiomatización de la probabilidad por medio de la teoría de conjuntos.
Lo cual implica que el establecimiento de la probabilidad como ciencia también está
ligado con el desarrollo de la variable aleatoria.
Un aspecto importante, es que en esta época no había una definición del
concepto de aleatoriedad. Laplace vio la necesidad de hacer explícitas las bases
filosóficas de su teoría y diferenciarlas de su trabajo matemático. En su Ensayo
filosófico sobre las probabilidades (2006/1814), se sientan los principios filosóficos y
resultados generales básicos sobre los que descansa toda su teoría. Algunos de sus
principios no son válidos actualmente y también hay contradicciones y redundancias en
sus argumentos, pero al hacerlos explícitos, refleja el pensamiento de su época y
permite vislumbrar los alcances y limitaciones de su teoría analítica de las
probabilidades. En este trabajo se nota, por ejemplo, cual es la definición de
aleatoriedad que privaba en el ámbito científico de entonces y que permea toda su obra.
Laplace expresa su concepción de aleatoriedad cuando concibe una probabilidad más
bien como un mal menor, fruto de nuestra ignorancia:
resumida, en los fenómenos aleatorios con resultado numérico la función que vincula el espacio muestral
con los números reales es la función identidad.
151
Capítulo 4. Estudio 2
Para resolverlo, Poisson hace la analogía de las m causas posibles con un mismo
número de urnas A1 , A2 , A3 , ..., An , ..., Am . Cada una con una probabilidad de sacar bola
152
Análisis histórico
En estos párrafos, son muchos los avances que se observan sobre el desarrollo de
la idea de variable aleatoria. Define a X, que es una variable, como una función
creciente, cosa que sólo podría ser posible si los valores x que toma la variable X son
números reales. También veamos que lo que llama «cosa» (chose, en francés) A toma
los valores de la realización de la experiencia. Es decir, A es de naturaleza azarosa, pero
la función X es un objeto matemático. Se infiere que X toma todos los valores x («la cual
se incrementa sin interrupción»). Estas dos «cosas» (A y X) se vinculan a través de los
valores x. En A, x es el resultado de un fenómeno aleatorio, en X, x son números reales
que se pueden ordenar. La definición de X le permite operar con ella (puesto que es una
función en los reales) y con x (puesto que son números reales), A en cambio le permite
vincularse propiamente con la experiencia aleatoria y por lo tanto con el contexto real,
incluso se podría pensar que A es una noción primitiva de experimento aleatorio, sólo
que con resultado numérico. Pero ninguna de las dos es aún el concepto de variable
aleatoria actual. Lo notable es que Poisson ya indica el requisito de que X y x tengan
características matemáticas, y, al mismo tiempo, estén vinculadas con un experimento
153
Capítulo 4. Estudio 2
aleatorio a través de A. También que, aun cuando A puede tomar valores numéricos,
requiere la definición de X, ambas de diferente naturaleza.
Hay que observar que a pesar de que trabaja con valores determinados de x, la
variable que maneja es continua «ya que el número de valores posibles es infinito» y
«se incrementa sin interrupción». Notemos también que hay una insipiente función de
densidad que está definida a través de algo muy próximo a la función de distribución y
que ésta última tiene un papel muy importante, puesto que es la que le permite calcular
la probabilidad de los valores x. La observación de que la probabilidad de un valor
determinado x tienda a cero, indica que él sabía que la variable y, dada por y = fnx, a la
que se le llama ley de probabilidad (Poisson, 1832, p. 11) es un ente matemático que
adquiere sentido en un contexto sólo a través de su integral y, por lo tanto, con su área
bajo la curva. Lo curioso es que Poisson no relaciona estas funciones con X sino con los
valores x. Es decir, x es la conexión no sólo entre A y X, sino también del contexto real
con la probabilidad, lo cual también se observa en esta cita:
154
Análisis histórico
así que el concepto de variable aleatoria no tuvo más desarrollo en él, ni tampoco se le
dio la importancia que esta aportación tenía; no fue así, en cambio, con su trabajo sobre
el teorema central del límite, como lo observa Alvarado (2007).
155
Capítulo 4. Estudio 2
introduce su notación abreviada. Cabe mencionar que en trabajos suyos sobre análisis
matemático, Tchebychef sí usaba la palabra variable. En general Tchebychef denotaba
con letras minúsculas a sus variables y distingue a las cantidades de las constantes por la
notación con las últimas letras del alfabeto para las primeras y las primeras letras para
las últimas, cosa que también hace en el cálculo de probabilidades.
La notación simbólica distinta para los valores de las variables (con subíndice)
que para las variables (la misma letra, pero sin subíndice) indican que Tchebychef ya
distinguía entre los valores que puede tomar una variable y la variable misma. Gracias a
esa distinción, escribió de manera breve las esperanzas matemáticas4 de las variables
que estaba manejando, pero también marca una diferencia no explícita entre los sucesos
y el valor de la variable. En algunos de sus trabajos, sin embargo, no hace la distinción
en su notación entre valor de una variable y la variable misma, aunque
conceptualmente sí se distinguen. Esto se nota en esta otra cita:
Si las posibilidades del suceso E en μ pruebas consecutivas son p1, p2, p3,…, pμ y que su
suma es S, la probabilidad de que en μ pruebas el número de repeticiones del suceso E
suceda menos de m veces y más de n, superará, para m más grande que S+1 y para n
más pequeño que S-1, el valor de la expresión:
1 1
1
2 2
4
Fischer (2011) indica que la idea de Poisson de introducir la función X y la «cosa» A, fue tomada de un
texto de Carl Friedrich Haubert sobre teoría de valores medios, escrito en 1830. Esto es algo que no
pudimos comprobar, pero tenemos la certeza de que la introducción del uso de la variable aleatoria estuvo
también fuertemente ligada a la necesidad de distinguir los valores de la variable aleatoria del suceso en el
cálculo de las esperanzas matemáticas de las variables, como se observa en Tchebychef.
156
Análisis histórico
157
Capítulo 4. Estudio 2
mismo, que no indica si las variables x ó u son discretas o continuas, pero por el trato
matemático se deduce que son continuas.
Los trabajos de Tchebychef tuvieron algunas imprecisiones por lo que algunos
de sus contemporáneos, los consideraron faltos de rigor. Una de las principales
objeciones era su uso intuitivo de cantidades infinitamente pequeñas o infinitamente
grandes. Frecuentemente pasó de resultados en variable discreta a variable continua sin
más explicaciones y en algunas ocasiones manejó un dominio en todos los reales para
una variable que había definido acotada entre ciertos valores. Tampoco especificó la
condición de independencia de las variables en su demostración del teorema central del
límite. Autores anteriores a él hacían explícita esa condición, por lo que se prestó a
pensar que Tchebychef asumía la independencia como una característica de las
variables aleatorias (Fischer, 2011). Sin embargo, Maistrov (1974) y Fischer (2011) lo
consideran el primero en hacer uso de la noción de variable aleatoria con un carácter
matemático. Además, la primacía de una versión más general del teorema central del
límite, sigue recayendo sobre él, junto con uno de sus más cercanos discípulos, Andrei
Markov, quien continuó su trabajo para establecer en 1908 una demostración más
rigurosa basándose en su mismo método (Alvarado, 2007; Fischer, 2011).
Markov distinguió entre variables independientes y dependientes y extendió los
teoremas límite de probabilidad a la suma de variables aleatorias conectadas en cadena.
Por tanto, fue más específico en el concepto ideado de variable ideado por Tchebychef,
lo que muestra que en probabilidad se comienzan a desligar del concepto de cantidades
variables usado en cálculo. En la siguiente cita, se puede observar esta aportación al
desarrollo de la variable aleatoria:
158
Análisis histórico
5
A esto es a lo que se refiere Fischer (2011) cuando habla de la vaguedad de los argumentos de
Liapounoff para justificar la generalización de sus resultados.
159
Capítulo 4. Estudio 2
Sea x1, x2, x3,… una serie indefinida de variables independientes reales, cuyos valores
son debidos al azar. Designando por α1, α2, α3,…, a1, a2, a3,…, d1, d2, d3,…, a las
esperanzas matemáticas respectivas de x1, x2,…, (x1- α1)2, (x2- α2)2,…, |x1- α1|2+δ, |x2-
α2|2+δ,…, donde δ es un número positivo cualquiera, habrá la proposición siguiente:
«Todas las veces que la existencia de los valores fijos de δ hagan que la siguiente
relación:
…
…
tienda a cero cuando n crece indefinidamente6, la probabilidad de la desigualdad
⋯
2 ⋯
donde z1 y z2 > z1, son dos números dados cualquiera, y para n = ∞, tenderá hacia el
límite de:
1 z2
2
e z dz
z1
Y lo hará uniformemente para todos los valores de z1 y z2». (Liapounoff, 1901b, pp.
814-815).
El teorema del que aquí se trata, se relaciona con la conocida fórmula de Laplace y
Poisson, que sirve para que la probabilidad aproximada de la de la suma de un gran
número de variables independientes sometidas al azar, esté contenida entre ciertos
límites. Según el teorema en cuestión, esta fórmula dará el límite hacia el que tiende la
probabilidad cuando el número de variables aumente indefinidamente. (Liapounoff,
1901a, p. 126).
6
A este requisito se le conoce como Condición de Liapounoff.
160
Análisis histórico
161
Capítulo 4. Estudio 2
Más aún, el término Error Probable es absurdo cuando lo aplicamos a los temas ahora
tratados, tales como estatura, color de los ojos, facultades artísticas o enfermedades. Por
lo tanto, usualmente, hablaré de Desviación Probable. (Galton, 1889, p. 58).
162
Análisis histórico
… [los valores] no están derivados para nada de observaciones, sino de las bien
conocidas tablas de la «Probabilidad Integral» en la forma en que los matemáticos lo
hicieron fácilmente comprensible comparando las Tablas 4 a 8, inclusive. No hace falta
recordarle al lector que la Ley del Error en la cual estos valores de la Normal están
basados, fueron extraídos del uso de los astrónomos y otros quienes están preocupados
con extremo cuidado de su medida. (Galton, 1889, p. 54).
163
Capítulo 4. Estudio 2
164
A
Análisis histtórico
7
Galtton empleó la palabra gradoos, refiriéndosse a grados cenntesimales, paara aludir a la frecuencia rellativa
acumuulada dada en n porcentaje. También
T empleó la palabra percentil
p tal cuál
c se usa acttualmente: parra
denotar el valor de la variable coorrespondientee a un determiinado porcentaaje acumuladoo (es decir a unu
determminado grado).
8
Encoontramos alguunas referencias de historiaddores que atribbuyen a Galtoon el uso de laa palabra ojivaa a este
tipo dde gráficos, sin
n embargo nossotros no encoontramos la reeferencia direccta de Galton. Lo cual no
signiffica que esa attribución sea falsa,
f q el número de publicacioones de Galtonn es muy amplia.
puesto que
165
Capíítulo 4. Estuudio 2
F
Figura 4.2. Tabla
T de freccuencias acumuladas usaadas por Galtton (Galton, 1889, p. 1999).
Galton taambién trabbajó con tabblas de frecuuencias (Figura 4.2) enn las que deefinía
los inntervalos dee la variablee para podeer elaborar esos
e gráficoos porque lee proporcionnaban
faciliidad al ajuustar sus datos
d a un esquema (ojiva) y hacer inferrencias haccia la
poblaación. Sus deduccionnes sobre el comporrtamiento de
d los datoos partieroon de
distriibuciones discretas
d hassta llegar, en 1857, a una
u distribucción continu
ua muy parrecida
a la nnormal, cuyyos valores, en sus anállisis, agrupaaba en interrvalos de la forma en que
q se
obserrva en la Figura
F 4.2. Así mismo
o sus análisis sobre loos valores de las variiables
P ejemplo,, menciona que la med
contiinuas los haacía sobre inntervalos. Por diana (M) tennía la
propiiedad de quue si se conssideraba un
na medida N como una medida de la poblacióón y u
una ccantidad peequeña, entoonces «el número
n de medidas
m quee caerán enntre y
9
En ssu artículo: Gaalton, F. (19077). Grades andd deviates. Biiometrika, 5: 400-408.
4
166
Análisis histórico
Parecía evidente por observación, y se verificó en ese estudio, que existía un «índice de
correlación», o sea, una fracción, ahora llamada simplemente r, que relaciona con una
buena aproximación cada valor de desviación [de la mediana] por parte del sujeto con el
promedio de todas las desviaciones asociadas a su pariente. Entonces la aproximación
de cualquier parentesco específico puede ser hallada y expresada con un término único.
Si un individuo particular se desvía mucho, el promedio de las desviaciones de todos
sus hermanos será una fracción definida de esa cantidad; del mismo modo que los hijos,
padres, primos, etc. Cuando no hay relación alguna, r se vuelve igual a 0; cuando es tan
cercana que sujeto y pariente poseen idéntico valor, entonces, r = 1. Por lo tanto, el
valor de r en todos los casos toma valores entre los límites extremos de 0 y 1. (Galton,
1908, p. 303).
10
Como la distribución de las características estudiadas por Galton era normal, la mediana era igual o
cercana a la media, pero Galton generalmente hacía ese cálculo basándose en el percentil 50. En sus
últimos años, tomó las contribuciones de Pearson y Edgeworth e hizo uso de la media y la desviación
estándar.
167
Capítulo 4. Estudio 2
Así mismo, puesto que se esperaría que las dos generaciones tuvieran un
comportamiento estadístico similar, deduce que el promedio de las desviaciones tendría
que ser igual en ambos grupos, de lo que se desprende la relación entre la variación
entre grupos, la variación dentro de la población y el coeficiente de regresión. Lo que
hace a Galton pionero en el estudio de la estimación de las componentes de la varianza
atribuibles a causas identificables, y también sentó las bases del estudio de la variable
estadística y su distribución a través del estudio de la normal. En sus palabras, esta
distribución que fue la que le permitió visualizar un «orden en el aparente caos» e
identificar la existencia de una variación «normal» debida al comportamiento natural de
los datos. Inventó una maquina llamada quincunx11, que le permitió ilustrar la
distribución normal y la diferencia entre la dispersión provocada por causas
identificables y la debida a la aleatoriedad. Así mismo en sus publicaciones aparecen las
primeras tablas de la normal estándar realizadas por W. F. Sheppard a petición de
Galton. También, su trabajo con la normal bivariada (para evaluar el comportamiento de
los errores de dos características de una misma población que varían conjuntamente),
inició el estudio del análisis multivariante actual. En sus trabajos recalcó la importancia
del estudio de la variable estadística a través del análisis de su distribución completa y
sentó bases para analizarla. Podemos darnos una idea de la importancia de los estudios
de Galton en el desarrollo sucesivo de la variable estadística los primeros renglones de
su conclusión a su estudio sobre la herencia:
11
El quincunx también es conocido como aparato de Galton. Con variaciones, fue usado por Piaget en
sus experimentos sobre la normal (ver Capítulo 2, sección 2.2).
168
Análisis histórico
probabilísticas y estadísticas, cosa que también definió uno de los derroteros principales
de la estadística matemática.
Dentro de los grandes aciertos de Pearson no solo estuvo su formación
matemática, que le permitió comprender los modernos resultados que se estaban
gestando en probabilidad y matemáticas, sino también que se interesó por aplicarlos a
diversas ciencias. A diferencia de algunos probabilistas contemporáneos a él, Pearson
basó sus novedosos métodos y propuestas sobre el estudio del azar en el análisis de
grandes bases de datos y en preguntas que surgían a partir de ellos. Esto le permitió
introducir procedimientos estadísticos para el manejo de los datos, explorar
comportamientos de las distribuciones empíricas distintas a la curva normal y proveerse
de un conjunto de herramientas estadísticas matemáticas para examinar las gráficas12 de
las distribuciones empíricas basándose en el método de momentos, como la variación (a
través de la desviación estándar), el sesgo y la curtosis (Magnello, 2009).
A través de Weldon y por los trabajos de Galton, Pearson se interesó por el
desarrollo de métodos matemáticos para el estudio de los procesos de herencia y
evolución. Ente 1893 y 1912 escribió diversos artículos con el primer título de
Mathematical Contributions to the Theory of Evolution en donde describió sus
contribuciones al análisis de regresión, el coeficiente de correlación y las pruebas para
la determinación de la bondad de ajuste de las curvas de las frecuencias observadas (Chi
cuadrada), conceptos que desarrolló ampliamente, contribuyendo así al estudio de la
variable estadística. Estudió diversas bases de datos provistas por Galton o Weldon para
establecer una relación entre las distribuciones de los datos y las distribuciones teóricas,
haciendo explícita la diferencia entre parámetros (de las distribuciones de las variables
aleatorias) y los resúmenes estadísticos (de las variables estadísticas obtenidas a partir
de los datos). También retomó el método de momentos13 ideando por Tchebychef y
propició la estimación de los momentos poblacionales a partir de los momentos
muestrales. Así por ejemplo reconoció la importancia de la media y de la desviación
estándar14 para caracterizar las distribuciones de una variable estadística o aleatoria y las
empleó para una mejor caracterización del comportamiento de las variables aleatorias a
partir de las estadísticas.
12
Pearson fue el que le dio el nombre de histograma al gráfico de los datos más empleado actualmente.
13
Pearson fue el que tomó el nombre de momento de la física y lo empleó en un sentido estadístico
cuando calculó la media de la variable estadística como el centro de gravedad de la curva de las
frecuencias observadas y se dio cuenta que podría calcular otros momentos (Pearson, 1894 y 1902).
14
Fue Karl Pearson también quien definió la desviación estándar como la raíz cuadrada del segundo
momento, y a partir del concepto de error medio de Gauss, y la simbolizó con la letra σ (Pearson,
1894).También distinguió simbólicamente la desviación estándar muestral con la letra s.
169
Capítulo 4. Estudio 2
15
Algunos autores adjudican al geodesta alemán F. R. Helmert haber usado la distribución χ2 antes que
Karl Pearson, en 1876, sin embargo la contribución de Pearson va más allá de un solo trabajo sobre esta
distribución. Publicó innumerables artículos sobre la prueba de bondad de ajuste, lo que le permitió
mejorarla y aplicarla en diferentes situaciones, así como hacer tablas de χ2.
170
Análisis histórico
16
El mérito de concebir a la distribución χ2 como una familia de funciones relacionadas con la normal,
fue de Ronald Fisher.
171
Capítulo 4. Estudio 2
distribución de variables estadísticas de las que sólo se podían obtener pocos datos a
través de una distribución que, en los grandes números, tendía a la N (0,1) y a la que
posteriormente se le denominaría t de Student y en donde las probabilidades son
medidas desde la media de la población en términos de la desviación estándar de la
muestra. Gosset fue pionero en los análisis de bases de datos que no fueran muy
grandes.
Por otro lado, desde sus primeras publicaciones17, Ronald Fisher se vio atraído
por la búsqueda de un criterio absoluto (la futura máxima verosimilitud) para conocer
los rasgos de una distribución teórica a partir de un conjunto de datos. Se interesó en los
trabajos de Pearson y los usó para sustentar y ampliar la teoría mendeliana sobre la
herencia. Esto supuso una vinculación entre las dos líneas teóricas sobre la herencia de
principios del siglo XX: la mendeliana y la darwiniana e impulsó nuevos métodos en
biometría y estadística. En Fisher (1918), sentó las bases de la genética biométrica e
introdujo la descomposición de la varianza en los modelos lineales debida a diferentes
fuentes de variabilidad, lo que lo llevó a proponer métodos de análisis mejores que los
de correlación.
En 1919 Fisher fue contratado para analizar una serie de datos acumulados en la
Estación Experimental de Rothamsted. Ahí tuvo acceso a una serie de estudios
agronómicos a partir de los cuáles desarrolló el análisis de la varianza como un nuevo
enfoque del diseño de experimentos, al tiempo que, de manera paralela, continuó sus
estudios sobre estadística teórica y genética dentro de la biometría. Esto le permitió
generar conocimiento estadístico para sus propuestas de diseño de experimentos, pero
también se ocupó de teorizar sobre la estimación y la inferencia estadísticas. En 1925
describió, en su artículo Theory of statistical estimation18, una nueva teoría de
estimación sustentada en la máxima verosimilitud como una forma eficiente de extraer
información de los datos basada en los trabajos de Daniel Bernoulli. Y en Fisher (1930),
siempre preocupado por mantener una visión frecuencial de la probabilidad, desarrolló
un método inferencial basado en la probabilidad «fiducial»19 con el que propuso
determinar la frecuencia con que el valor verdadero de un parámetro toma un valor
determinado a partir de los datos observados como una medida de la certeza de la
aproximación del estadístico (medida de muestra) al parámetro (medida de población).
La inferencia fiducial trata de evitar las probabilidades a priori de las hipótesis (como la
17
On an absolute criterion for fitting frequency curves, publicado en Messenger of mathematics, 41: 155-
160 (1912).
18
Publicado en Proceedings of the Cambridge Philosophical Society, 22: 700-725 (1925).
19
La palabra «fiducial» propuesta por Fisher, que se deriva de fiduciary y cuyas raíces latinas
(fiduciaries o fides) significan en confianza o fe, se refiere a una relación ética de confianza entre dos o
más partes. Otra acepción de la palabra está relacionada con un punto de referencia o medida.
172
Análisis histórico
20
The Design of Experiments, 8 editions, 1935 /37 /42 /47 /49 /51 /60 /66, Edinburgh: Oliver & Boyd.
173
Capítulo 4. Estudio 2
400). En 1928, publicaron sus primeros resultados en un artículo titulado On the Use
and Interpretation of Certain Test Criteria for Purposes of Statistical Inference. Este
artículo ya contenía los principales conceptos de su teoría de hipótesis, tales como los
dos tipos de errores, la idea de potencia de una prueba, la distinción entre hipótesis
simple y compuesta, pero estaba enteramente basada en la razón de la verosimilitud de
las hipótesis, cosa que con lo que Neyman no se sentía satisfecho. En 1930 idearon un
nuevo enfoque maximizando la potencia de la prueba suponiendo cierta la hipótesis y
con un valor preasignado (el nivel de la prueba) para la probabilidad de rechazo. En
1933 publicaron sus resultados en el artículo On the Problem of the Most Efficient Tests
of Statistical Hypotheses21, en el que describieron el fundamento de las pruebas de
hipótesis más usadas actualmente, conocido como el Lema de Neyman-Pearson. De
acuerdo con Lehmann (1994), ellos lograron plantear el problema de encontrar la mejor
prueba como un problema matemático lógicamente convincente y claramente
formulado, que uno podía, entonces, proceder a resolver (p. 401).
Neyman también abordó el problema de la teoría de estimación. Él era partidario
de la estimación de un parámetro a través de un intervalo, no estaba de acuerdo en los
enfoques en los que el parámetro era estimado por un único número, pero tampoco
congeniaba con la idea bayesiana de que el parámetro era aleatorio (Lehmann, 1994).
En 1933 publicó por primera vez una versión de su teoría con el título de On the two
different aspects of the representative method22 y con ella inició la teoría moderna de
intervalos de confianza. Neyman descompuso el problema de la estimación en una parte
práctica y otra teórica. La parte práctica se refiere al cálculo que se necesita realizar con
los datos obtenidos durante el muestreo para estimar el parámetro. La parte teórica
(precisión de dicha estimación) la resuelve en forma probabilística utilizando el teorema
central del límite para proponer como solución el intervalo de confianza, como un
intervalo de valores aunado a un coeficiente de confianza que mide la probabilidad
frecuencial de la proporción de intervalos calculados en muestras sucesivas del mismo
tamaño contengan al parámetro (Olivo, 2008). Esta formulación estableció una
equivalencia entre intervalos de confianza y familias de pruebas de hipótesis e hizo
posible que la prueba de hipótesis formulada en 1933 fuera considerada teoría de
estimación (Lehmann, 1994).
21
Publicado en: Philosophical Transactions of the Royal Society of London. Series A, 231, (1933), pp.
289-337.
22
Aparecido en el volumen 97 del Journal of the Royal Statistical Society, en 1934, 558-625.
174
Análisis histórico
23
La referencia más antigua que encontramos a la definición de variable estadística está en Ríos (1967),
aunque ello no implica que no haya sido definida o usada anteriormente. En cambio, encontramos grandes
cantidades de libros que la definen, sobre todo de las últimas décadas.
175
Capítulo 4. Estudio 2
176
Análisis histórico
177
Capítulo 4. Estudio 2
suma E ( x ) a
q
q P ( Aq ) es llamada esperanza matemática de la variable x. La teoría
de las variables aleatorias será desarrollada en los capítulos III y IV. No nos limitaremos
allí simplemente a aquellas variables aleatorias que pueden asumir solamente un
número finito de valores diferentes (Kolmogorov, 1956/1933, p. 12).
178
Análisis histórico
DEFINICIÓN. Una función de valor real x , definida sobre el conjunto básico E, es
llamada una variable aleatoria si para cada elección de un número real a, el conjunto
x a de todos los para los cuales la desigualdad x a es verdadera, pertenece al
sistema de conjuntos .
Esta función x mapea el conjunto básico E en el conjunto R1 de todos los números
reales. Esta función determina, como en §1, un campo (x) de un subconjunto de los
conjuntos de R1. Podemos formular nuestra definición de variable aleatoria de esta
manera: Una función real x es una variable aleatoria si y solo si (x) contiene todos
los intervalos de la forma (-∞, a).
Ya que (x) es un campo, entonces junto con los intervalos (-∞, a), contiene todas las
sumas finitas posibles de los intervalos abiertos por la derecha [a, b). Si nuestro campo
de probabilidad es un campo de Borel, entonces y (x) son campos de Borel; por lo
tanto, en este caso (x) contiene todos los conjuntos de Borel de R1 (Kolmogorov,
1956/1933, p. 22).
Sea E una colección elementos , , ,... , los cuales llamaremos sucesos elementales,
y un conjunto de subconjuntos de E; los elementos del conjunto serán llamados
sucesos aleatorios.
I. es un campo de conjuntos.
II. contiene el conjunto E.
III. Para cada conjunto A en es asignado un número real no-negativo P(A).
Este número P(A) es llamado la probabilidad del suceso A.
179
Capítulo 4. Estudio 2
Para construir un campo de probabilidad, con el campo dado es suficiente definir una
función de conjunto arbitraria no negativa completamente aditiva P(A) sobre tal que
satisfaga la condición P(E) = 1. Como es bien sabido, tal función es únicamente
determinada por sus valores:
∞;
Para los intervalos especiales: ∞; . La función F(x) es llamada la función de
distribución de ξ. (Kolmogorov, 1956/1933, pp. 18-19).
180
Análisis histórico
más importante caso, el campo de Borel de la probabilidad P(x) está definida para todos
los conjuntos de Borel en R1. (Kolmogorov, 1956/1933, p. 23).
181
Capítulo 4. Estudio 2
(3.1) { : X ( ) x} A
(3.2) { : X ( ) B} A
24
Nota del autor: La clase de los conjuntos boreleanos en la recta es la mínima -álgebra de conjuntos
que contiene a todos los intervalos.
182
Análisis histórico
) en cuyos subconjuntos está definida una función P , que asigna a cada conjunto
boreliano de números reales E (que también se llama suceso) un número real no
negativo, denotado por PE , de acuerdo con los axiomas siguientes:
183
Capítulo 4. Estudio 2
Una variable aleatoria es, entonces, una función definida con base en el resultado de un
fenómeno aleatorio; consecuentemente, el valor de una variable aleatoria es un
fenómeno aleatorio y es, en efecto, un fenómeno aleatorio con resultados numéricos. De
manera análoga podemos interpretar todo fenómeno aleatorio con resultados numéricos
como el valor de una variable aleatoria X; en particular la variable aleatoria definida
sobre la línea real, para todo número real, x es X(x) = x. (Parzen, 1971, p. 300)
184
Análisis histórico
Aunque por definición una variable aleatoria X es una función sobre un espacio de
probabilidades, en la teoría de probabilidades nos preocupamos raras veces de la forma
funcional de X, puesto que no nos interesa calcular el valor de X(s) que la función X
asume de algún elemento individual s del espacio de descripciones muestrales S, sobre
el cual se ha definido X. Más bien nos interesa la probabilidad de que un valor
observado de la variable aleatoria X pertenezca a un conjunto dado B. Nos interesa una
variable aleatoria en la medida en que es un mecanismo que da lugar a un fenómeno
aleatorio con resultados numéricos, y las preguntas que hagamos acerca de una variable
aleatoria X serán precisamente las mismas que nos sirvieron para estudiar fenómenos
aleatorios con resultados numéricos. (Parzen, 1971, p. 302).
Uno de los tropiezos de los estudiantes con el concepto de variable aleatoria consiste en
que los objetos que son variables aleatorias no están siempre definidos de tal manera
que ello resalte explícitamente. Sin embargo, […] hay que aprender a reconocer y
formular matemáticamente como funciones los objetos descritos verbalmente que sean
variables aleatorias. (Parzen, 1971, p. 300).
185
Capítulo 4. Estudio 2
…para cualquier fenómeno aleatorio con resultados numéricos, existe una función de
punto, llamada función de distribución, que es suficiente para determinar la función de
probabilidades, en el sentido de que ésta puede reconstruirse a partir de la primera. Así
pues, la función de distribución constituye una función de punto que contiene toda la
información necesaria para describir las propiedades probabilísticas del fenómeno
aleatorio. Por consiguiente, para estudiar las propiedades generales con resultados
numéricos, sin tener que restringirnos a aquellos cuyas funciones de probabilidades se
han especificado, ya sea por una función de densidad o una función de masa de
probabilidades, basta con estudiar las propiedades generales de las funciones de
distribución. (Parzen, 1971, p. 191).
186
Análisis histórico
partir de múltiples aplicaciones, tanto matemáticas como extra matemáticas, sin que se
percibiera la necesidad de definirla hasta que se requirió formalizar la herramienta
probabilística. Para construir un sistema axiomático coherente en probabilidad (formular
y demostrar teoremas, como el central del límite y la ley de los grandes números) se
requería la conceptualización explícita de una variable que difería de la algebraica en
diversos sentidos, pero sobre todo en su sentido funcional. Había que definir un objeto
matemático que permitiera establecer funciones reales a partir de funciones de conjunto.
Esto hizo que los probabilistas estudiaran la teoría de la medida e integración antes de
Lebesgue (Doob, 1976).
Sin embargo, antes de la necesidad del surgimiento de la axiomatización de la
probabilidad y a lo largo de mucho tiempo, se presentaron manifestaciones sutiles del
requerimiento de un objeto matemático de la naturaleza de la variable aleatoria.
También, por otro lado, los estadísticos necesitaron fundamentar algunas de sus
propuestas de solución a problemas más prácticos en resultados probabilísticos. Esto
hizo que de manera paralela y retroalimentándose mutuamente, la variable aleatoria y la
estadística fueran trabajadas en ambos campos, el probabilístico y el estadístico, hasta
conformarlas teóricamente y diferenciarlas y relacionarlas explícitamente.
Así, a lo largo de este estudio histórico se ha visto que la conceptualización de la
variable aleatoria deviene muy lentamente a través de dos caminos diferentes, que se
entrecruzaron una y otra vez para complementarse mutuamente:
El surgido a partir de los análisis probabilísticos que, inicialmente
partieron de los primitivos juegos de azar y el estudio de la previsión de
apuestas, que, aunque se practicaron desde tiempos remotos, sólo se
estudiaron desde un punto de vista probabilístico a partir del siglo XVII.
Este tipo de estudios paulatinamente se fue despegando de sus aplicaciones
hasta lograr la conformación de una teoría probabilística en el primer tercio
del siglo XX. El principal interés estaba en la formulación de un sustento
matemático que diera fundamento a la ciencia del azar basándose en el rigor
y formalismo de la ciencia. Los científicos más influyentes estaban
instruidos y muy actualizados en las matemáticas y ciencias de su tiempo.
Los resultados que se desarrollaban en la creciente matemática del cálculo y
de la teoría de conjuntos tuvieron mucha influencia en la teoría de
probabilidad, pero también las necesidades de los probabilistas generaron
resultados que actualmente pertenecen y son ampliamente usados en la
matemática actual, por ejemplo en ecuaciones diferenciales, o a la teoría de
la medida, sin que, en ocasiones y desde una perspectiva teórica, guarden
187
Capítulo 4. Estudio 2
Por otro lado, también había un interés creciente por el análisis de los datos
recopilados por distintas necesidades prácticas. Los estudios estadísticos,
también muy antiguos, se comenzaron a formalizar a partir del siglo XVII
con trabajos sobre seguros de vida, estadísticas demográficas, previsión de
causas de muerte y estudios poblacionales que hicieron uso de resultados
probabilísticos en el análisis de sus datos. A su vez, las rutas del análisis de
datos generadas encontraron cada vez mayores aplicaciones y sustento a
medida que la teoría de la probabilidad se desarrollaba. Inicialmente los
problemas resueltos a través de esta vía estaban vinculados con datos
surgidos en diversos contextos prácticos, así que la definición de una
variable estadística en ellos era algo relativamente simple. El mismo
contexto indicaba la necesidad de resúmenes de datos numéricos en los que
se definía una variable numérica. Conforme el número de aplicaciones
creció, también lo hizo la necesidad de la conformación de una teoría que
fundamentara los métodos y resultados que se obtenían. Se dio paso a la
vinculación entre resultados teóricos y empíricos, es decir, al
establecimiento de un vínculo formal entre la variable estadística y la
variable aleatoria. Uno de los principales derroteros que hizo que surgiera
esta necesidad en realidad es una preocupación surgida desde los primeros
análisis de datos: la inferencia.
188
Análisis histórico
relacionaron modelos obtenidos a partir de los datos con modelos teóricos, en el caso de
Arbuthnott, con el desarrollado por Bernoulli de la binomial. Se puede decir que casi
desde su surgimiento, los modelos de distribuciones y los teoremas límite se utilizaron
con la intención de predecir el comportamiento futuro de fenómenos de tipo estadístico
y, a la inversa, los probabilistas hicieron uso de los análisis de datos para obtener y
establecer algunos de sus modelos teóricos. Las primitivas aplicaciones de los modelos
probabilistas se ampliaron a campos tales como la astronomía o física que se interesaron
por magnitudes o cantidades aleatorias25 y permitieron el desarrollo de algunos modelos
de distribuciones de probabilidad. Todos estos puntos de convergencia entre los
modelos probabilistas y el análisis de los datos proporcionaron herramientas útiles a los
estadísticos y el desarrollo de nuevas teorías a los probabilistas. Lo que, a su vez, abría
nuevas preguntas sobre la relación entre las variables aleatorias y las estadísticas.
Sin embargo, también es cierto que durante largo tiempo, el contacto entre estas
dos vías sólo fue tangencial. El desarrollo de diversas herramientas matemáticas no
hubiera sido posible si las comunidades no se hubieran centrado en sus propios
problemas, pero tampoco si no hubiera habido contacto entre ellos.
Así, a lo largo de su historia, estas dos vías dieron lugar a dos corrientes de
pensamiento que se conformaron autónomamente nutriéndose de sus mutuos análisis y
resultados, generando un proceso dialéctico, pero también con momentos de reflexión
propia, mediante los cuales se establecieron formas de razonamiento autónomas que los
conformaron como ciencias independientes, cuyo sustento en gran parte pende de la
conceptualización de las variables aleatoria y estadística y su vinculación. La historia de
las variables aleatoria y estadística es también la historia de cómo se conformaron estos
campos como ciencias a través de esas múltiples interacciones en diferentes épocas y
etapas de desarrollo. Es en el siglo XX cuando a través de la axiomatización de la
probabilidad se llegó a la definición actual de variables aleatorias de notable
complejidad. Paralelamente, en Inglaterra y Estados Unidos principalmente, se creó la
escuela biométrica que daría paso al estudio formal de la inferencia estadística, en
donde se explicita la diferencia entre las variables estadística y aleatoria, estadístico y
parámetro y se crean métodos para estimar los parámetros a partir de datos estadísticos.
Aún hoy la estadística conserva una problemática dual, en la cual, sobre todo en
el ámbito inferencial, coexisten problemas prácticos y teóricos, y a través de la cual se
produce nueva herramienta estadística y surgen nuevas formas de vincular las variables
aleatoria y estadística. Así mismo, algunas veces, en las distintas prácticas ingenieriles y
25
En esa época la variable aleatoria era vista como el resultado de fenómenos aleatorios con resultados
numéricos. Acepción influenciada por la forma en que se concebía a la variable en el ámbito determinista.
189
Capítulo 4. Estudio 2
Primera etapa
En el campo de los juegos de azar, se presume que jugadores interesados en conocer la
mejor apuesta posible, comenzaron a hacer recuentos de datos obtenidos a partir de su
constante participación en esos juegos. No se cuenta con evidencia del análisis de estos
datos, ni de los recuentos sin embargo las cartas del Duque de Toscana indican que se
tenía un manejo intuitivo de la variable estadística «la suma de las caras superiores de
tres dados» y de que se tenía conocimiento de la diferencia de aparición entre algunos
valores de la variable cuya probabilidad difería en 0,0093 (0,1157 para los valores de 9
y 12 y 0,125 para las sumas 10 y 11). Esto muestra no solo la amplitud del recuento,
sino también la existencia de análisis numéricos intuitivos y rudimentarios de la variable
estadística.
Segunda etapa
En el mismo ámbito de los juegos de azar, los jugadores comenzaron a hacer recuentos
teóricos de los resultados posibles. Algunos de ellos fueron correctos, como los casos
del descrito en el manuscrito «De Vetula» o los planteados por Cardano y Huygens, y
algunos otros erróneos e incoherentes con la experiencia aportada por la recopilación de
sus datos, como es el caso del establecido por el Duque de Toscana, quien recurrió a
Pascal y Fermat a fin de que le proporcionaran modelos adecuados. En todos los casos,
se comenzaron a asociar valores numéricos discretos a resultados de experimentos
aleatorios. No se usó el término variable, y sólo en algunos de los problemas se hace
explícita la variable para el problema en particular. El principal interés es la esperanza
matemática de la variable para determinar la apuesta justa en juegos de azar y también
la probabilidad de valores aislados para tratar de encontrar estrategias en los juegos. Se
identificaron probabilidades asociadas a todos los valores posibles de las variables
aleatorias discretas vinculadas a esos problemas e incluso se comenzaron a estudiar
algunos modelos concretos de sus distribuciones de probabilidad. Estos resultados se
190
Análisis histórico
sustentaron principalmente en el análisis teórico del espacio muestral. Los escritos que
dan cuenta de la existencia de esta etapa no tienen una inquietud académica, sino más
bien, de consejo y recomendaciones de apuesta en los juegos de azar e incluso algunos
de ellos caen en consejos morales. El libro de Huygens, sin embargo, ya tiene un
manejo más riguroso, establece conceptos y un lenguaje para explicar sus soluciones y
algunas generalizaciones.
Tercera etapa
El interés en la recolección de datos estadísticos para fines militares o políticos,
conlleva al uso intuitivo de variables estadísticas y a la determinación de su distribución
de frecuencias, inicialmente sin gran aparato matemático. Alrededor del siglo XVII, en
Inglaterra y posteriormente en otros países, se inicia un estudio más formal en que se
recogen datos estadísticos sistemáticamente y se analizan sus regularidades con el
objetivo de hacer predicciones, basadas en un uso implícito de la variable aleatoria
(Graunt, Arbuthnott, Halley, Galileo). El manejo de la media es importante, pero
Galileo Galilei también comenzó a resaltar la variación de la distribución con la
introducción del cuadrado del error medio. El proceso de modelación se establecía a
partir del análisis de datos empíricos con el uso de algunas herramientas probabilísticas
teóricas. Las variables empleadas se definían por el contexto del problema, sin embargo
también se comienza a denotar la importancia de las variables numéricas para hacer uso
de algunos resultados probabilísticos. Además se comienza el análisis empírico de la
variable continua a partir del análisis de los errores en las mediciones (Galileo).
Cuarta etapa
Se incrementa el interés en la formalización y generalización de la herramienta generada
a partir de problemas particulares. Las aportaciones teóricas esta etapa son abundantes,
pero surgieron principalmente a partir de dos líneas conductoras muy relacionadas entre
sí. Por un lado, el interés generado por las múltiples aplicaciones de los resultados
teóricos a estudios empíricos, genera cuestionamientos sobre la relación teórica entre la
probabilidad frecuencial y la obtenida a través de enfoques teóricos, lo que también
conlleva a cuestionamientos sobre la relación entre la variable aleatoria y la estadística.
Así, aparece la condición de independencia entre variables aleatorias y la ley de los
grandes números (en Ars Conjectandi de J. Bernoulli y en la Doctrina del azar de de
Moivre), así como las primeras versiones del teorema central del límite para el caso
particular de la distribución binomial. En otra línea conductora, se inicia la
aproximación a las funciones como una forma de cálculo de la probabilidad de los
191
Capítulo 4. Estudio 2
valores de la variable cuando éste les resultaba complicado, lo que conlleva a un estudio
más profundo sobre las funciones de densidad con variables continuas (Bernoulli, de
Moivre, Gauss, Laplace, Poisson) no siempre de manera consciente. Con ello se definen
las primeras operaciones entre variables aleatorias y la convergencia de sucesiones de
variables aleatorias, aunque no siempre explícitas. Se comienza el trabajo con variables
aleatorias continuas y se define la probabilidad como un diferencial, así mismo se inicia
el interés por las funciones de densidad y el cálculo de la probabilidad de intervalos de
valores de una variable aleatoria mediante integrales. Se identifican distribuciones de
probabilidad para variables aleatorias continuas, particularmente la Normal y la
Exponencial. Con ello también se definen variables aleatorias continuas implícitamente
y se comienza a denotar más fuertemente la necesidad de conceptualizar una variable
numérica vinculada al azar, así como de la función de densidad como una forma de
cálculo de la probabilidad, sin distinguirla de la función de probabilidad.
En esta etapa, los problemas reales como los errores de medición, problemas de
sobrevivencia o aplicaciones a la teoría matemática de la física molecular aplicada a los
gases se describen mediante variables (Gauss, de Moivre, Daniel Bernoulli, Laplace),
pero no se usa consistentemente el término variable; a veces se le denomina magnitud o
cualidad variable o bien, no se explícita. En todo caso, su uso se asemejaba al dado por
los matemáticos dentro del ámbito determinista en ese tiempo. Así mismo, Laplace,
principalmente, comienza a diferenciar implícitamente entre la variable y los valores
que puede tomar la variable en contextos discretos y continuos.
Quinta etapa
Aparecieron indicios explícitos de variables aleatorias asociadas a contextos y a
demostraciones. En esta etapa el principal motor de desarrollo de la variable aleatoria
fue la necesidad de establecer una variable de carácter matemático en la función de
densidad y el problema de la continuidad, que también estuviera vinculada con el
contexto probabilísta. Se observó la necesidad de una función, X que vinculara los
resultados de un contexto aleatorio con un contexto matemático en donde se le
asociaban sus probabilidades (Poisson, Tchebycheff). De manera general se
diferenciaron explícitamente los valores de la variable aleatoria y la variable en sí
misma y se comenzó a trabajar con el concepto de suceso vinculado con una variable en
el contexto matemático, así mismo se trabajó ampliamente con secuencias de variables
aleatorias y se profundizó en el problema de la continuidad en el cálculo de
probabilidades, cosa que conllevó a diferenciar entre el trabajo con variables continuas
y discretas (Poisson, Tchebychev, Markov, Liapounoff). También el cálculo de
192
Análisis histórico
Sexta etapa
En la misma época (finales del siglo XIX y principios del XX), en otros ámbitos, las
inferencias informales comenzaron a tener auge a partir de la difusión de la distribución
normal como un modelo apropiado para muchos contextos en ciencias sociales,
biológicas y de la herencia. Estas aplicaciones y formas de análisis atrajeron la mente de
muchos científicos con un nivel de conocimientos amplio en su especialidad, pero que
no eran matemáticos o estaban actualizados en los últimos resultados de los
probabilistas, por lo tanto, sus resultados no tenían la solidez de una teoría en estadística
matemática, y, sin embargo, proporcionaron derroteros por el que la estadística pudo
desarrollarse como ciencia. La variable estadística jugó un papel primordial porque, a la
vez que era fácilmente obtenida a partir de los contextos de interés, también se resaltó
su carácter numérico para poder ser analizada y evaluada bajo el modelo de la
26
Actualmente se ha ampliado el concepto de «medida» y se definen varias escalas de medida,
incluyendo las nominales y ordinales, a las que se aplican datos estadísticos. Por tanto las variables
aleatoria y estadística podrían modelar nuevos tipos de «magnitudes» que no cumplen la condición
matemática de semi módulo.
193
Capítulo 4. Estudio 2
Séptima etapa
Esta etapa se caracteriza por el surgimiento de la variable aleatoria como objeto
matemático a partir de la necesidad de abstracción para la definición de una teoría, pero
también por el surgimiento de ampliaciones que nacieron a partir de su primera
definición formal. Fréchet y Kolmogorov conceptualizaron a la variable aleatoria
generalizada, que puede no tener detrás una magnitud, en el sentido físico. Con base en
la teoría de conjuntos y de la medida, se formalizó la definición de variable aleatoria
como una función medible de valor real definida en un espacio de probabilidad. Esto
contribuyó a que se multiplicaran las aportaciones a la teoría de las variables aleatorias
(Levy, Feller, Meyer, Petrov), enriqueciéndola y haciéndola más compleja.
194
Análisis histórico
Octava etapa
Casi de manera simultánea a la formalización de la probabilidad, también la estadística
inicia con tal proceso. A partir del trabajo de Galton, Karl Pearson se preocupó por
fundamentar, perfeccionar y ampliar sus métodos haciendo uso de los resultados de los
matemáticos y probabilistas, pero también generando objetos matemáticos propios. Las
herramientas estadísticas para el análisis de datos se multiplicaron, fundamentándolo y
haciéndolo más potente. La inferencia se convierte en uno de los derroteros que hacen
que la estadística formule sus propios métodos y procesos. Surge la teoría del contraste
de hipótesis e intervalos de confianza, así como el diseño experimental (Pearson, Karl
Fisher, Egon Pearson, Neyman). También se ocupan de la teoría del muestreo y la
necesidad de controlar el tamaño de muestra. Aparecen distribuciones que
explícitamente se ocupaban de la inferencia, en particular la χ2 y la t de Student. Al
mismo tiempo, las aplicaciones de la inferencia en agronomía y biometría se extienden
progresivamente a todos los campos científicos. En esta época se vinculan explícita y
formalmente las variables estadística y aleatoria mediante los problemas de estimación,
así mismo, la necesitad del estudio de las distribuciones muestrales incide en el
desarrollo de la teoría de variables aleatorias, particularmente en el teorema central del
límite y las variables aleatorias multidimensionales.
195
Capítulo 4. Estudio 2
3. Análisis teóricos que justifican resultados surgidos a partir del análisis de datos y
que amplían el estudio de la variable aleatoria.
196
Análisis histórico
197
Capítulo 4. Estudio 2
A lo largo de la historia las dos vías históricas también tuvieron largos periodos
de reflexión propia, a través de los cuáles la interacción entre ellas fue casi nula. El
desarrollo de la teoría de Laplace o la larga discusión que dio lugar a la comprobación
del teorema central del límite (que tendría, sin embargo, una fuerte repercusión en la
estadística) son momentos en los que la teoría prevalece sobre la práctica. Así mismo,
en el análisis de grandes recuentos de datos a través de elementos meramente
descriptivos, y sin embargo, con fines inferenciales, permaneció mucho tiempo sin la
influencia de herramienta teórica que permitiera análisis más potentes.
198
Análisis histórico
27
El otro concepto es el de independencia, muy vinculado al desarrollo de la variable aleatoria.
199
Capítulo 4. Estudio 2
fueron densas por la aparición, no sólo de nuevos objetos matemáticos, sino también de
nuevos significados para objetos que habían surgido desde tiempos antiguos, en un
tiempo relativamente corto. Así, el primer contacto del estudiante con el concepto
debiera partir de aplicaciones concretas y de manera intuitiva. La esperanza matemática
podría ser un elemento que contribuyera a su manejo. Una etapa intermedia podría
incluir un uso explícito, pero informal, en el que al estudiante se le pusiera en contacto
con la relación entre el espacio muestral y la necesidad de una variable numérica. Un
uso informal también podría provenir de problemas en donde la variable aleatoria se
definiera a partir de fenómenos aleatorios con resultado numérico en los que ya se
estableciera la función de densidad.
El largo tiempo que la humanidad ha requerido para la conceptualización de las
variables aleatoria y estadística tiene varios motivos. Uno de ellos es el bagaje
matemático tan fuerte que ha sido necesario para su formalización, pero también la
aparente simplicidad de su manejo. Durante muchos siglos ambas variables fueron
tratadas sin la formalidad con las que actualmente las conocemos (su constitución tiene
menos de un siglo), sin que ello impidiera que surgiera una solución a los problemas
que se pretendían resolver, pero una mejor solución implicaba herramienta matemática
que debía ser generada o formalizada. La evolución de la variable aleatoria ha
demandado nuevos objetos matemáticos que, en diversas ocasiones, fueron generados a
partir del interés en ella, algunos de los cuales actualmente no forman parte del sistema
axiomático de la probabilidad o de la estadística, sino de otras ramas de la matemática,
como la función generatriz o algunas soluciones a ecuaciones diferenciales, y que, en
ocasiones, son necesarios para la comprensión de ciertos niveles de formalización de la
variable aleatoria o estadística. En otras situaciones, los elementos matemáticos
necesarios surgieron en otras ramas de la matemática, como el cálculo infinitesimal,
pero los significados de algunos de ellos tuvieron que ampliarse o transformarse para
que pudieran formar parte del sistema axiomático de la probabilidad, como la
conceptualización misma de variable.
Esto implica que es necesario identificar el tipo de herramienta matemática que
el estudiante requiere para la comprensión del concepto en los distintos niveles. Hay
objetos matemáticos que hay que esperar a que otros cursos de matemáticas se los
proporcionen. Aun así, la historia muestra que la utilidad de la herramienta matemática
y los procesos de modelación requieren ser resignificados en un ambiente de
incertidumbre puesto que no tienen los mismos significados que en la matemática
determinista.
200
Análisis histórico
Otro resultado que salta a la vista en este estudio histórico es que el crecimiento
de la probabilidad y estadística en gran parte es debido a la interacción que se ha dado
entre los datos y la teoría para la conformación de ambas variables en diferentes
momentos de la historia. Ya vimos que este contacto entre ellas no se presentó en una
sola etapa histórica, sino que se dio en diversos momentos y bajo una diversidad de
formas (apartado 7.2). Además muestra que el estudio de la variable aleatoria no es
exclusivo de la probabilidad, sino también de la estadística, puesto que las dos vías de
surgimiento de este concepto, fueron las que dieron lugar a mayores aplicaciones de él.
Así, no es recomendable una enseñanza de acuerdo a un sistema axiomático deductivo
sino más bien de un constante contacto entre la teoría y los datos en diversos momentos
del currículo, que quizá podrían coincidir con los momentos históricos en los que se
dieron, pero mediando los lapsos de tiempo para que la interacción sea más constante,
sin relativamente largos periodos de tiempo en los que no se estableció contacto.
201
Capítulo 4. Estudio 2
202
Análisis histórico
203
204
Capítulo 5.
Estudio 3.
Diseño e implementación
de una entrevista clínica
ÍNDICE DE CAPÍTULO
1. Introducción, 207
2. Preliminares, 208
2.1. Contexto escolar, 208
2.2. La variable aleatoria en los cursos de estadística del ITESM, 209
3. Objetivos del estudio, 210
4. Hipótesis de estudio, 211
5. El protocolo de investigación, 213
5.1. El problema, 214
5.2. Análisis del problema como situación de exploración, 216
5.3. Respuestas y soluciones esperadas en el protocolo, 219
6. Objetos de análisis en la entrevista, 224
6.1. Aleatoriedad, 224
6.2. Probabilidad, 226
6.3. Variable aleatoria, 227
6.4. Solución del problema, 229
7. Implementación, 230
8. Análisis de los resultados, 231
8.1. Objeto de análisis: Aleatoriedad, 232
8.1.1. Aleatoriedad en la situación problema, 232
8.1.2. Relación establecida entre aleatoriedad y probabilidad, 234
8.1.3. Discusión de los resultados obtenidos en el objeto
aleatoriedad, 235
8.2. Objeto de análisis: Probabilidad, 236
8.2.1. La probabilidad en el espacio muestral, 237
8.2.2. La distribución de probabilidad como función, 240
8.2.3. Discusión de los resultados obtenidos en el objeto
probabilidad, 248
8.3. Objeto de análisis: Variable aleatoria, 252
8.3.1. La variable aleatoria en el problema, 253
8.3.2. La variable aleatoria como función, 254
8.3.3. La variable aleatoria y su distribución de probabilidad, 256
8.3.4. Lenguaje utilizado, 261
8.3.5. Discusión de los resultados obtenidos en el objeto variable
aleatoria, 263
8.4. Objeto de análisis: Solución del problema, 266
8.4.1. Estrategias y recursos en la solución del problema, 266
8.4.2. Discusión de los resultados obtenidos en el objeto solución
del problema, 268
9. Conclusiones del capítulo, 271
9.1. Confrontación de los resultados con las hipótesis, 272
9.2. Idoneidad de la actividad propuesta, 277
1. Introducción
Uno de los objetivos de nuestro trabajo es llevar a cabo análisis cognitivos de la
comprensión intuitiva que muestran algunos estudiantes universitarios sobre la variable
aleatoria y otros objetos matemáticos relacionados con ella en la resolución de
problemas y proyectos que involucren a la variable aleatoria en situación de
modelación. En este capítulo nos concentraremos en la descripción de la
fundamentación, diseño, análisis y conclusiones obtenidos a propósito de la entrevista
clínica, considerada una herramienta metodológica que proporciona información sobre
los procesos cognitivos de los estudiantes. La intención es obtener elementos que
permitan discernir sobre la forma en que los estudiantes se aproximan al objeto de
estudio, así como elementos que nos acerquen a su análisis por medio de los
argumentos, razonamientos, procedimientos y resultados que los estudiantes usen para
resolver un problema en donde se ponga en juego a la variable aleatoria.
Este capítulo se inicia con la planeación de la entrevista clínica, que incluye
todos los elementos considerados en el diseño del protocolo de investigación. Se
comienza con los preliminares de la entrevista clínica (contexto escolar de la
investigación y conocimientos esperados por la institución). Formularemos nuestros
objetivos y algunas hipótesis generales sobre las posibles dificultades que surgen en
estudiantes universitarios de los primeros semestres cuando abordan un problema
estocástico relacionado con la idea de variable aleatoria, así como el atisbo de algunas
trayectorias que siguen al querer resolver la actividad.
El protocolo del diseño de investigación se concreta en una actividad que, junto
con las hipótesis, establecerán las bases del análisis de la entrevista. También se
describe y analiza el problema base de la actividad, resaltando la forma en que se
manifiesta la variable aleatoria en él. La parte central del capítulo corresponde a la
presentación y análisis de los resultados obtenidos que se organiza de acuerdo a los
objetos de análisis. Finalmente, en las conclusiones, se confrontan los resultados
obtenidos con las hipótesis de investigación y se analiza la idoneidad de la actividad
planteada como base del estudio. Esperamos que, del análisis de esos resultados, se
obtengan algunas líneas que permitan profundizar en las vertientes epistemológicas,
cognitivas y didácticas en futuras investigaciones sobre la variable aleatoria.
207
Capítulo 5. Estudio 3
2. Preliminares
La entrevista clínica se realizó en el Campus Monterrey del ITESM, México, con
estudiantes universitarios de Ciencias sociales recién ingresados a la institución. En este
apartado hacemos explícito el contexto escolar de nuestra investigación, así como la
profundización pretendida del objeto de estudio basándonos tanto en los análisis
epistemológicos realizados anteriormente (Capítulos 3 y 4) como en la experiencia de
los profesores participantes dentro de la institución.
208
Entrevista clínica
209
Capítulo 5. Estudio 3
Intervalo [0,1]
Experimento aleatorio
P(A)
VARIABLE
ALEATORIA X
Inversa de
Variable aleatoria X‐1
Figura 5.1. Esquema simplificado la noción de variable aleatoria esperada por los
estudiantes que egresan del nivel universitario.
210
Entrevista clínica
el que surge la necesidad de hacer uso del objeto matemático de estudio. Definimos los
objetivos de esta entrevista clínica como sigue:
En primer lugar deseamos describir, en los estudiantes universitarios que
inician un curso de estadística en ciencias sociales, los procesos de solución de la
actividad propuesta cuando trabajan sin la ayuda directa del profesor. Queremos
identificar las dificultades por las que atraviesan, y qué conocimientos, previos a la
idea de variable aleatoria utilizan. También nos interesa explorar aquellos que los
estudiantes desarrollan sobre nuestro objeto de investigación al resolver una situación
problema en donde se pone en juego la variable aleatoria.
Nos preguntamos también por la idoneidad de la situación planteada, en cuanto
permita que a partir de ella los alumnos desarrollen la idea de variable aleatoria y sea
una situación motivadora.
211
Capítulo 5. Estudio 3
212
Entrevista clínica
5. El protocolo de investigación
En este apartado describiremos y analizaremos el protocolo de la investigación
como guía que orienta y dirige la entrevista. En esta investigación se diseñó en forma de
cuestionario que girara alrededor de un problema, de manera tal que la discusión se
suscitara a partir de la resolución del problema. Las preguntas, planeadas y definidas
por los objetos de análisis y las hipótesis descritas, profundizan en las concepciones de
los estudiantes acerca de los objetos matemáticos que emplean y en las estrategias
usadas para resolver el problema.
En las siguientes secciones, primero describiremos la estructura del protocolo y
el análisis del problema seleccionado para facilitar la comprensión de los objetos de
análisis y la forma en que se tomaron en cuenta en el protocolo.
Para realizar la exploración cognitiva se consideró apropiado tomar como base el
problema que Castillo y Gómez (1998) proponen para introducir el tema de variable
aleatoria, porque permitiría la introducción natural de los objetos matemáticos tenidos
en cuenta en el de diseño. Alrededor del problema se diseñó un cuestionario con
preguntas abiertas, que, a su vez, guía la solución del problema y conduce a los
entrevistadores en la exploración de los conocimientos de los estudiantes. La actividad
así diseñada quedó conformada por tres secciones, cada una con un objetivo específico:
PARTE I: Introducción al problema. En esta parte se introduce el problema, se
cuestiona a los estudiantes acerca de su comprensión de la probabilidad
teórica clásica (dada por la regla de Laplace); se cuestiona la relación
213
Capítulo 5. Estudio 3
5.1. El problema
El problema trabajado en la entrevista es el siguiente (Castillo y Gómez, 1998, p.120):
A raíz de los festejos del día del niño, el departamento de relaciones públicas de una
fábrica desea efectuar una rifa que beneficie a los hijos de los trabajadores. Al obrero
ganador se le premiará con boletos para que vaya al teatro con su familia completa. La
intención es que la rifa beneficie a los hijos de los trabajadores.
Así que encomiendan a la trabajadora social de la empresa que decida cuántos boletos
tiene que comprar para que se efectúe la rifa de manera exitosa, pero la empresa
pierda lo menos posible. La distribución del número del número de hijos por trabajador
se proporciona en la Tabla 5.1.
214
Entrevista clínica
Por un lado la empresa debe tener boletos suficientes para que el trabajador
ganador tenga posibilidades de llevar a toda su familia a la función de teatro.
Por otro lado, la empresa desea optimizar sus recursos. No quiere que sobren
boletos.
Podemos suponer que todos los trabajadores de la fábrica son casados, así que el
número de miembros de la familia del trabajador estará determinado por el número de
hijos que éste tenga. Así el número mínimo de miembros de una familia de esa fábrica
será 2 (la pareja) y el número máximo de miembros será 11 (9 es el número máximo de
hijos de un trabajador de esa fábrica). Los recursos gastados por la empresa estarán
dados por el número de boletos que se compren, puesto que no nos proporcionan el
precio de los boletos. Para facilitar el razonamiento del problema supondremos que
tanto los boletos de los niños como los de los adultos cuestan lo mismo.
La solución puede irse a uno o a otro extremo entre los dos criterios de decisión,
pero el objetivo es tomar en cuenta los dos criterios y crear un ambiente de
incertidumbre. Si se deja de tomar en cuenta uno de los dos criterios, las soluciones
triviales y determinísticas son las siguientes:
Se comprarían 11 boletos si se quiere asegurar que el trabajador ganador
lleve a toda su familia: dos para los papás y la cantidad máxima de hijos
posible para un trabajador de esa fábrica (9).
Se compran 2 boletos para optimizar al máximo los recursos de la empresa,
puesto que todas las familias constan de al menos dos miembros: la pareja.
Pero la empresa quiere realizar esa rifa optimizando el dinero que invertirá y al
mismo tiempo quiere quedar bien con sus trabajadores. El estar entre los dos criterios de
decisión introduce la incertidumbre y por lo tanto la necesidad de hacer uso de la
variable aleatoria y de la herramienta matemática descrita en la Figura 5.4. La
aleatoriedad se introduce en la decisión cuando relacionamos los boletos a comprar con
el número de hijos del trabajador extraído de la urna y no con el máximo o mínimo
número de hijos que tienen los trabajadores de la fábrica porque éstos últimos resultados
son fijos (deterministas). Al ubicar la decisión en un contexto de incertidumbre es
factible analizar el problema desde la teoría de la probabilidad.
Este problema forma parte de un campo de problemas en donde surge la
necesidad de tomar una decisión en una situación aleatoria con un cierto criterio. Por
ejemplo en un restaurante o en una compañía de autobuses o aviones, en donde la
decisión de cuánta comida hacer o cuántos viajes programar, el criterio es brindar un
215
Capítulo 5. Estudio 3
0 16 0,080 0,080
1 22 0,110 0,190
2 33 0,165 0,355
3 45 0,225 0,580
4 31 0,155 0,735
5 20 0,100 0,835
6 12 0,060 0,895
7 9 0,045 0,940
8 7 0,035 0,975
9 5 0,025 1,000
Hay que resaltar que el problema no tiene solución única. De acuerdo con la
tabla, la probabilidad de que el trabajador seleccionado tenga tres hijos o menos es
mayor que ½, es decir, mayor que la probabilidad de tener 4 ó más hijos. Una posible
decisión es que la trabajadora social compre 5 boletos (2 para la pareja y 3 para los
hijos), de esa manera la directiva de la empresa tendrá una probabilidad de 0,58 de que
los boletos le alcancen al trabajador premiado y de que sobren los menos posibles. Si se
quisiera aumentar la probabilidad, por ejemplo, a 70% de tener suficientes boletos,
habría que tomar un boleto más. Admitiremos como correctas cualquiera de las dos
respuestas.
Además, hay otros objetos matemáticos que aparecen en el problema y que
interesan en exploración cognitiva, como el experimento aleatorio, el espacio muestral,
la magnitud de interés, los posibles valores de la magnitud en el experimento, la
partición que define en el espacio muestral y la variable aleatoria con sus tres
componentes (dominio, regla de correspondencia y rango). Respecto a estos objetos,
216
Entrevista clínica
aparte de la comprensión que los estudiantes puedan tener, nos interesamos por el modo
en que los definan dentro del contexto del problema (ver Tabla 5.3).
217
Capítulo 5. Estudio 3
medio de transporte que usa para llegar a su trabajo. Sin embargo, en un primer
acercamiento, nos limitamos a variables cuantitativas que transforman el resultado del
experimento aleatorio en un número. La característica de interés (que en este caso es
directamente una magnitud), es la que define la partición del espacio muestral. Por
supuesto, la partición del espacio muestral y la variable aleatoria tienen que estar
vinculadas.
Resultado del
Exp aleatorio Pregunta problema
Sí
Nombre ¿Le alcanzan
del los boletos Sobran
trabajador comprados? Número de
ganador hijos del Faltan
trabajador
Define Recomendación
Experimento Característica de interés
aleatorio
Número de
SORTEO
boletos a comprar
Define el…
Participan los…
Alcance y riesgo
de la
Eventos
recomendación
Trabadores compuestos Probabilidad
de la fábrica
Trabajadores P(trabajador
Espacio con 0 hijos con 0 hijo)
organizadora
Número de hijos 0 (hijos)
que tiene cada 1 (hijo)
trabajador .
.
Regla de .
correspondencia 9 (hijos)
Valores de la
Variable aleatoria
Variable aleatoria
Figura 5.2. Representación de la relación entre los elementos teóricos vinculados con la
variable aleatoria y la solución del problema
218
Entrevista clínica
219
Capítulo 5. Estudio 3
Probabilidad 200 200 200 200 200 200 200 200 200 200
0,080 0,110 0,165 0,225 0,155 0,100 0,06 0,045 0,035 0,025
Probabilidad 0,080 0,190 0,355 0,580 0,735 0,0835 0,895 0,940 0,975 1
acumulada
220
Entrevista clínica
mayor (3,4) se acerca más al valor 3 que al 4. Por tanto todos los promedios coinciden
aproximadamente en este contexto.
c) ¿Qué tanto puedes asegurar que se ocuparan exactamente los boletos que se
compraron?
221
Capíítulo 5. Estuudio 3
aa) Represennta con unna letra laa variable dependientte y con otra
o la varriable
independ
diente y utiiliza estas letras
l para representa
ar en notacción funcionnal el
e el inciso b) de la paarte II.
resultadoo obtenido en
0.25
0.20
Probabilidad
0.15
0.10
0.05
0.00
0 1 2 3 4 5 6 7 8 9 10
Número de
d hijos
0.25
0.20
Probabilidad
0.15
0.10
0.05
0.00
0 1 2 3 4 5 6 7 8 9
Número d
de hijos
F
Figura 5.3. Graficas
G possibles de la diistribución ded probabilid
dad del númeero de hijos d
de
los trabbajadores
bb) Describee, en el conntexto del prroblema, coon tus propiias palabras la información
que propporciona laa variable dependiente
d e de la varriable indep
pendiente (en
( la
función que
q acabas de represenntar).
222
Entrevista clínica
Las respuestas pueden ser diversas, dos que consideramos correctas serían:
El valor de la probabilidad (variable dependiente) se obtiene la frecuencia
(casos favorables) correspondiente al número de hijos de interés (variable
independiente) entre 200 (casos posibles). Para conocer la frecuencia
correspondiente se recurre a la tabla dada.
También se puede obtener directamente a partir de la tabla o de la gráfica.
223
Capítulo 5. Estudio 3
6.1. Aleatoriedad
En relación a este objeto incluiremos tanto la incertidumbre, en el sentido coloquial de
la imposibilidad de predecir con exactitud por la intervención del azar, como la
aleatoriedad propiamente, como un atributo matemático establecido por la sucesión de
resultados de un experimento impredecible realizado repetida e independientemente,
224
Entrevista clínica
que posee, además, la factibilidad de poder ser analizado a través del cálculo de
probabilidades (Batanero, 2001).
La aleatoriedad quedará definida por el mismo contexto del problema, de modo
que esperamos no haya cuestionamientos a este respecto. Es de interés la percepción del
alumno sobre la aleatoriedad en la medida que esperamos que influya sobre su
comprensión de la variable aleatoria. Sin embargo no será para nosotros tan importante
la formalización que sea capaz de hacer de la aleatoriedad, como su noción intuitiva, en
el sentido de la intervención del azar, y la relación que establezca entre la incertidumbre
y su solución con la variable aleatoria. De esta forma, dentro de esta categoría nos
interesamos por dos puntos:
225
Capítulo 5. Estudio 3
6.2. Probabilidad
Dentro de este rubro la probabilidad será importante en la medida que el alumno la
relacione con la variable aleatoria, de manera que llegue a establecer y cuestionar los
componentes que definen a la distribución de probabilidad como función. Unimos a esto
una exploración de cómo intervienen los significados que asocia a la probabilidad en la
apropiación del concepto de la variable aleatoria por parte del estudiante.
La probabilidad en el espacio muestral. Se busca esclarecer la forma en que el
estudiante de manera intuitiva asigna la probabilidad.
226
Entrevista clínica
227
Capítulo 5. Estudio 3
228
Entrevista clínica
Se espera que la solución del problema pase por las etapas de solución
representadas en la Figura 5.4. En el problema se pretende vincular los objetos
matemáticos por los que nos interesamos en esta investigación, pero también que se
apliquen algunas estrategias sencillas de resolución de problemas. Así por ejemplo,
esperamos que la verificación de la propuesta a partir del cuestionamiento del riesgo y
de la visualización del alcance de la propuesta dada por los estudiantes, despierte
cuestionamientos a su modelo planteado. Esto dará pie a redefinir o afianzarse en su
propuesta basándose en argumentos matemáticos, proporcionados por las herramientas
matemáticas que ponen en juego en esas etapas: la aleatoriedad, la distribución de
probabilidad y la variable aleatoria.
229
Capítulo 5. Estudio 3
Etapas de solución Herramientas que se ponen en juego
Comprensión del Espacio muestral
fenómeno aleatorio Lo aleatorio Experimento aleatorio
Aleatoriedad
Definición de las Definición de la variable de
variables que interés
Identificación de eventos
intervienen en Identificación de casos
el problema favorables y casos posibles
Cálculo: la regla de Laplace
Interpretación de la
Cálculo e Probabilidad probabilidad de un evento
interpretación de la Relación de dependencia
probabilidad entre evento y probabilidad
Relación de dependencia
entre variable aleatoria y
Planteamiento del probabilidad
modelo Características
Distribución Función de distribución
de acumulada
probabilidad Definición de función
Valoración de la Notación
propuesta Tránsito de contextos: del
problema a lo gráfico y
tabular
Vinculación entre los eventos
Conciencia del Alcance de la y un valor numérico
riesgo decisión Como función
Variable Relación con la función de
aleatoria distribución Representación
Identificación de medidas de
centralización
Solución:
Sugerencia de decisión
7. Implementación
Se entrevistaron a dos estudiantes, Brenda y Mónica, que accedieron de manera
voluntaria y que cursaban el primer semestre de universidad en el ITESM Campus
Monterrey. Ninguna de las dos había llevado cursos de probabilidad o estadística en ese
nivel. Una de ellas, Brenda, había llevado un curso de probabilidad y estadística en el
bachillerato y la otra, no. En el curso que había tomado, Brenda llevó estadística
descriptiva y reglas de probabilidad. No conocía el término de «variable aleatoria». En
230
Entrevista clínica
231
Capítulo 5. Estudio 3
¿Por qué procesos pasa el estudiante? ¿Cómo los
justifica? ¿Percibe esta necesidad de tránsito?
Situación en la que Elementos
interviene el azar matemáticos
¿Cómo redefine la situación el estudiante?
¿Qué nuevos elementos incorpora?
232
Entrevista clínica
Mónica: Pues yo para no perderle y para no errarle, compraría dos nada más porque sí
hay familias que tienen 0 hijos, de hecho hay 16 trabajadores que tienen 0
hijos. Entonces nada mas compraría dos para que vayan él y la esposa, y ya
después si no sale, por lo menos ya tengo asegurados dos. Por eso preguntaba,
si ya tengo asegurado dos... porque dice que pierda lo menos posible. En caso
de que compre 3, y si por ejemplo sale una familia de estas, ya perdí un
boleto, ya estoy perdiendo un boleto ¿qué voy a hacer con ese boleto? Así
pienso yo. Yo compraría dos.
La aceptación a dar una solución no segura es impuesta por las condiciones del
problema: después ya no se podrán comprar boletos. En el pasaje 11 Mónica
(nuevamente) argumenta que hay una decisión que depende de la ética, que no tiene que
ver nada con matemáticas y se quejan de que el problema esté planteado así. Ella se
desespera de tener que jugar con lo incierto al no poder dar una solución más precisa y,
desde su perspectiva, más justa.
En este mismo pasaje, ellas aún se resisten a aceptar que no puedan dar una
solución con mayor seguridad, en cierto modo aceptan que no pueden controlar la
situación con una manifiesta resignación.
233
Capítulo 5. Estudio 3
Brenda: En todo caso si se está buscando que no vaya a gastar de más y si alcanzan
bueno y si no, no, pues yo estaría por 4 hijos.
Mónica: Ajá, yo también y si no alcanzan pues ya ni modo.
Profesor: Pero existirá alguna manera, ¿es ignorancia nuestra el no saber qué boleto va a
salir?
Brenda: No es algo que tú puedas controlar, es la suerte.
En el pasaje 9 ambas alumnas piensan que la mejor solución a la pregunta sobre cuántos
boletos comprar sería 5 boletos, basándose en que esto es «lo más probable», por tanto
hacen uso explícito de la idea de probabilidad. Están aplicando una concepción
laplaciana, puesto que se basan en la consideración de casos favorables y posibles y lo
vinculan con los datos de la tabla. En su recomendación usan el número de hijos que
tuviera la mayor frecuencia (la moda), apareciendo por tanto la idea de promedio y una
estimación de las diferentes probabilidades. Se introduce la condicionante de que no
pueden comprar boletos después de la rifa, entonces Mónica está de acuerdo con Brenda
en comprar 5 boletos. Seleccionan «lo más probable» porque es lo que más seguridad
les da. De alguna manera interpretan la probabilidad como una forma de medir la
incertidumbre.
Brenda: Yo compraría 5, porque de acuerdo a la tabla, hay más probabilidad de que sea
una persona con tres hijos y luego sumándole el obrero y la esposa serían 5.
Mónica: ...¡Ah! [sin escuchar a Brenda] entonces compraría 5 boletos porque la mayor
incidencia de familias es de 3 hijos, o sea, el mayor número de trabajadores
que hay por hijo es 3, o sea, las familias con 3 hijos son las que más abundan
en la empresa, entonces como 3 hijos más el papá y la mamá pues ya son 5.
234
Entrevista clínica
En resumen, del análisis anterior se puede observar cómo las estudiantes aceptan que no
es posible dar una solución certera al problema. En un principio proporcionan una de las
soluciones triviales. Hay una aceptación de la aleatoriedad en la situación puesto que
manifiestan no saber cuántos hijos tendrá el trabajador que será premiado pero no
aceptan dar una recomendación en la que no aseguren que todos los miembros del
trabajador ganador puedan asistir a la función de teatro. Fischbein, Nello y Marino
(1991) previenen en contra de estas actitudes que pueden surgir a partir de la enseñanza
de la probabilidad y que significan una incomprensión de la aleatoriedad. De acuerdo
con Konold (1989) esta actitud está vinculada con la heurística del «enfoque en el
resultado aislado» (outcome aproach) porque la necesidad por dar una respuesta
«exacta» imposibilita al estudiante a emitir un juicio basándose en un razonamiento
probabilístico.
En este caso, sin embargo, la reticencia a dar una respuesta de la que no están
seguras es sustituida por la aceptación de la aleatoriedad en la solución del problema. Al
mismo tiempo la relacionan con la probabilidad e interpretan a la probabilidad como
una medida de lo incierto, lo que les permite obtener soluciones y transitar por diversas
235
Capítulo 5. Estudio 3
¿Cómo usa el estudiante la probabilidad ¿Cómo establece el
para establecer este modelo? estudiante este tránsito?
¿Qué ideas genera la representación matemática en
el estudiante? ¿Cómo re‐contextualiza?
236
Entrevista clínica
Profesor: ¿es posible que pueda extenderse el número 200 a más valores? ¿por qué?
Mónica: No porque sólo son 200 trabajadores
Mónica: Ajá, porque [los datos] pueden estar determinados por diferentes factores por
ejemplo, esa población puede haber tenido tres hijos porque se localizaba en
México o en Estados Unidos en donde la mayoría de las personas tienen tres
hijos, pero en poblaciones de otros lugares donde el número de hijos crece por
persona, la gráfica ya no iba a ser igual…
237
Capítulo 5. Estudio 3
Y que la suma de todas las probabilidades de los eventos es igual a 1 (pasaje 4):
Mónica: Yo digo que aún sumando todas estas [señala la columna de número de hijos]
no nos da mayor que 1 porque para que fuera mayor que 1 la fracción tendría
que ser 201 o más entre 200. O sea 201 sobre 200 y estos [refiriéndose a la
columna de número de hijos] no van a dar más de 200.
238
Entrevista clínica
ver que 200 no puede ser una probabilidad, esto las ayuda a darse cuenta que omiten el
denominador (pasaje 4)
Profesor: Sí, ustedes me acaban de decir hace ratito que la probabilidad de tener 4 hijos
es 31 sobre 200 y que esa era una fracción menor que uno ¿no?
Ambas: Ajá.
Profesor: Y luego me dijeron que todas las probabilidades son fracciones, fracciones
menores que uno. Entonces si son 10 probabilidades a lo más que podríamos
aspirar es a que su suma fuera menor que 10. Cuando yo les pregunto cuál es
la suma de probabilidades, ustedes me dicen que 200 así que ¿Cómo le hacen
para que llegue a 200?
[Hacen exclamaciones de obviedad]
Ambas: ¡Ay maestro!
Brenda: Lo que pasa es que esta fracción es con respecto a 200.
Mónica: Ajá. El común denominador es 200.
Mónica: ...Yo digo que la probabilidad depende del número de hijos (recurre a voltear a
ver a los profesores para que le confirmen o le refuten esta última afirmación).
Brenda: Pero más bien... el número...el...bueno... no, sí la probabilidad depende del
número de hijos porque... [dudando]
Mónica: Es que la probabilidad...
Brenda: No, sí la probabilidad... [muy segura]
Mónica: Sí, porque según yo...
[se arrebatan la palabra una a la otra]
Brenda: depende del número de hijos porque...
239
Capítulo 5. Estudio 3
Profesor: Nos podrían ayudar ustedes a encontrar un significado a ese decimal, ¿qué
podría significar 0,155? ¿qué es eso?
Brenda: Yo digo que los doscientos trabajadores se están tomando como una unidad,
entonces se supone que ese 0,155 es un pedacito de eso, a eso se refiere,
entonces si sumamos cada fracción que da aquí, nos va a dar el entero que
sería igual a uno. Bueno, yo entendí eso.
Mónica: ... Ocupa más, hay más probabilidades, es como que la que menos falla, es
como que azar.
En el pasaje 1, ambas estudiantes cambian las variables sobre las que se les pide que
trabajen en la distribución de probabilidad, para ellas sería más normal tomar a la
variable «número de trabajadores» como la variable dependiente. En un principio ambas
dudan de las variables, pero después Mónica responde acertadamente en la distribución
de probabilidad. Para Brenda no es tan natural, como si el hecho de que la pregunta pida
explícitamente definir a la probabilidad como variable dependiente o independiente
choca un poco con sus concepciones.
Brenda: Bueno... primero ¿qué depende de qué? pues el número de hijos... no...el
número
Ambas: de trabajadores...
Brenda: ...depende del número de hijos, ¿no?
Mónica: No, no es que dice: el número de hijos depende de la probabilidad, no del...
Brenda: no.. pero la primera no es...
240
Entrevista clínica
Brenda: No, porque, si estamos diciendo que la probabilidad depende del número de
hijos, quiere decir que la probabilidad es la dependiente, el número de
trabajadores que es la probabilidad es la dependiente [señala sus respuestas en
el pizarrón].
Blanca: Pero ¿el número de trabajadores es la probabilidad?
Brenda: Si, son estas las probabilidades [señala la columna de número de trabajadores
en el pizarrón].
241
Capítulo 5. Estudio 3
Tratar el número total de trabajadores (o casos totales) como otra variable más
las ayuda a descubrir que lo omitían por considerarlo una constante y que no era
necesario mencionar a pesar de que, anteriormente (pasaje 4), lo manejaron
correctamente («el común denominador es 200»). En este pasaje Mónica dice «tres
variables» pero en realidad está mencionando las cuatro:
Mónica: Es que aquí están las tres variables [señala la pizarra],... tres porque de 0 hijos
hay 16 personas que tienen 0 hijos de las 200, o sea, es que hay tres factores:
¿cuántos hijos?, ¿cuántas personas? ¿y de cuántas?, pero también, ¿cuántas
personas de cuántas?; como que estas dos [se refiere al número de
trabajadores y al total de trabajadores] van relacionadas muy directamente
porque son 16 de 200, 9 de 200, pero esas dos se relacionan con esta [con el
número de hijos], porque esta es la variable de cuántos hijos son.
Por lo tanto, se hacen evidentes las dos relaciones que las muchachas establecen
para asignar al número de hijos, la variable aleatoria, una probabilidad:
242
Entrevista clínica
Mónica: Esta [señala el número de trabajadores] con esta [señala el número de hijos], y
esta [señala el número de trabajadores] con el total [se refiere al total de
trabajadores].
Las dos relaciones a las que ellas se refieren, son las siguientes (Figura 5.7):
La primera relación se establece cuando se vincula el número de hijos (la
variable aleatoria) con el número de trabajadores (cardinalidad de los
eventos compuestos o frecuencia). En realidad la relación es más compleja,
se está vinculando a la variable aleatoria con la característica de interés (que
es algo menos abstracto) y posteriormente con los eventos simples (un
trabajador de la fábrica) y con los compuestos (trabajadores con un cierto
número de hijos).
La segunda es el cálculo de probabilidades. Se establece entre el conjunto de
trabajadores que tiene un cierto número de hijos (evento compuesto) y el
valor de la probabilidad de tener un número dado de hijos, esto es
P(X=i)=Ni/N, siendo Ni el número de trabajadores (casos favorables) con i
hijos y N el total de los trabajadores (casos totales). En esta relación se
define la probabilidad como función en el espacio muestral.
Análisis de la
Número situación Número de No trabajadores
de hijos Probabilidad
problema trabajadores Total Trabajador
Variable
aleatoria
Vinculación entre eventos y Cálculo de probabilidades
variable aleatoria (probabilidad como función)
Figura 5.7. Proceso para vincular el número de hijos con una probabilidad
243
Capítulo 5. Estudio 3
Mónica: Es que ve estás dos no pueden ser de que ¡ah! dependiente o independiente
[señala las columnas de la tabla]... así, no. Yo no puedo entrar... de lo que el
número de hijos y el número de trabajadores ... no puede ser, pon tú
dependiente e independiente o independiente y dependiente [señala las
columnas de la tabla] porque no, no hay relación... por ejemplo aquí [señala
la columna de número de trabajadores] empieza un número 16, y luego aquí
mayor, mayor, incrementa y luego decrementa y luego decrementa, así como
que no hay rela...o sea no hay mucha relación, igual de cero hijos pudo haber
un trabajador y de cuatro a cinco mil y así... como que no da resul...pero dice...
1
recordemos que en el pasaje 1, Brenda tuvo que recalcar «qué tan probable es que los trabajadores
tengan ese número de hijos» para poder vincular a la probabilidad con el número de hijos.
244
Entrevista clínica
Brenda: Sí, pero si te fijas esta es la que... ésta es la que... [señala la columna de
número de hijos]
Mónica: Va determinando...
Brenda: Ajá, va determinando al número de trabajadores. El número de trabajadores no
determina al número de hijos.
Mónica: Ah, ya entiendo.
Brenda: Sino al revés, el número de hijos es lo que está determinando el número de
trabajadores. Entonces está sería...
En el pasaje 15, Mónica expresa que una función es una relación en las que una
variable se corresponde con otra y manifiesta un buen manejo de la notación funcional.
Ella expresa rápidamente el resultado pedido en notación funcional y eso le da pie a
definir que su interpretación de función como una correspondencia entre dos números.
Mónica: Pues… ‘x’ sería 3 y ‘y’ sería 0,225. La función de ‘x’ es ‘y’, es decir el
resultado.
Brenda: Pero en todo caso… no lo sabes. Lo que yo digo es utilizar…
245
Capítulo 5. Estudio 3
Profesor: ¿La relación que establecieron es una función matemática? o sea ¿es función?
¿Recuerdan las propiedades de la función? ¿qué es una función?
Mónica: Que hubiera dos variables.
Brenda: Que para el valor de ‘x’ haya un valor en ‘y’.
Profesor: ¿Y puede haber dos ‘x’ que vayan a dar a un mismo valor de ‘y’?
Ambas: Sí
Profesor: ¿Puede haber una ‘x’ que pueda dar dos valores de y? Es decir, ¿un número de
hijos que de dos probabilidades diferentes?
Ambas: No.
Profesor: Entonces ¿es función o no?
Brenda: Sí, si es función porque para cada número de hijos hay una sola probabilidad.
También hay una comprensión de que la gráfica y la tabla son una forma de
expresar una función. Lo mencionan en los pasajes 15 y 17. Relacionan la gráfica de
una función con la continuidad del trazo (pasaje 14).
Brenda: Aquí [señala el eje de las abscisas] sería, uno, dos,… así hasta nueve.
[Mónica pone la escala en el eje de las abscisas].
Brenda: Luego para arriba, ¿de qué la empezamos? ¿de 0,1, no?
Brenda: Bueno, sería de cero hasta uno y luego ya sería irle poniendo las
probabilidades. A ver, divídelo…
Mónica: A ver, primero mitad y mitad. Punto cinco…
[Brenda dicta los valores a Mónica y ella los va colocando en la gráfica].
Mónica: ¿Hacemos la gráfica?
Brenda: Sí, hay que hacer la gráfica.
[Brenda une los puntos]
Brenda: Bueno es que sí es cierto, se supone que nada más serían los que te están
dando. Las coordenadas que te está dando la gráfica únicamente son estos
[señala los puntos de la gráfica] no son mitades ni nada de eso, sólo los
enteros.
246
Entrevista clínica
Mónica: Entonces para qué es la gráfica si vamos a dejar los puntos así aislados.
Brenda: Sí, pero es que realmente no puedes sacar la probabilidad de 0,5.
Mónica: Sí, no puedes tener 8,5 hijos, es lo que yo digo.
Brenda: Pero por ejemplo, o sea, o sea, la gráfica sí está abarcando todo, sí está
abarcando todo este espacio.
[Ambas se quedan calladas un rato].
Blanca: ¿Entonces están de acuerdo en que ese es el dominio? [refiriéndose al [0,9],
que ellas habían escrito en el pizarrón]
Ambas: Sí.
En el mismo pasaje 16, ellas mencionan que su grafica sería igual si la variable
fuera continua o fuera discreta, la diferencia sería que en una continua los decimales sí
tienen sentido y en una discreta no, pero no les importa demasiado que la gráfica
represente de una manera más fiel la situación problema.
Lo mismo ocurre con el dominio, se dan cuenta que hay una incoherencia
cuando quieren interpretar la gráfica (porque unieron los puntos con líneas) en el
contexto del problema puesto que no pueden calcular el valor de la probabilidad
(variable dependiente) para valores fraccionarios. Sin embargo consideran necesario
tanto la unión de los puntos como la inclusión de números decimales en el dominio con
la aclaración de que no se tomarían en cuenta puesto que no pueden obtener las
coordenadas de esos puntos. La continuidad en la gráfica y en el dominio la justifican a
través de su experiencia en sus clases de matemáticas. Se dan cuenta de que la variable
independiente no puede tomar valores decimales, pero eso no las decide a cambiar su
gráfica.
Por otro lado, se dan cuenta que la representación algebraica de esta función no
es fácil de obtener, pero el argumento para no obtenerla a través de una regresión apunta
a que están pensando en una regresión lineal y a que su dominio está limitado (no va
247
Capítulo 5. Estudio 3
más allá de nueve hijos). Además vinculan esta dificultad con el hecho de que los datos
están determinados por factores ajenos a las matemáticas. En el pasaje 17 dicen que
podrían obtener la expresión algebraica de la tabla si aumentara el número de hijos
conforme aumenta la probabilidad, porque usarían regresión, pero como eso no ocurre,
entonces no pueden obtenerla.
Mónica: Sin embargo estaba pensando ahorita ¿Cómo le podemos hacer? Lo primero
que pensé fue regresión, hacer una regresión y encontrar una ecuación, pero
después dije no, porque no tiene nada que ver el número de hijos con las
personas, no es de que entre más hijos más personas haya sino de que pueda
haber… si va disminuyendo, no va a llegar un momento en que se va a acabar,
porque son hijos si fueran otros datos como dinero o alguna otra variable,
puede que sí, pero como hijos no, pero como en, no sé, 15 ya se va a acabar, a
partir de 3 va a ir disminuyendo.
En el pasaje 21 dicen que los datos que se manejan aquí no están determinados
por una ecuación sino por las circunstancias, «por el azar, yo creo». Creen que la
distribución de probabilidades es diferente a la función algebraica manejada por ellas en
cursos de matemáticas porque el valor de ‘x’ no controla a la ‘y’, en el sentido de que no
tiene un comportamiento que se pueda predecir a través de una ecuación. Se extrañan
que la función no sea en cierta medida conocida o controlable. Y creen que esto es lo
que la hace diferente de otros contextos manejados por ellas en matemáticas. Es decir,
vinculan las funciones «normales» (determinísticas) con una ecuación.
Mónica: ... en otro tipo de gráficas normales a cada valor en ‘x’ corresponde un valor
en ‘y’, es decir, tiene un comportamiento esperado, dependiendo de la gráfica,
no nada más gráfica recta, que puede ser logarítmica o exponencial o
polinómica, cualquier tipo de gráfica, pero para cualquier valor en ‘x’ se
espera uno en ‘y’. Aquí no, para un valor en x, no sabes cuál va a ser el valor
en ‘y’, puede ser más grande, más chico, es algo que no está controlado. La ‘x’
no controla a la ‘y’.
En la primera parte de los pasajes anteriores se puede observar un buen manejo del
cálculo e interpretación de la probabilidad clásica y de su expresión tanto decimal como
248
Entrevista clínica
2
Esto se pidió en las preguntas «¿Qué depende de qué: el número de hijos depende de la probabilidad o
al revés? ¿Cuál de estas dos variables sería la variable dependiente y cuál la variable independiente?».
249
Capítulo 5. Estudio 3
Asignación de
probabilidad Probabilidad
Descontextualización
Eventos
Experimento compuestos
aleatorio
Descontextualización
Característica
Contextualización
Situación Espacio Distribución
problema de interés muestral de
probabilidad
Variable
aleatoria
Valores de la
variable aleatoria
3
Desde esta perspectiva, la aplicación de la inversa de la variable aleatoria sobre los valores que toma, es
una contextualización de esos valores en el espacio muestral.
250
Entrevista clínica
Así mismo, Fischbein y Gazit (1984) nos alertan sobre las divergencias entre el
pensamiento probabilístico y el razonamiento proporcional, a tal grado que sugieren que
ambos están basados en distintos esquemas mentales.
Otra explicación de la dificultad es que la distribución de probabilidad es algo
abstracto, en cambio la variable frecuencia de trabajadores con un cierto número de
hijos es más concreta para ellas. Esta dificultad para descontextualizar también se
presenta cuando ven el dominio limitado a los datos dados en el problema, sin
considerar que la distribución de probabilidad daría valor cero a la probabilidad del
número de hijos mayor a 9. Esto último está de acuerdo con su idea de no incluir el cero
como parte de los valores que puede tomar la probabilidad.
Una situación contraria se observa cuando se niegan a aceptar que la matemática
sirve para representar la realidad, como si las representaciones matemáticas no tuvieran
que estar vinculadas con un problema sobre todo en este contexto discreto. Incluso no
encuentran contradicción en considerar que el número de hijos pueda tomar valores
decimales, que no tienen sentido en el contexto del problema, pero que está de acuerdo
con el contrato didáctico establecido en lo referido a las gráficas funcionales de sus
cursos de matemáticas. Llegan a mencionar que la gráfica de una función sería la misma
para variables discretas o continuas. Al obtener el dominio a partir de la gráfica de la
función, donde unieron con líneas los valores puntuales, también cometen un error
aunque saben que no pueden calcular la probabilidad para un número fraccionario de
hijos.
A este respecto, García (2007), quien trabajó en un contexto determinista,
reportó que todos los profesores de su estudio consideraron que los modelos
matemáticos (en particular, la función lineal) son continuos por definición y que sólo a
partir del estudio de la validez del modelo matemático, establecido previamente, en el
contexto donde se va a utilizar pueden surgir variables discretas.
En sus estudios a lo largo de 10 años sobre el «sesgo de equiprobabilidad»,
Lecoutre (1992) concluyó que ninguno de los factores estudiados, incluyendo la
formación de los estudiantes en teoría de probabilidad, tiene un efecto fuerte sobre ese
sesgo. En cambio la caracterización de los modelos cognitivos usados por los
estudiantes, indican que este error está vinculado con la incapacidad de los estudiantes
para asociar razonamiento combinatorio y lógico con situaciones en donde interviene el
azar4. Desde la perspectiva de Lecoutre, la principal dificultad de los estudiantes radica
4
Para probar su hipótesis, realizó una investigación en donde los estudiantes se enfrentaron a dos
problemas que requerían el empleo de la misma herramienta matemática, sólo que en uno de los
problemas se enmascaró el aspecto «azaroso» y el otro era un «típico problema de azar». La proporción
de respuestas correctas en el primer problema fue mucho mayor (75% contra 45%).
251
Capítulo 5. Estudio 3
¿Cómo usa el estudiante la variable aleatoria (y
su relación con la probabilidad) para establecer
la función de distribución?
Situación problema Función de distribución
Valores
Pregunta
numéricos
de
asociados a la
interés
variable aleatoria
252
Entrevista clínica
Las componentes, de acuerdo a la Tabla 5.7, que nos permitirán analizar los
procedimientos y concepciones de los estudiantes en el objeto variable aleatoria son: su
concepción propiamente como función, el valor de la variable aleatoria como número
vinculado a una probabilidad y como variable independiente dentro de la distribución de
probabilidad. Además, dentro de este objeto de análisis incluiremos el lenguaje
matemático usado por los estudiantes.
Brenda: Como además, se encuentran más concentrados los trabajadores en esa parte
[señala los renglones de la tabla correspondientes a trabajadores con 3 hijos
o menos] hay más posibilidades de que no vaya a perder tanto porque más del
50% [de los trabajadores] se juntan en ese espacio. No podemos asegurarlo
pero es más factible, puede que suceda más, que salga más una de estas
personas [señala los renglones correspondientes a los trabajadores con más
de 3 hijos], es más fácil que del resto porque son más, son mayoría.
Brenda: Bueno, yo diría eso, comprar los 5, pero también existe la probabilidad de que
no vaya a completar después.
253
Capítulo 5. Estudio 3
Brenda: Aunque bueno, también por decir un margen más grande sería... bueno más
seguro sería comprar los 9, porque si te fijas, de aquí hasta acá [señala en la
tabla la columna de probabilidades las correspondientes de 0 a 6 hijos] es
donde se ocupa la mayor parte, de 0 a 6 es donde se está ocupando la mayor
parte inclusive [se podría tomar] un poco más, ya en la de 7 hijos que es
donde llega a 9 [es decir, añadiría los trabajadores que tienen 7 hijos], o sea,
es donde está la mayor probabilidad, ésta es muy poquita [señala la
probabilidad de que se tengan 8 ó 9 hijos]. Estos dos tienen muy poquita
probabilidad y serían 7 más los... que serían... Si te fijas realmente ya nada
mas tendrías un margen de 13 o sea muy pocos.
254
Entrevista clínica
Brenda: … bueno en este caso sí va así seguido [se refiere a los valores de la variable
aleatoria], pero a lo mejor hay casos en que no había nadie con 6 hijos
entonces la variable ya no tendría que ser toda seguida.
Mónica: Pues obviamente sí se pueden ordenar siempre las variables [se refiere a los
valores que puede tomar la variable], así de menor a mayor y de mayor a
menor también [señala los valores de la probabilidad], pero eso no significa
que de mayor a menor van a ir creciendo o van a ir disminuyendo igual [si se
repite muchas veces el experimento aleatorio], o sea, el que aquí sea de menor
a mayor [se refiere a los valores de la variable aleatoria en la gráfica], el que
estén ordenadas, no significa que también estén creciendo uniformemente [se
refiere al efectuar varias veces el experimento].
Brenda: No, porque adentro de la tómbola están los trabajadores. Es que se supone que
del número de hijos… por decir…¿cómo lo explicaré?
Mónica: O sea no está el número de hijos, de que uno, dos, sino que está un trabajador
y tú, a ver cuántos hijos tienes. No pues que dos. Está implícito adentro del
trabajador.
Brenda: Sí, ándale. O sea no hay papelitos que digan uno, dos, tres, …
Mónica: No, sino que sale, Juan Ramírez y tú, a ver, cuántos hijos tienes, no pues que
tres, a corresponde a… [señala el eje de las ordenadas en la gráfica] y ya.
255
Capítulo 5. Estudio 3
Brenda: O sea que dentro de los papelitos que están en la tómbola, están los [valores]
posibles o sea estos [señala la escala del eje de las abscisas].
Brenda: Bueno es que sí es cierto, se supone que nada más serían los que te están
dando. Las coordenadas que te está dando la gráfica únicamente son estos
[señala los puntos de la gráfica] no son mitades ni nada de eso, sólo los
enteros.
Mónica: Entonces para qué es la gráfica si vamos a dejar los puntos así aislados.
Brenda: Sí, pero es que realmente no puedes sacar la probabilidad de 0,5.
Mónica: Sí, no puedes tener 8,5 hijos, es lo que yo digo.
Brenda: Pero por ejemplo, o sea, la gráfica sí está abarcando todo, sí está abarcando
todo este espacio.
Blanca: ¿Entonces están de acuerdo en que ese es el dominio?
Ambas: Sí.
256
Entrevista clínica
Profesor: Supongamos que tiene un sentido «más hijos» indefinida, aun así ¿Hay más
características? ¿Es la única característica que ustedes encuentran entre esta
función y las otras variables independientes de álgebra y cálculo?
Mónica: Lo de los decimales.
También se observa que vinculan la función con un registro algebraico, que ven
como otra diferencia entre las funciones que han trabajado en anteriores cursos de
matemáticas y el contexto de esta actividad. En el pasaje 19 mencionan que otra
diferencia es que no pueden obtener la ecuación a través de la cual se relacione la
variable dependiente con la independiente. Esto lo vinculan con la «exactitud» de la
variable dependiente, es decir, a partir de la variable independiente no pueden calcular
la dependiente de manera exacta (porque sólo puede ser obtenida a partir de la tabla o de
la gráfica).
Profesor: Qué más, piensen ¿Habrá alguna característica más que distinga esta variable
de las otras que trabajan en matemáticas?
Brenda: Normalmente en álgebra manejamos ecuaciones. Todas las gráficas se
manejan por ecuaciones, todos los valores de ’y’ se van a dar por la ecuación.
Aquí los valores de y también se dan según una ‘x’, pero no tienen una
ecuación, son así como… aleatorios. No llevan un patrón así seguido.
Mónica: Las otras son constantes, continúas, se espera que sigan y que vayan, en
cambio esta no sabes, no puedes predecir algo.
Brenda: Bueno más que la variable independiente diferente, como que es la variable
dependiente la diferente, porque no podemos establecer cuál será la
257
Capítulo 5. Estudio 3
dependiente [se refieren al valor que tomaría esa variable]. A diferencia del
álgebra, con la independiente podías sacar la dependiente exactamente y en
este caso no, son datos que te están dando y tú no puedes... es muy aleatorio,
es más difícil que con álgebra. Con álgebra tú podías sacar ‘y’ con la ecuación
y aquí no.
Mónica: Yo también estoy de acuerdo con ella en que la que varia es la variable
dependiente. Varía de forma inconstante o impredecible.
Blanca: Pero ¿por qué impredecible?
Brenda: Sí, porque este valor no es algo que esté dado por una…
Mónica: Función.
Brenda: Sí, por una función, por una ecuación, sino que porque son datos que así se
dan o sea que, que pueden ser más o que pueden ser menos, que nos están
determinados por algo sino por las circunstancias, por el azar yo creo.
Mónica: Ajá, porque [los datos] pueden estar determinados por diferentes factores por
ejemplo, esa población puede haber tenido tres hijos porque se localizaba en
México o en Estados Unidos en donde la mayoría de las personas tienen tres
hijos, pero en poblaciones de otros lugares donde el número de hijos crece por
persona, la gráfica ya no iba a ser igual. En cambio si hablamos de dinero,
bueno, no tanto de dinero, sino de otro tipo de cosas como habíamos visto
antes [se refería al curso de matemáticas que acaba de llevar con el profesor],
sí se espera algo, pero aquí el número de hijos… En este tipo de gráficas en
258
Entrevista clínica
En otro momento de ese mismo pasaje aseguran que los valores de la variable
aleatoria serían no predecibles sólo si la probabilidad de que tome ese valor fuera cero:
Mónica: ... a lo mejor hay casos en que no habría nadie con 6 hijos, entonces la variable
ya no tendría que ser toda seguida [se refiere a la numeración en el eje de las
abscisas].
Como si en tal situación el valor de «6» se pudiera quitar del eje de las abscisas,
puesto que no hay nadie que tenga ese número de hijos. Esta idea se expresa más
claramente en el pasaje 22 cuando intentan dar un nombre general a las variables
independientes de este tipo y Mónica sugiere llamarla «impredecible».
En estos casos con probabilidad cero, piensan que la numeración en el eje de las
abscisas (los valores de la variable aleatoria) podría ser no seguida. Vinculan lo
impredecible con la variable aleatoria, pero no por su relación con el sorteo sino porque
podrían saltarse algunos «valores». Esto es coherente con su creencia de que lo aleatorio
es la probabilidad.
Relacionar la aleatoriedad con una incapacidad de cálculo las induce a utilizar
una noción errónea de aleatoriedad porque aunque ellas pudieran calcular todos los
valores de probabilidad a través de una ecuación, eso no haría que supieran cuál es el
trabajador que saldría seleccionado. Esta idea la argumentan varias veces a lo largo del
pasaje 21.
Relacionan los datos «humanos» (es decir, los obtenidos a través de la
experiencia) con la «inexactitud» de la función que están manejando. Piensan que no es
posible modelar los datos que tienen a través de una ecuación porque son datos
obtenidos a través de un censo y no de una ecuación. Están manifestando una creencia
de que las ecuaciones no se obtienen a partir de «datos reales» y precisamente por eso
creen no posible obtener una a partir de los datos que están manejando.
259
Capítulo 5. Estudio 3
Mónica: Yo también estoy de acuerdo con ella en que la que varia es la variable
dependiente. Varía de forma inconstante o impredecible.
Blanca: Pero ¿por qué impredecible?
Brenda: Sí, porque este valor no es algo que esté dado por una…
Mónica: Función.
Brenda: Sí, por una función, por una ecuación, sino que porque son datos que así se
dan o sea que, que pueden ser más o que pueden ser menos, que nos están
determinados por algo sino por las circunstancias, por el azar yo creo.
Mónica: Ajá, porque pueden estar determinados por diferentes factores por ejemplo,
esa población puede haber tenido tres hijos porque se localizaba en México o
en Estados Unidos en donde la mayoría de las personas tienen tres hijos, pero
en poblaciones de otros lugares donde el número de hijos crece por persona, la
gráfica ya no iba a ser igual. En cambio si hablamos de dinero, bueno, no tanto
de dinero sino de otro tipo de cosas como habíamos visto anteriormente [se
refiere al curso de cálculo que acaba de llevar con el profesor], sí se espera
algo, pero aquí el número de hijos… En este tipo de gráficas en donde están
midiendo el azar, no podemos saber cuándo va a bajar y cuando va a subir, no
tiene un comportamiento predestinado.
Además, se observa una vinculación entre una ecuación y la predicción. Por eso
para ellas la incapacidad de cálculo está vinculada con la incertidumbre (no saben qué
pasará en otras circunstancias). En otras fábricas el valor del número de hijos (1, 2, 3,...
9) sería el mismo a menos que la probabilidad de tener un cierto número de hijos fuera
cero, en cambio los valores exactos de la probabilidad cambiarían. Vinculan las
260
Entrevista clínica
En el pasaje 15 la notación de las variables que proponen son las utilizadas comúnmente
en los cursos de matemáticas, ‘x’ y ‘y’. Inicialmente, al mencionar notación funcional,
Brenda relaciona la respuesta con una ecuación o con una expresión algebraica. Se
pregunta si una función sólo está definida a través de una ecuación. Los profesores
aprovechan para explorar sus concepciones de función, pero ellas no se muestran muy
seguras de sus conocimientos al respecto. En un momento de ese diálogo, Brenda se da
cuenta que no necesitan saber la ecuación para dar la respuesta.
Profesor: Representa con una letra la variable dependiente y con otra la variable
independiente.
Mónica: ‘x’ y ‘y’ [las escribe en la gráfica que está en el pizarrón]. Ya.
....
Brenda [dirigiéndose a Mónica]: ¿A qué se refiere con notación funcional? ¿una
ecuación?
[Dudan]
Mónica: ¡Funciones!, F de x, f de…
Profesor: ¿Sería posible eso [se refiere a la gráfica que está en el pizarrón] escribirlo en
notación de funciones? ¿qué es una función? Esa gráfica, suponiendo que
fuera continua, ¿sería una función?
Mónica: Sí.
Profesor: ¿Por qué?
Mónica: Pues como todas [se refiere a los valores involucrados] se corresponden, por
ejemplo f de 3 que corresponde a 0,225, ¿no? Escribe en el pizarrón [F(3) =
0,225]
Profesor: ¿Qué dice Brenda?
Brenda: Pero lo que pide es poner… ¿cómo es la ecuación?
Blanca: ¿Una función nada más se expresa en forma de ecuación?
Brenda: No.
Blanca: ¿De qué otra forma?
Mónica: Por ejemplo. No, una función no necesariamente tiene que ser una ecuación,
por ejemplo está podría ser una función [escribe F(x) = 3x], siendo que no es
una ecuación.
Profesor: Pero esa [se refiere a una ecuación] sería una expresión algebraica, ¿puede
algo que no sea una expresión algebraica, una gráfica o una tabla, ser
función?, ¿tiene que ser una fórmula?
Mónica: La tabla o la gráfica es la representación de una función.
261
Capítulo 5. Estudio 3
262
Entrevista clínica
263
Capítulo 5. Estudio 3
objeto y dinámico como proceso, para coordinar el uso de una función como variable de
otra (pasar de un estrato a otro dentro del proceso de modelación). También mencionan
que el aprendizaje se dificulta cuando la composición de funciones exige cambios de
registro y que uno de los que presenta mayores dificultades es la descripción verbal.
Esto puede explicar las dificultades con la variable aleatoria para lograr verla como un
objeto sobre el cual se puede operar.
En el momento en que las estudiantes logran vincular los valores de la variable
aleatoria con la distribución de probabilidad, también afirman que los valores de la
variable aleatoria no tendrían por qué estar ordenados en forma ascendente. Los
interpretan como los resultados de repetir varias veces un experimento aleatorio, en
lugar de verlos como números reales. A este respecto, Miller (1998) crítica la definición
escolar de variable aleatoria como un valor numérico resultante del experimento
aleatorio, indicando que el valor numérico no siempre es un «resultado» del fenómeno
aleatorio. Sin embargo en esta investigación observamos que interpretar los valores de
la variable aleatoria como el resultado del experimento aleatorio, que es el primer
estrato de modelación, les ayudó a las estudiantes a descontextualizar los valores de la
variable aleatoria del conjunto de trabajadores con un cierto número de hijos. Cuando
argumentan sobre la aleatoriedad del proceso, interpretan los valores de la variable
como su «realidad» en la distribución de probabilidad (segundo estrato de modelación).
Este resultado también apoya la propuesta de Parzen (1971) sobre la forma de introducir
la variable aleatoria (sección 5.3 del Capítulo 4) como el resultado de un experimento
aleatorio.
Sin embargo en nuestro estudio, este también favoreció que el doble papel que
juegan los valores de la variable aleatoria (como resultado de la aplicación de la regla de
correspondencia y como argumento de la distribución de probabilidad) confundiera a las
estudiantes. Puesto que cuando toman los valores de la variable aleatoria como el
resultado del experimento aleatorio, nuevamente están pensando en eventos, no en
números (reales) y por lo tanto la relación que establecen entre la probabilidad y los
valores de la variable aleatoria sigue siendo una función de conjunto (entre la
probabilidad y sus eventos) y no una función vinculada con una variable numérica. De
acuerdo con los resultados de las investigaciones de las dificultades sobre la
composición de funciones de Ayers, Davis, Dubinsky y Lewin (1988), se requeriría que
las estudiantes lograran un grado de abstracción de la variable aleatoria como objeto
estático para hacer inmediato el camino a través de la inversa de la variable aleatoria y
llegar a la distribución de probabilidad. Pero la abstracción reflexiva en ellas no se
concretó suficientemente como lograrlo.
264
Entrevista clínica
DEDUCCIÓN FINAL
DEDUCCIÓN FINAL
La probabilidad no se puede
La probabilidad es
calcular a partir del valor de
aleatoria
la variable aleatoria
CREENCIA
DEDUCEN DEDUCEN
La ecuación debe servir en el
No pueden saber qué La ecuación para esta
contexto de varias fábricas
pasaría en otras fábricas fábrica no tiene sentido
(Necesidad de generalizar)
CREENCIA
Sus datos son muy particulares porque HECHO
Sus datos dependen de la
no provienen de una ecuación
situación de una fábrica
(Necesidad de una ecuación)
Figura 5.10. Razonamiento seguido por las estudiantes para vincular la aleatoriedad
con la incapacidad de cálculo de la probabilidad
265
Capítulo 5. Estudio 3
un mismo número de hijos; el espacio muestral serían las fábricas de una ciudad o un
país. En esta nueva situación nuestra distribución de probabilidad sería una distribución
marginal y pierde su relación con el problema que nos interesa, que se restringe a una
fábrica en particular. Su intento infructuoso por tratar de descontextualizar la
distribución de probabilidad finalmente, desemboca en relacionar la aleatoriedad con
una incapacidad de cálculo.
Históricamente, el concepto de función es protagónico a partir de que se le
concibe como una fórmula, es decir, cuando se logra la interacción de los dominios de
representación geométrico y algebraico. Desde la perspectiva tradicional, en la
enseñanza de éste concepto se tiende a sobrevalorar los aspectos analíticos y los
procedimientos algorítmicos dejando de lado los argumentos visuales o los enfoques
numéricos, por no considerarlos, entre otras causas, procesos plenamente matemáticos
(Cantoral y Farfán, 1998). Por lo que la necesidad de las estudiantes de buscar una
ecuación que representara sus datos podría provenir de la forma en cómo han aprendido
el tema de funciones.
Por último, creemos que las dificultades vinculadas al lenguaje son aplicables al
lenguaje matemático en general y a sus creencias sobre las matemáticas. Así, de alguna
manera, ven la gráfica como un objeto que no está relacionado con el contexto del
problema, algo matemático que vive en sí mismo y no con un fin práctico.
266
Entrevista clínica
Mónica: Si, hay mucha probabilidad. Pero y si te salen por ejemplo estas [señala los
trabajadores con menos de tres hijos]. Ah profe, es que eso es lo que le
preguntaba; lo que yo le estoy preguntando es muy importante porque, en caso
de que yo compre dos me van a faltar, pero si tengo que comprar los exactos
que lo menos pierda o puedo comprar ya después boletos.
Profesor: Ya no, después ya no.
267
Capítulo 5. Estudio 3
Brenda: En todo caso si se está buscando que no vaya a gastar de más y si alcanzan
bueno y si no, no, pues yo estaría por 4 hijos.
Mónica: Ajá, yo también y si no alcanzan pues ya ni modo.
Ante la respuesta de comprar 6 boletos (4 para los hijos y dos para los padres),
nuevamente el profesor interviene. Les indica que la recomendación tiene que estar en
lo mínimo que se pueda gastar. De esa forma ambas llegan a un consenso: comprarían 5
boletos con una probabilidad de 0,58 de que los boletos les alcancen exactamente o
sobren. Sin embargo esta respuesta está condicionada por la intervención del profesor.
268
Entrevista clínica
269
Capítulo 5. Estudio 3
los trabajadores. El problema es abierto, por tanto, no hay una única solución, pero la
elección de 5 boletos es preferible porque la probabilidad de que el trabajador quede
favorecido es mayor a 0,5 y a la vez, la empresa no se arriesga excesivamente.
La discusión de las estudiantes puso en claro los momentos en que se introducen
los criterios de decisión y cómo se están poniendo en juego. Si el único criterio hubiera
sido favorecer al trabajador, la decisión hubiera sido determinista. La respuesta de
comprar 6 boletos demuestra que ellas preferían que la empresa gastara más a dejar a
una familia con boletos insuficientes. Así, ellas no usaban la función de distribución
acumulada para medir la probabilidad de que la empresa gastara de más, sino la
probabilidad de que al trabajador ganador le alcancen los boletos.
Sin embargo, en la discusión de las alumnas también mencionaron las
posibilidades de que la empresa gaste de más o al trabajador ganador no le alcancen los
boletos cuando se referían al complemento de la distribución (Tabla 5.9). Esta función
sería más importante si cambiamos el orden de los criterios de decisión y se quisiera
favorecer a la empresa antes que al trabajador. En tal caso se comprarían 4 boletos
(Figura 5.11).
270
Entrevista clínica
situación que favorecería más a los trabajadores y en la que se gastaría menos. A partir
de esa recomendación, los directivos serían los encargados de decidir cuántos
comprarán.
Observemos que la entrevista obligó a las estudiantes a entrar constantemente en
el ciclo interrogativo (Wild y Pfannkuch, 1999). Esto hizo que ellas obtuvieran una
solución del problema satisfactoria, pero no podemos afirmar que se haya tenido el
mismo éxito en la apropiación de la herramienta probabilística que usaron.
Pregunta de interés
¿Cuántos boletos comprar?
¿Se pueden comprar no Se compran
boletos después de 2 boletos
la rifa?
sí
1er criterio Solución
de decisión determinista
¿A quién se debe
favorecer, al trabajador o
a la empresa?
Al trabajador A la empresa
Distribución de Distribución de
probabilidad de probabilidad
que al trabajador de que la
premiado le empresa no
alcancen los gaste de más
2o criterio boletos
2o criterio
de decisión
de decisión
Hay una probabilidad de 0,580 de Hay una probabilidad de 0,645 de
que al trabajador premiado le que la empresa no gaste de más
alcancen los boletos Hay una probabilidad de 0,355 de
Hay una probabilidad de 0,420 de que al trabajador premiado le
que la empresa no gaste de más alcancen los boletos
Figura 5.11. Ruta de solución tomando en cuenta los criterios de decisión posibles
271
Capítulo 5. Estudio 3
Esta hipótesis no se llega a confirmar, pues las estudiantes manejaron un buen concepto
de aleatoriedad, al contrario de lo reportado en otras investigaciones, como la de
Serrano (1996). Manifestaron no poder predecir cuál sería el número de hijos que
tendría el trabajador premiado (impredecibilidad del resultado aislado) y que si
repitieran el sorteo muchas veces, no sabrían cuál es la secuencia que seguirían los
resultados (falta de patrón o de orden).
La aleatoriedad del proceso aleatorio (el sorteo) no fue cuestionada. Sin embargo
en las primeras etapas del trabajo, hubo reticencia a dar una recomendación que no
sabían si sería certera, es decir, que su solución «heredara» la aleatoriedad del sorteo.
Una vez aceptada la incertidumbre, buscaron argumentos de equidad (entre los
trabajadores y la directiva de la empresa) para proporcionar una solución con la que
pudieran sentirse más confiadas. Este argumento de equidad se obtuvo a partir del uso
que hicieron de la probabilidad acumulada.
272
Entrevista clínica
273
Capítulo 5. Estudio 3
274
Entrevista clínica
La idea de que una ecuación es útil sólo si sirve para conocer la probabilidad de
muchas fábricas, las lleva a la idea errónea de que la aleatoriedad está vinculada con una
incapacidad de cálculo de la probabilidad. Este razonamiento es el que conlleva a la
conclusión de que el valor de la probabilidad es aleatorio.
275
Capítulo 5. Estudio 3
primer estrato sea abstraído por el estudiante para poder usarlo como entrada del
segundo estrato. Las estudiantes no lograron una descontextualización completa del
primer estrato de modelación, como se observa cuando piensan que los valores de la
variable aleatoria en el eje numérico no tendrían por qué ir ordenados.
Observamos que en la tentativa por descontextualizar la distribución de
probabilidad, las estudiantes pasan por el proceso de transformar el resultado del
experimento aleatorio. Piensan que del sorteo se obtendrá el nombre de un trabajador
sino un número de hijos. Esto hace que el experimento se transforme en un experimento
con resultado numérico, proceso que se observa también históricamente (Parzen, 1971).
Por último, en su intento por descontextualizar la distribución de probabilidad,
ellas desvinculan la distribución de probabilidad del experimento aleatorio y la
transforman en la distribución de frecuencias. Lo que conduce al planteamiento de una
función de distribución doble, en donde nuestra fábrica proporcionaría sólo una
distribución marginal y los valores de sus frecuencias (probabilidades para ellas) serían
aleatorios (en la distribución doble).
276
Entrevista clínica
277
Capítulo 5. Estudio 3
278
Entrevista clínica
279
280
Capítulo 6.
Estudio 4.
Evaluación a través de un
proyecto abierto
ÍNDICE DEL CAPÍTULO 6
1. Introducción, 283
2. Preliminares, 284
2.1. Contexto escolar, 284
2.2. Descripción de la muestra, 286
2.3. Descripción de la situación de enseñanza, 287
3. Objetivos del estudio de evaluación a partir de un proyecto, 288
4. Descripción y análisis del proyecto, 289
4.1. El proyecto: «Comprueba tus intuiciones sobre el azar», 290
4.2. La secuencia de actividades, 291
4.3. Respuestas y soluciones del proyecto: análisis de datos, 300
5. Objetos de análisis en el proyecto, 311
5.1. Aleatoriedad, 312
5.2. Variable estadística y su distribución, 317
5.3. Variable aleatoria y su relación con la variable estadística, 320
5.4. Ciclo de modelación, 322
6. Hipótesis de estudio, 323
7. Análisis de las producciones de los estudiantes, 326
7.1. Objeto de Análisis: Aleatoriedad, 326
7.1.1. Evaluación individual de concepciones de aleatoriedad, 328
7.1.2. Evaluación global de concepciones de aleatoriedad, 337
7.1.3. Discusión de resultados en el objeto aleatoriedad, 345
7.2. Objeto de Análisis: Variable estadística, 348
7.2.1. Distribución de la variable estadística, 348
7.2.2. Momentos de la variable estadística, 372
7.2.3. Discusión de resultados en el objeto variable estadística, 377
7.3. Objeto de análisis: Variable aleatoria y su relación con la variable
estadística, 377
7.3.1. Referencia a la variable, 380
7.3.2. Referencia a las probabilidades o distribución, 382
7.3.3. Referencia a los parámetros, 384
7.3.4. Discusión de resultados en el objeto relación entre la
variable aleatoria y su relación con la estadística, 386
7.4. Objeto de análisis: Ciclo de modelación, 387
7.4.1. Observación de la realidad, 388
7.4.2. Descripción simplificada de la realidad, 390
7.4.3. Construcción de un modelo, 392
7.4.4. Trabajo matemático con el modelo, 393
7.4.5. Interpretación de resultados en la realidad, 397
7.4.6. Discusión de resultados en objeto ciclo de modelación, 415
8. Conclusiones del capítulo, 418
8.1. Confrontación de los resultados con las hipótesis, 418
8.2. Idoneidad del proyecto, 426
1. Introducción
Esta segunda exploración de las concepciones y dificultades de los estudiantes alrededor
del concepto de variable aleatoria, se realizó a través del análisis de la forma en cómo
abordan el objeto dentro de un proyecto abierto. Este estudio complementa al descrito
en el Capítulo 5 en el análisis cognitivo y difiere de él en el método utilizado, así como
en la configuración epistémica de los objetos matemáticos asociados a la variable
aleatoria en los que centramos nuestra atención. La intención es evaluar los
conocimientos y procesos implicados en la resolución de una tarea asignada por el
profesor en situación escolar con un grupo relativamente amplio de estudiantes.
Metodológicamente nos interesa la recolección de datos por escrito, en los que podamos
observar el análisis y los razonamientos que surgen en los estudiantes al tratar de
comparar variables aleatorias por medio de la comparación de variables estadísticas. Es
decir, de realizar un proceso de inferencia informal.
Los datos se obtuvieron a través de una prueba de ensayo abierta, que fue
previamente utilizada en investigaciones dentro de nuestro grupo de investigación
(Godino, Batanero, Roa y Wilhelmi, 2008; Arteaga, 2011). En este trabajo, tanto esta
prueba como los datos obtenidos a través de ella se analizan desde una perspectiva
diferente, nos centramos en la variable aleatoria y los objetos relacionados con ella para
complementar los trabajos anteriores con nuevos resultados, algunos de los cuales han
sido publicados en Ruiz, Arteaga y Batanero (2009 a y b) y Ruiz, Batanero y Arteaga
(2011).
La tarea consistió en hacer un informe del análisis de un conjunto de datos,
obtenidos por los mismos estudiantes, para tratar de responder a una pregunta propuesta
por el profesor sobre las intuiciones de los estudiantes acerca de la aleatoriedad. El
proyecto fue abierto porque los estudiantes participantes tuvieron la libertad de analizar
los datos en la forma que considerasen mejor, incluyendo o no gráficos, tablas o
resúmenes estadísticos.
La actividad involucra a la variable aleatoria, tanto en la fase de recogida de
datos, como en el trabajo de análisis de los estudiantes y en la elaboración de sus
conclusiones. Además, hace surgir la variable estadística y a diferentes objetos
matemáticos asociados a ella. También es una situación potencialmente rica para
analizar el uso que el estudiante hace de la variable aleatoria y estadística en una
situación de modelación.
Al tratarse del análisis de una producción escrita, nos permite acceder a un
mayor número de alumnos que en el caso de la entrevista clínica, por lo que,
283
Capítulo 6. Estudio 4
presuponemos, los resultados que se obtengan pueden ser más generalizables. Como
contraste, puesto que el análisis de los razonamientos de los estudiantes es indirecto, a
través de sus producciones escritas, nos será más difícil acceder al nivel profundo del
razonamiento del estudiante. Dicho de otro modo, los resultados de este capítulo, en
comparación con los presentados en el Capítulo 5 tendrán mayor fiabilidad pero menor
validez.
La estructura de este capítulo es similar a la del anterior. Se inicia con los
preliminares del estudio y la planeación y el diseño del protocolo de observación. Éste
se concreta en un proyecto que será entregado y resuelto por los estudiantes y que, junto
con las hipótesis, establecerán las bases del análisis de las producciones de los
estudiantes. Se presenta la solución del proyecto propuesto, en donde es menester
analizar los datos obtenidos por los estudiantes durante la realización de la actividad en
clase, y se destaca la relación que se establece entre la variable aleatoria y la estadística.
Los objetos de análisis del estudio se describen antes de presentar los resultados y su
análisis. Estos últimos, se organizan y exponen a un tiempo y de acuerdo a los objetos
de análisis. Finalmente, en las conclusiones, se confrontan los resultados obtenidos con
las hipótesis de investigación y se analiza la idoneidad del proyecto planteado como
base del estudio.
2. Preliminares
En este apartado situaremos el estudio en el entorno en el que fue realizado. Hacemos
explícito el contexto escolar en el que se desenvolvían los estudiantes que participaron
en la investigación, las características de los estudiantes que participaron en el estudio y
el contexto así como la descripción de las condiciones en que se llevó a cabo la
situación de enseñanza.
El proyecto abierto se aplicó a estudiantes que se encontraban cursando el
segundo año del antiguo plan de estudio de la Diplomatura de Magisterio en la
especialidad de Educación Primaria de la Facultad de Ciencias de la Educación de la
Universidad de Granada, España.
284
Evaluación de un Proyecto abierto
285
Capítulo 6. Estudio 4
análisis de datos, aunque sólo una vez y los datos no fueron recogidos por ellos, sino
dados por el profesor. No se dedicó tiempo al estudio formal de la variable aleatoria.
En resumen, los estudiantes participantes tenían ideas elementales de estadística
descriptiva y probabilidad, por lo que podemos considerar que la actividad propuesta en
el proyecto fue el primer encuentro con la idea de variable aleatoria para la mayoría.
286
Evaluación de un Proyecto abierto
287
Capítulo 6. Estudio 4
288
Evaluación de un Proyecto abierto
1
PPDAC es el acrónimo que resume las etapas del ciclo: Problema-Preguntas y Plan-Datos-Análisis-
Conclusiones
289
Capítulo 6. Estudio 4
290
Evaluación de un Proyecto abierto
2008). Rossman (2008) sugiere usar la simulación para conectar la aleatoriedad que los
estudiantes perciben en el proceso de recogida de datos con la inferencia del modo
siguiente: a) Comenzar con una hipótesis sobre los datos; b) usar experimentación o
simulación para reflexionar si los datos observados son plausibles cuando la hipótesis es
cierta; y c) rechazar (o confirmar) la hipótesis inicial basándose en los resultados.
Acordes con los autores anteriormente citados, en el proyecto se les propone a
los estudiantes una investigación para comprobar si los alumnos de la clase en su
conjunto tienen una buena intuición sobre la aleatoriedad. En el transcurso de la misma
los estudiantes recogen datos individuales y colectivos sobre un experimento de
percepción de la aleatoriedad basado en las investigaciones sobre este tema de Green
(1989), Green y Hunt (1992), Toohey (1995) y Serrano (1996). En la primera sesión de
clase dedicada a la práctica (2 horas), el profesor plantea el proyecto, siguiendo la
metodología y actividades descritas en la Sección 4.2 de este capítulo. Para poder dar
respuestas a las preguntas planteadas es necesario que cada uno de los estudiantes
realice un experimento que pone a prueba sus intuiciones. Se recogen los datos de toda
la clase en una hoja preparada para ello. A cada alumno se le entrega una copia de la
hoja y se le deja como tarea extra-clase analizar los datos obtenidos para responder las
preguntas planteadas. Antes de cerrar la sesión se discute brevemente qué es la
aleatoriedad, cómo se podrían evaluar las intuiciones sobre ella y qué variables sería
pertinente utilizar para ello. En el Anexo 2 se encuentra la actividad completa y las
instrucciones dadas a los estudiantes.
291
Capítulo 6. Estudio 4
Las conjeturas iniciales de los alumnos pueden ser variadas e incluir el caso de
estudiantes que crean que pueden adivinar los resultados de un experimento aleatorio o
bien los pueden controlar de algún modo. Estas serían manifestaciones de la llamada
ilusión de control2, así como del enfoque en el resultado aislado (Outcome approach)3.
Con el profesor dirigiendo, la clase discute que un estudiante podría acertar su
previsión sobre el resultado de un experimento aleatorio, sin embargo, hay que resaltar,
que eso sólo sería por mero azar, pues, como bien sabemos, el resultado de un único
experimento aleatorio no puede preverse con seguridad. También hay que subrayar que
el objetivo de la estadística es prever el comportamiento de una serie de ensayos o de
una población, es decir, una distribución de valores, aunque no se pueda predecir cada
valor particular. Se ponen ejemplos del uso de la estadística para realizar predicciones,
por ejemplo, en las encuestas de intención de voto y explica cómo se recogen los datos
estadísticos para analizarlos.
Con este planteamiento, el profesor propone la necesidad de realizar una prueba
con toda la clase y se organiza un experimento del cual se extraerán datos para que cada
estudiante los analice en la forma que considere mejor. También de este modo se
completará el ciclo completo de investigación de Wild y Pfannkuch (1999), pues una
vez planteada la pregunta (¿Son buenas las intuiciones respecto al azar?) surge la
necesidad de tomar datos para responderla. Justamente reconocer la necesidad de datos
en una investigación es otro de los modos de razonamiento estadístico fundamental en
el modelo de Wild y Pfannkuch.
2
La ilusión de control fue descrita originalmente por Langer (1975). Él observó que, en juegos de azar,
como la lotería o de cartas, se podía generar en las personas la creencia ilusoria de que poseían la
capacidad de poder influir en el resultado.
3
Éste fue descrito por Konold (Konold, 1989; Konold, et al, 1991) como la actitud de las personas de
enfocarse en saber cuál será exactamente el resultado del siguiente experimento, sin observar el
comportamiento poblacional. Se describirá más detalladamente en la Sección 7.1.1.
292
Evaluación de un Proyecto abierto
2. Realización individual del experimento de lanzar una moneda y anotar los resultados
en una pauta cuadriculada.
Vamos a comprobar qué tal son tus intuiciones respecto a los resultados aleatorios. Abajo
tienes dos cuadrículas. En la primera de ellas escribe 20 resultados sin realizar realmente el
experimento. En la segunda mitad lanza la moneda 20 veces y escribe los resultados
obtenidos. Pon C para cara y + para cruz.
Lanzamiento simulado
Lanzamiento real
293
Capítulo 6. Estudio 4
Se espera que el estudiante pueda sugerir de manera natural trabajar con las
anteriores variables, no en el sentido específico de que sea consciente de la existencia y
diferencias entre las variables aleatorias y estadísticas, pero sí que sea capaz de
enunciarlas y analizarlas informalmente como variables útiles en la evaluación de la
aleatoriedad de las secuencias. En particular, suponemos que, mediante un proceso de
inferencia informal, será capaz de comparar las características de las distribuciones de
las variables Xr y Xs para conjeturar sobre las semejanzas o diferencias entre ζr y ζs y de
ahí deducir sobre las intuiciones respecto al azar.
Seguramente algún alumno sugerirá contar el número de caras y cruces y
deducir que deben ser aproximadamente iguales, ya que hay las mismas posibilidades
para obtener cara que cruz. Esto mostrará una concepción correcta sobre la variable
aleatoria ζr y la correspondiente variable estadística Xr cuyo valor medio ha de coincidir
con p, puesto que la media de una muestra es un estimador insesgado de la media en una
población (Ríos, 1967). También esperamos que denote un cierto grado de capacidad de
modelación, pues es de suponer que el alumno trate de estudiar la veracidad de sus
294
Evaluación de un Proyecto abierto
295
Capítulo 6. Estudio 4
Se espera que, con sus preguntas, el profesor guíe a los alumnos a ir más allá de
sus propios datos y a poner atención a los de sus compañeros: propone trabajar con el
número de caras que obtuvo cada alumno en su experimento particular (es decir, el
número de caras en una secuencia de 20 lanzamientos) y analizar esta variable en el
total de los alumnos. Se comienza por identificar el valor máximo y mínimo del número
de caras que apareció en la clase, apreciar que los diferentes alumnos obtienen diversos
valores e interesarse por los más frecuentes. Se trata, aunque no explícitamente, de
inducir en los estudiantes la idea de organizar un recuento y una tabla de frecuencias
para resumir la información tanto en las secuencias reales como en las simuladas para
finalmente comparar las dos distribuciones y analizar si existen diferencias importantes
que indiquen que su intuición los engaña (o no) con respecto a la aleatoriedad.
Así, el siguiente paso es organizar la recolección de los datos de todos los
alumnos de la clase, tanto del número de caras en las secuencias simuladas como en las
reales. Con esta actividad, aparecen dos nuevas variables aleatorias y sus
correspondientes variables estadísticas:
La variable ηr que correspondería al número de caras en 20 lanzamientos de
la moneda equilibrada, por tanto sería una variable aleatoria Binomial con
parámetros n=20 p=q=1/2. Su media, sería igual a np y su varianza igual a
npq (Ríos, 1967). Con respecto a esta variable podemos analizar si el
estudiante percibe su variabilidad y si tiene una intuición de su valor medio y
de los valores más probables.
La variable aleatoria ηs que correspondería al número de caras en una
secuencia de longitud 20 inventada por los estudiantes y que usamos como
modelo matemático para reflejar las intuiciones colectivas sobre los
experimentos aleatorios. Esperamos que no siga la distribución Binomial,
pues la investigación didáctica muestra que los ensayos producidos en este
tipo de experimentos no son independientes, aunque la probabilidad de cara
sigue siendo p=1/2 (Green, 1982, 1989; Toohey, 1995; Serrano, 1996).
296
Evaluación de un Proyecto abierto
Una vez recogidos los datos del grupo completo, la finalidad es que el estudiante
los resuma formando la distribución de frecuencias de las correspondientes variables
estadísticas Yr y Ys para proceder, primeramente al análisis de cada una de estas dos
variables y luego a la comparación de las principales diferencias en su distribución. De
ello esperamos que extrapole a las diferencias entre las correspondientes variables
aleatorias ηr y ηs y de ahí obtenga conclusiones respecto a sus intuiciones a través de un
proceso de inferencia informal. Esperamos que los estudiantes se den cuenta que las
variables tienen la misma media, pero distinta dispersión, es decir, que las intuiciones
sobre el número de caras son buenas con respecto al promedio, pero la secuencia de los
alumnos tiene menos variabilidad que las secuencias reales.
297
Capíítulo 6. Estuudio 4
Lanzaamiento real:
+ C + C + + C C + C C C + + + + + C + +
298
Evaluación de un Proyecto abierto
299
Capítulo 6. Estudio 4
estudiante observe que el valor medio de las rachas de las secuencias reales es mayor
que el de las de las secuencias simuladas.
La sesión finaliza con algunas instrucciones muy generales sobre el proyecto que
deberán de completar en casa. Se les da la hoja de los datos recogidos y se les pide que
los analicen y hagan un informe escrito que entregarán la siguiente semana. Se aclara
que en su informe deberán incluir todos los análisis y gráficos producidos y escribir sus
conclusiones (razonadas y sustentadas en el análisis realizado) sobre las intuiciones de
la clase con respecto a los experimentos aleatorios.
300
Evaluación de un Proyecto
P abbierto
T
Tabla 6.2. Hoja
H de datoos de una clase
Seecuencia simuulada Secuencia
S Reaal
Alumnoo Númeroo Número Racha Número Número de
d Racha
No. de Carass de Rachass Mayor de Caras Rachas Mayor
1 10 13 3 12 9 4
2 11 13 3 9 10 4
3 10 13 3 11 13 3
4 10 11 3 15 9 6
5 11 13 2 11 11 4
6 10 14 3 11 16 2
7 10 14 2 10 9 6
8 9 12 3 7 7 8
9 12 15 3 12 10 4
10 9 14 2 9 12 4
11 11 11 3 12 12 3
12 10 8 4 11 11 4
13 11 13 3 9 12 4
14 11 14 3 8 12 6
15 10 12 3 10 11 5
16 9 12 3 11 11 3
17 10 14 3 7 14 3
18 10 12 3 8 11 4
19 9 10 3 10 12 4
20 11 12 3 10 10 4
21 10 12 3 14 9 7
22 10 13 3 10 10 3
23 13 11 3 13 8 9
24 10 10 3 13 8 6
25 11 12 3 8 10 3
26 11 11 3 11 10 5
27 9 12 3 11 10 5
28 10 14 3 14 8 5
29 10 12 3 8 10 4
30 9 15 3 11 11 4
4.3.1. Comparaci
C ón del núm
mero de ca
aras en lass secuencia
as reales y
y
simuladas
El primeer paso en esta
e comparración es reesumir la innformación en una tabbla de
frecuuencias (Tabbla 6.3) quee permita annalizar los datos más fácilmente.
f Para prepaarar la
301
Capíítulo 6. Estuudio 4
tablaa, los estudiiantes necessitan contarr la frecuenncia de valoores de cadaa una de laas dos
variaables estadíssticas, con ello
e formulaarán la distrribución de las mismas. Los estudiiantes
podríían construiir una tablaa como la mostrada
m o bien
b dos tablas separaddas para cadda una
de llas variablees. Podríann también completar la tabla con frecueencias relaativas,
frecuuencias acum
muladas y porcentajes.
p Todos estoos conocimiientos les soon accesiblees por
sus eestudios de secundaria
s y del primer año en la Facultad.
F
16
14
12 Simulaada
Frecuencias
10 Real
8
6
4
2
0
Número de
e caras
F
Figura 6.1. Diagramas
D d Barras dell número de caras en secu
de uencias realees y simuladaas
302
Evaluación de un Proyecto abierto
16
14
12 Simulada
Frecuencias
10 Real
8
6
4
2
0
Número de caras
Figura 6.2. Polígono de frecuencia del número de caras en las secuencias reales y
simuladas
En caso de que los estudiantes los conozcan, también podrían realizar algunos
gráficos de caja (Figura 6.3) de las dos secuencias, donde se muestran más claramente la
coincidencia de las medianas y al mismo tiempo podemos comparar visualmente la
media y los cuartiles. Es muy evidente la menor dispersión, que indica que al tratar de
simular un fenómeno aleatorio somos menos variables de lo que ocurre en la realidad;
no percibimos completamente la variabilidad aleatoria, tenemos una tendencia a
reducirla (Engel y Sedlmeier, 2005). También permite identificar los alumnos que
produjeron resultados atípicos.
En caso de que los estudiantes produzcan algunos de los gráficos anteriores en
forma separada, sería importante usar las mismas escalas y si construyen histogramas
los mismos intervalos y tomar valores centrados en números enteros, al ser la variable
discreta. Con el fin de poder comparar los gráficos y de obtener gráficos fáciles de
interpretar.
303
Capítulo 6. Estudio 4
Gráficos de cajas
Número de caras
carasim
S. Simulada
caras
S. Real
7 8 9 10 11 12 13 14 15 16
304
Evaluación de un Proyecto
P abbierto
Finalmen
nte presentamos en laa Tabla 6.55 y en la Tabla
T 6.6 loos contrastees de
hipóttesis de laa diferenciaa de mediaas (mediantte el test t de Studeent de mueestras
relaccionadas) y de diferenccias de varianzas (meddiante la pruueba F). Loos estudianttes no
tieneen acceso a este conociimiento, por lo que no se espera que
q ellos haagan este tippo de
305
Capíítulo 6. Estuudio 4
estuddios; sin em
mbargo a nosotros
n co
omo investigadores, noos dará la referencia de la
solucción matem
mática del problema.
El contraaste de diferrencias de medias
m (Tabbla 6.5), perrmite ver enn primer luggar, el
solappe de los inntervalos dee confianza del 95% y que el inteervalo de confianza
c paara la
diferrencia de medias
m contieene el origeen de coorddenadas. Poor otro lado, el valor de
d la t
obtennido para la diferenccia de meddias es muuy cercano al origen,, por lo quue la
probaabilidad dee obtener laa diferenciaa dada en caso
c de igualdad en laas medias de
d las
poblaaciones es 0,47,
0 es deccir, muy altaa. Todos esttos indicadoores permiteen afirmar que
q la
igualldad de meedias del núúmero de caras
c en seccuencias reeales y simu
uladas se podría
p
generalizar a lass poblacionees de alumnnos de dondde se obtuvieeron las mu
uestras.
T
Tabla 6.6. Resultado deel contraste de diferenciaa de varianzaas
4.3.2. Comparaci
C ón del núm
mero de ra
achas en la
as secuenccias realess y
simuladas
El annálisis mateemático parra compararr las secuenncias a través del núm
mero de rachhas es
pareccido al anállisis de la variable anteerior, por loo que será más
m escuetam
mente trataddo en
este apartado. Tanto
T en la tabla de frecuenciaas (Tabla 6.7),
6 como en los disttintos
gráficos (Figuraa 6.4), se oobserva un desplazamie
d ento de la distribución
n del númeero de
306
Evaluación de un Proyecto
P abbierto
rachaas en las seccuencias reaales respectto a las simuuladas, lo quue muestra notoriamennte un
mayoor valor medio del núúmero de rachas
r l secuencias simuladdas. Tambiéén se
en las
puedde notar conn claridad una
u dispersióón semejannte o incluso
o menor. Laa conclusiónn que
se esspera que loos estudianttes obtengaan de esta observación
o n es que loss valores medios
m
son ahora diferrentes, peroo con la misma
m dispersión. Dich
ho de otra manera, cuuando
simuulamos secu
uencias aleaatorias prod
ducimos máás rachas qu
ue las que se esperaríaan en
una ssecuencia reealmente aleeatoria.
Tabla 6.7.
6 Distribbución de freecuencias y estadísticos del
d número de
d rachas
Secuuencia Secueencia
Valor Estadístico
Simulada Real Simulada Real
7 0 1 Media 12,4 10,5
8 1 3 Moda 12 10
9 0 4 Mediana 12 10
10 2 8 Máximo 15 16
11 4 6 Mínimo 8 7
12 9 5 Rango 7 9
13 6 1 Desv. Típ. 1,6 1,9
14 6 1 Varianza 2,4 3,6
15 2 0
16 0 1
Total 30 30
307
Capíítulo 6. Estuudio 4
Las difi
ficultades que
q podríaan tener loos estudian
ntes en laa producción e
interppretación de
d tablas, grráficos y resúmenes esstadísticos son
s similarees a las desscritas
en eel apartado anterior. Sin
S embarg
go, de acueerdo con Arteaga
A (20011), la varriable
«núm
mero de rach
has» será menos
m utilizaada porque al realizar este
e tipo de experimenttos, la
habíaan considerran menos que la vaariable «núm
mero de caaras», que les resultaa más
familliar.
omparación entre variaanzas (Tablaa 6.9), los intervalos de
En la co d confianzza del
mos un valoor F (razón de varianzaas) cercano a la unidadd con
95% se solapann, y obtenem
una probabilida
p ad (valor p) igual a 0,331, valor quue ocurre una
u de cadaa tres vecess, por
tantoo es relativvamente prrobable. Coomo conseccuencia no podemos asumir quue las
distriibuciones teengan difereente disperssión en este caso.
T
Tabla 6.9. Resultado deel contraste de diferenciaa de varianzaas
4.3.3. Comparaci
C ón de la lo
ongitud de
e la racha m
mayor en llas secuencias
reales y sim
r muladas
A coontinuación
n se repitenn los análissis para la variable «longitud
« d la rachaa más
de
grandde». En estee caso tambbién las difeerencias sonn evidentes. En la tabla de frecuenccias y
en loos estadísticcos (Tabla 6.10) se obbserva que la longitud
d mayor dee la racha de
d las
secueencias prodducidas por los estudiaantes se conncentra entree 2 y 4 mieentras que en
e las
realees varía entrre 2 y 9.
Estas differencias soon más claraas en las diferentes grááficas (Figuura 6.5), tannto en
lo quue concierne a la diferrencia de vaalores centrrales (moda en los diaggramas de barra,
b
políggonos de frecuencia
f mas y meddiana en loos gráficos de caja) como
e histogram
diferrencia de diispersión. Las
L rachas generadas
g p los estuddiantes sonn muy cortaas con
por
respeecto a las que se prresentan enn un processo aleatorioo. Ademáss, hay una gran
308
Evaluación de un Proyecto
P abbierto
T
Tabla 6.10. Distribución
D n de frecuenccias y estadíssticos de la loongitud de laa racha mayoor
Secuuencia Secueencia
Valor
Simulada Real Simulada Real
2 3 1 Media 2,9 4,6
3 26 6 Moda 3 4
4 1 12 Mediana 3 4
5 0 4 Máximo 4 2
6 0 4 Mínimo 2 9
7 0 1 Rango 2 7
8 0 1 Desv. Típ. 0,36 1,56
9 0 1 Varianza 0,13 2,46
Total 30 30
Figura 6.5
5. Algunos gráficos
g de laa longitud dee racha mayoor en secuenccias reales y
simuuladas
Com
mo en el casso de las vaariables antteriores reaalizaremos contrastes
c d hipótesiss para
de
obtenner la solucción matemática (Tablaa 6.11 y Taabla 6.12). En
E esta varriable los vaalores
mediios de la diistribución simulada
s soon menoress y lo mism
mo ocurre co
on la disperrsión.
Tantoo las difeerencias dee medias como lass de variaanza son estadísticam
mente
E ninguno de los dos casos se solapan los intervalos de
signiificativas. En d confianzza del
309
Capíítulo 6. Estuudio 4
T
Tabla 6.12. Resultado deel contraste de diferenciaa de varianzaas
Inteervalo de confi
fianza de 95%
desviación típ
pica de la longgitud de la raccha mayor en las
l secuenciass simuladas ( 0,29 - 0,499 )
desviación típ
pica de la longgitud de la raccha mayor en las
l secuenciass reales ( 1,25 - 2,11 )
Valoor F F = 0,05
Valoor p 0,0000000
4.3.4. La conclusi
L ión: Una re
espuesta a
a la pregun
nta del pro
oyecto.
Supoonemos que una parte de
d los estudiantes integgrarán las coonclusiones obtenidas en
e los
l variables de los inccisos anterioores y que serán
análiisis individuuales de cadda una de las
capacces de emittir una connclusión glo
obal con resspecto al grrupo complleto que poodrían
apliccar con resppecto a sí mismo
m (com
mo parte deel grupo), para
p deducirr si tiene buuenas
intuicciones sobrre el azar.
Se esperra que concrreten una co
onclusión en
e donde maanifieste qu
ue la aleatorriedad
en laa secuencia simulada esstá condicioonada, princcipalmente, por las variiables númeero de
carass y longitudd de la rachha más grannde. Al iguual que en la
l investigaación de Arrteaga
(2011) esperam
mos que alguunos de elloos generen argumentoss parecidos al siguientte o a
algunnas partes del
d mismo:
L
Los resultad
dos indican que
q los estuddiantes tienenn una buenaa intuición deel número de
d
ccaras más prrobable al laanzar una moneda.
m Sin embargo, esstán tan preoocupados poor
llograr que laa media del nnúmero de caras sea 10, que tienden a hacer mucchas rachas y
ppor lo tanto la longitud de la racha más larga que
q logran innventar es muy
m corta. La L
ggran variabiilidad del número
n de rachas indica que los estudiantess no estabann
310
Evaluación de un Proyecto abierto
Nos dimos cuenta que la aleatoriedad puede ser observada y evaluada por medio de las
distribuciones de las tres variables que manipulamos en el proyecto. Así mismo, que
es importante considerar las medidas de tendencia central y de dispersión en su
conjunto.
311
Capítulo 6. Estudio 4
5.1. Aleatoriedad
La aleatoriedad no sólo es un objeto matemático con el que se relaciona
epistémicamente la variable aleatoria, también es el contexto en el que se desarrolla el
proyecto, puesto que proponemos un experimento clásico sobre percepción de la
aleatoriedad. Es particularmente importante indagar, entonces, sobre el conocimiento
que los estudiantes tienen acerca de ella y la forma en que ese conocimiento influye
sobre su razonamiento estadístico y viceversa (Makar, Bakker y Ben-Zvi, 2011).
Así, la aleatoriedad se presenta en dos niveles en la investigación. Por un lado,
las concepciones de los estudiantes se deberán ver reflejadas en los datos recogidos en
el experimento propuesto en el proyecto. Por otro, puesto que se pide a los estudiantes
que usen los resultados de un experimento aleatorio para analizar sus propias
concepciones sobre «el azar», las conclusiones obtenidas por los estudiantes y sus
argumentos como parte de su análisis nos permitirán también acceder a su visión sobre
la aleatoriedad. Así, en el proyecto se evaluará la concepción de aleatoriedad desde dos
perspectivas, a) en una observaremos globalmente las percepciones sobre el azar del
grupo completo en el análisis de los datos de sus secuencias inventadas; b) en la otra a
través de las razones individuales de los estudiantes para justificar su conclusión ante la
pregunta sobre las intuiciones del azar del grupo completo. Por el tipo de información y
el diseño de la recopilación de la información, la primera permite un análisis más
cuantitativo, la segunda, en cambio, será cualitativo.
En las preguntas planeadas, hemos evitado el uso de términos más sofisticados
que el estudiante podría desconocer; por eso utilizamos el término «azar» como
expresión coloquial para referirnos a la aleatoriedad. La idea de azar es más amplia e
involucra concepciones filosóficas y epistemológicas sobre las que no profundizaremos
en este trabajo, sin embargo estaremos atentos a ellas porque implícitamente determinan
comportamientos y creencias de los estudiantes. Dentro de las múltiples concepciones
históricas sobre aleatoriedad (ver resúmenes en Batanero y Serrano, 1995; Serrano,
1996; Bennett, 1998; Batanero Henry y Parzysz, 2005), en este proyecto adoptamos los
dos aspectos constitutivos de este objeto que devinieron como importantes a partir de
los desarrollos teóricos de la inferencia estadística y que fueron diferenciados por Zabell
(1992):
El proceso de generación de resultados aleatorios, que es lo que
matemáticamente se conoce como experimento aleatorio. Detrás de este
aspecto, está el supuesto de que el carácter aleatorio del proceso asegura que
los resultados obtenidos a partir de él, sean aleatorios. En nuestra
investigación consideramos la evaluación del experimento más simple
312
Evaluación de un Proyecto abierto
313
Capítulo 6. Estudio 4
314
Evaluación de un Proyecto abierto
5
Von Mises, basándose en la idea de colectivo, definió la aleatoriedad como una serie de acontecimientos
o procesos que «satisfacen la condición de ser reacios a toda ley o arbitrarios» (p. 45) y que también
cumplen con las propiedades de que «la frecuencia relativa de sus atributos debe poseer valor límite… (y
que) éstos valores límite no deben alterarse en las sucesiones parciales que podamos seleccionar de la
original» (p. 46).
315
Capítulo 6. Estudio 4
316
Evaluación de un Proyecto
P abbierto
Esperam
mos que la unión
u del conocimient
c to estadísticco y del coontexto les lleve,
con aayuda del profesor, a trransformar la preguntaa inicial, quee es demasiiado vaga, a unas
preguuntas que se puedan contestar, ¿Cuáles soon las caraacterísticas que poseeen las
secueencias aleaatorias? ¿Cuuál será el número essperado de caras y crruces? ¿Cuuántas
rachaas se podríaan esperar en
e una secuuencia aleatooria?, ¿qué tan largas?? ¿Cuáles soon las
diferrencias, en términos dde las variaables analizzadas, entree una secueencia real y una
simuulada? ¿Quéé medidas auxilian
a a este
e análisiis y cuáles no? ¿Las mismas
m meedidas
tieneen la mismaa importancia en todas las variablees? Para finnalmente reecoger, resumir y
analiizar la inform
mación quee, al final, lees permitiráá concluir enn el contextoo del probleema.
Objeto matemáticco D
Desglose Evaluacción en el proyyecto
5
5.2. Varriable esta
adística y
y su distrib
bución
La m
mayor cantiidad de infformación recogida
r enn los protoccolos de loos estudianttes se
refierre a la conccepción y uso
u de variaables estadísticas y a loos objetos relacionado
r os con
ellas: distribucióón, promediios y disperrsión. En essta parte dell análisis noos acercarem
mos a
su ccomprensiónn desde loos objetos matemátiicos que es
e capaz de construirr: los
proceedimientos usados, los conceptos puestos en juego y el lenguaje
l quue utiliza a través
t
de loos indicios que
q nos mueestre su infoorme escritoo.
317
Capítulo 6. Estudio 4
318
Evaluación de un Proyecto
P abbierto
Tab
bla 6.14. Evvaluación de la comprensión de la varriable estadísstica
Variiable estadísticca Variaable estadísticca como la Referenciaa a las variablees como formaa de
variaable de interéss que toma evaluar aleeatoriedad
diferrentes valores en un Referenciaa al rango de variación
v
conjuunto de datos Referenciaa a que cada esstudiante podrría
Diferrenciación de conjunto obtener un valor diferentte
origiinal e imagen Referenciaa a los distintos valores que toma
la variable
Distrribución de laa Commprensión de laa idea de Agrupaciónn de valores similares,
variaable estadísticca distriibución ordenación n y cálculo de frecuencias
Reprresentación dee la Paso de dattos desordenaados a una
distriibución distribuciónn de frecuencias en tabla o
gráfico
Nivel de coomprensión dee la distribucióón
Meddidas de posiciión Medidas de posiciión que se Medidas quue se calculann
centrral usan Referenciaa que se hace a sus propiedaades,
Commprensión de su significado definición o significado
Meddidas de disperrsión Medidas de disperrsión que se Medidas quue se calculann
usan Referenciaa que se hace a sus propiedaades,
Commprensión de su significado definición o significado
319
Capítulo 6. Estudio 4
Por otro lado, acordes con Konold, Pollatsek, Well y Gagnon (1997), estimamos
que los estudiantes se apoyarán en las medidas de tendencia central y de dispersión para
realizar las comparaciones entre las distribuciones. Sin embargo estos autores también
indican que para algunos estudiantes no es intuitivo el uso de la media como
representante para comparar dos conjuntos de datos. En su lugar, los estudiantes usan
parte de los datos, por ejemplo comparan los máximos o el rango. También se podría
presentar que los estudiantes usasen las medias pero las malinterpretasen o llegasen a
una conclusión errónea en la comparación.
En la Tabla 6.14 indicamos, a modo de resumen, el desglose de los elementos
que se evaluarán en las producciones de los estudiantes en relación a la variable
estadística, entre los que incluimos el nivel de comprensión mostrado sobre la
distribución, que deduciremos del tipo de gráfico o tabla construido.
320
Evaluación de un Proyecto abierto
321
Capíítulo 6. Estuudio 4
Tabla 6.15
5. Evaluacióón de la com
mprensión de la variable aleatoria
a en el
e proyecto
5
5.4. Cicllo de mod
delación
La concceptualizacióón de las variables aleatorias
a y estadísticas tambiénn está
relaccionada conn la capacidad del estuddiante de vincular la herramienta
h matemática con
el obbjetivo de la
l preguntaa en cuestióón en las diversas fasees del ciclo
o de modellación
(Chaaput, Girardd y Henry, 2011),
2 tal coomo se desccribe en el Punto
P 9.6 deel Capítulo 3. En
la sittuación pro
oblema de nuestra
n investigación, se observaaría por la forma
f en qque el
estuddiante es caapaz de vinccular el trabbajo estadísstico con laas variables que surgieeron a
partirr de la disccusión en cllase orientaada por su profesor
p n la respuessta a la pregunta
con
sobree las intuicciones del grupo
g con respecto all azar del grupo. La forma en cómo
concebimos estee objeto de análisis
a estáá sintetizadoo en la Tablla 6.16.
Adoptam
mos la perceepción de Wild
W y Pfannnkuch (19999) en cuantoo a su definnición
modelo estaadístico: «sse refiere a todas nuuestras conncepciones estadísticas del
de m
probllema que influyen
i enn cómo reccolectamos datos acerrca del sisttema y cóm
mo lo
322
Evaluación de un Proyecto abierto
analizamos» (p. 230). De esta forma, consideramos que el estudiante trabaja con
modelos matemáticos en cuanto produce un gráfico o calcula un estadístico, puesto que
éstos se convierten en partes de la forma en que se evalúa, representa o visualiza un
conjunto de datos. Además, en estos gráficos, tablas o resúmenes el estudiante ha
abstraído de la realidad, pasando de ella (estudiantes, sus intuiciones) a un objeto
matemático (tabla, gráfico, frecuencias, variables) con el que trabaja.
La inferencia informal que se pretende que el estudiante haga, plantea el ciclo de
modelación completo que describe Dantal (1997), puesto que para que el estudiante
pueda contestar la pregunta de investigación del proyecto, es necesario que visualice a
la variable aleatoria como una generalización de la variable estadística y a la
probabilidad como el modelo teórico de la frecuencia relativa para poder formular la
distribución del modelo teórico último de la situación. A partir de ese modelo, es
necesario retornar a la realidad y concluir en ella. El proceso, por tanto se describe a
través de una modelación por estratos, tal como se describe en la Figura 3.6 del Capítulo
3.
El análisis de la variable estadística, así como la forma en que se establece la
relación entre la variable aleatoria y la variable estadística ya se trataron en los puntos
anteriores (5.2 y 5.3). Para no ser repetitivos, en objeto de análisis nos enfocaremos de
manera más intensa en la corrección del uso de dichos modelos matemáticos y, en
particular, a las fases iniciales y finales del proceso, describiendo someramente las fases
iniciales. En la última fase queremos ver si el estudiante interpreta correctamente el
resultado de su trabajo matemático, tanto desde una perspectiva matemática, como al
contexto de la investigación planteada. Es decir, tanto si realizan una inferencia
informal, como si completan el ciclo de investigación de Wild y Pfannkuch (1999).
Como indica Dantal (1997) los profesores en las clases de matemáticas insisten
más en el trabajo con el modelo (cálculos matemáticos) y no en las fases iniciales
(planteamiento de las preguntas y construcción del modelo) y finales (interpretación de
resultados para sacar unas conclusiones) del ciclo de modelización. Es por esto que
esperamos que los estudiantes de la muestra tengan problemas en llegar a las
conclusiones finales sobre las intuiciones de los estudiantes de la clase.
323
Capítulo 6. Estudio 4
324
Evaluación de un Proyecto abierto
325
Capítulo 6. Estudio 4
conclusiones de los gráficos podría extenderse al resto del análisis hecho por
los estudiantes, quienes tampoco obtendrían conclusiones del cálculo de
estadísticos o de las tablas o emitirán una conclusión general sobre sus
intuiciones sobre el azar en donde se involucren todas las variables.
Se reproducen algunas de las dificultades encontradas en la entrevista
clínica, en particular la confusión de algunos estudiantes entre variable
dependiente e independiente. Esta hipótesis se basa en los resultados de la
entrevista (Capítulo 5) y también en algunos resultados de Arteaga (2011).
326
Evaluación de un Proyecto abierto
detonador del proyecto es hacer que el estudiante se cuestione acerca de sus mismas
concepciones sobre la aleatoriedad, lo que requerirá hacer uso crítico de la herramienta
estadística y probabilística. Por otro lado, la aleatoriedad, como objeto matemático,
tiene un papel crucial dentro de la red de objetos emergentes vinculados a la variable
aleatoria, por lo que su comprensión influirá en la forma en que trabaje y comprenda
este objeto.
Como hemos analizado en la Sección 5.1, dentro del proyecto, la aleatoriedad se
manifiesta en el lanzamiento de una moneda equilibrada, experimento aleatorio que se
utiliza para recoger los datos que se analizan en el proyecto y como referencia para que
los estudiantes evalúen las concepciones sobre aleatoriedad del grupo completo,
haciendo uso, también, de sus propias concepciones sobre la aleatoriedad. De acuerdo a
la Tabla 6.13, en esta sección analizaremos de dos maneras las producciones escritas
para visualizar las concepciones sobre la aleatoriedad de los estudiantes desde dos
enfoques:
Individualmente, del análisis de los argumentos que los estudiantes emplean
a lo largo del proyecto para obtener sus propias conclusiones o realizar su
propio análisis. Esto se puede observar principalmente cuando se refieran al
experimento que ellos realizaron y que consiste en lanzar 20 veces la
moneda y sus posibles resultados y en las conclusiones de su análisis,
cuando evalúen la intuición del grupo de alumnos de la clase sobre
aleatoriedad, pues en esta evaluación sin duda influyen sus propias
concepciones del objeto.
Globalmente, al analizar las características de las secuencias aleatorias
simuladas por los estudiantes, pues la tarea es similar a las propuestas en
estudios sicológicos sobre la percepción de la aleatoriedad (Falk y Konold,
1997; Batanero y Serrano, 1995 y 1999). El análisis de los datos del total de
los estudiantes será similar al presentado en la Sección 5.1. Los resultados se
compararan con otras investigaciones sobre la percepción subjetiva de la
aleatoriedad.
327
Capítulo 6. Estudio 4
Sobre todo destacamos que es imposible hacer una previsión de resultados ya que en
este tipo de experimentos aleatorios todo resultado es imprevisible [Alumno AA].
Konold (1989) describió esta actitud mostrada por los dos estudiantes, como el
enfoque en el resultado aislado. Se caracteriza porque los estudiantes no interpretan las
preguntas de una forma probabilística, sino que enfocan la pregunta hacia saber cuál
será exactamente el siguiente resultado, lo que les impide tomar una decisión. Fischbein
(1975) y Fischbein, Nello y Marino (1991) reportan que esta incapacidad de emitir una
predicción sustentada es debida a la falta de habilidad para considerar la estructura
328
Evaluación de un Proyecto abierto
racional del riesgo, es decir, de sintetizar lo necesario (en el sentido filosófico de causa
y dependencia) y lo aleatorio en el concepto de probabilidad. Ellos también indican que
este comportamiento está fuertemente enraizado en los estudiantes.
El estudiante MN también hizo referencia a la imposibilidad de predicción total,
pero a diferencia de SG y AA, deja vislumbrar algún tipo de posibilidad de predicción
(inferimos que piensa en el cálculo de probabilidades al hacer referencia a sucesos más
y menos probables). En este caso la concepción sería correcta:
Mi valoración final es que en las experiencias relacionadas con el azar existen sucesos
más o menos probables pero resulta imposible predecir con exactitud el resultado
completo [Alumno MN].
329
Capítulo 6. Estudio 4
También se observó el caso contrario, es decir, estudiantes que piensan que los
fenómenos aleatorios pueden ser controlados. Fischbein, Nello y Marino (1991)
reportan una investigación en la que los estudiantes pensaron que el lanzamiento de un
dado puede llegar a ser controlado por un jugador experto a tal extremo que los
resultados serían los que él desea, presentándose la ilusión de control (Langer, 1975).
Un caso extremo lo encontramos en el estudiante LG, quien clasificó los
resultados de todos sus compañeros de grupo de acuerdo a su capacidad para predecir
los resultados, suponiendo que una buena capacidad para predecir implicaría una
concepción correcta de la aleatoriedad. Obtuvo las frecuencias de los alumnos con
«buenas y malas intuiciones» y encontró la distribución de los alumnos de acuerdo al
«error cometido». En la Figura 6.6, reproducimos el gráfico construido por él, en el que
muestra el porcentaje de estudiantes que «acierta exactamente», «aciertan con un
margen de error de ± 1» o «tienen un margen de error de ± 2»:
330
Evaluación de un Proyecto abierto
Aleatoriedad y causalidad
A través de la historia ha prevalecido la concepción de la aleatoriedad como lo opuesto
a las causas conocidas, pero también se interpreta como si la aleatoriedad fuera una
causa en sí misma. Poincare (1979/1908) menciona que los filósofos clásicos
distinguían dos clases de fenómenos: aquellos que parecían obedecer a leyes armónicas,
establecidas de una vez y para siempre, y aquellos que atribuían al azar y que no podían
preverse porque se revelan a toda ley. El autor indica que cuatrocientos años antes de
Cristo, Demócrito postulaba que todo cuanto existía en el mundo era fruto de la razón y
la necesidad. Esta postura estaba vinculada con la doctrina atomista en la que todos los
fenómenos respondían a una causa, con excepción de los átomos, que eran eternos y
móviles. De acuerdo con Bennett (1998) los fenómenos aleatorios no eran vistos como
algo «sin causa», sino que más bien, el azar era una especie de «causa oculta» (en el
sentido de desconocida). Durante los siglos XVII, XVIII y XIX, esta postura se
robusteció con el fortalecimiento y surgimiento de nuevas herramientas probabilísticas.
Laplace (2006/1814) atribuía el azar con el que se explicaban algunos acontecimientos,
como causas imaginarias «que se descartarían a medida que se ampliaran las fronteras
del conocimiento y tenderían a desaparecen por completo ante la sana filosofía que no
ve en ellas más que la expresión de nuestra ignorancia de las verdaderas causas» (p.
361). De modo que la concepción de aleatoriedad como causa puede estar vinculada
con la controversia filosófica entre el azar y la necesidad, que no ve en el azar sino la
medida de nuestra ignorancia.
Poincare (1979/1908) comenzó a diferenciar el concepto matemático del
filosófico y propone la existencia de eventos fortuitos cuya principal característica es
que siguen las leyes del azar (vistas desde una perspectiva probabilística). Poincare
continuaba creyendo que todos los efectos son producidos por causas, pero aceptó que
las causas pueden ser complejas y numerosas o que un cambio pequeño (o difícil de
medir) en las causas produce un efecto grande, lo que dificultaría conocer o aplicar la
ley que los rige (en el sentido causal). Para Poincare el azar no es producto de nuestra
ignorancia, puesto que las herramientas probabilísticas proporcionan conocimiento
sobre los fenómenos aleatorios y aun cuando se pudieran descubrir las leyes causales
que los rigen, su modelo probabilístico seguiría funcionando.
La relación entre el azar y la causalidad sigue siendo tema de controversias aún
en nuestros días. Actualmente el paradigma determinista prevalece en muchos campos
científicos y desde este paradigma la ocurrencia de un acontecimiento con probabilidad
muy pequeña (inverosimilitud de los hechos extraordinarios, desde la perspectiva de
331
Capítulo 6. Estudio 4
Laplace) está vinculada con una causa que, según Newton, «no podía ser fortuita, sino
dotada de grandes dosis de Geometría y Mecánica» (Hawking, 2006, p 355).
Actualmente, los matemáticos han desligado el objeto aleatoriedad de la idea de
azar para sustentar el desarrollo del cálculo de probabilidades, independientemente de
los debates filosóficos y epistemológicos alrededor de la idea de azar (Batanero, Henry
y Parzysz, 2005). No es raro que nuestros estudiantes defiendan la postura del azar
como causa para argumentar aleatoriedad, puesto que en su grado de estudios el
concepto matemático de aleatoriedad, no es muy tratado. Los modelos matemáticos
involucrados en su definición son complicados aún para un estudiante universitario,
pero también influye que el límite entre ambos conceptos aún es confuso y ha generado
controversias.
La respuesta del alumno AA denota este tipo de creencia:
Creemos que los datos obtenidos tanto en la secuencia simulada como en la secuencia
real son fruto del azar [Alumno AA].
332
Evaluación de un Proyecto abierto
6
En el mismo sentido, a principios del siglo XVII Galileo (citado por Bennett, 1998, p. 47) detalla las
características de un dado justo: «tiene 6 caras y cuando se tira pueden caer por igual cualquiera de ellas».
333
Capítulo 6. Estudio 4
334
Evaluación de un Proyecto abierto
no sólo una buena intuición sino también que ha sido capaz de obtener una conclusión
del comportamiento del grupo en la actividad.
Hay más variedad de valores que aparecen al azar. Son lógicos estos resultados ya que
son de forma aleatoria y en mano del azar [Alumno NC].
335
Capítulo 6. Estudio 4
En el número de rachas tanto en las simuladas como las reales los datos son muy
parecidos porque en las simuladas no tuvimos en cuenta las rachas y las pusimos sin
pensar, casi al azar [Alumno IE].
…se observa una diferencia entre los resultados simulados y los reales, ya que al
inventarlos nosotros, las simuladas son más iguales y los reales son más desiguales al
haberlos obtenido al azar [Alumno IEA].
Observando estos datos yo diría que algunas de las secuencias que han dado los
alumnos son falsas y algunas secuencias están muy ordenadas para haberlas hecho de
forma aleatoria [Alumno EA].
336
Evaluación de un Proyecto abierto
337
Capíítulo 6. Estuudio 4
T
Tabla 6.17. Medias
M e inttervalo de coonfianza de laas variables consideradas
c s en el análissis
de las seccuencias simuuladas y realles (n=111)
Media Intervalo de
d confianza all 95% de la media
m
Númmero de caras en las secuenncias simuladaas 10,29 [10,18;10,,73]
Númmero de caras en las secuenncias reales 10,45 [10,12;10,,45]
Númmero de rachaas en las secueencias simuladdas 10,7814 [10,40;11,,16]
Númmero de rachaas en las secueencias reales 10,1 [9,70;10,449]
Raccha mayor en las
l secuenciass simuladas 3,32 [3,17;3,4
47]
Raccha mayor en las
l secuenciass reales 4,35 [4,14;4,5
57]
338
Evaluación de un Proyecto
P abbierto
En conseecuencia, loos estudianttes no tieneen tan buenna intuición para los vaalores
mediios del núm
mero de rachhas. En la Figura
F 6.8 see observa que
q los estud
diantes tiennden a
n la gráfica de caja las secuencias simuladas están
generar muchas rachas, puesto que en
sesgaadas a la izqquierda, adeemás el núm
mero medioo de rachas en la secuenncia simulaada es
mayoor que en laa secuencia rreal (Tabla 6.17).
F
Figura 6.8. Número de rachas en laas secuencias reales y sim
muladas de loos estudiantes
339
Capíítulo 6. Estuudio 4
0.2
0
0.18
0.16
0.14 Media:
0.12 10,49999
0.1
0 Variaanza:
0.0
08 4,7788
Series1
Desvv.Típica:
0.0
06
2,1866
0.0
04
n= 1007.117
0.0
02
0
02 0
‐0.0 5 10 1
15 20
Número
o de rachas
Figura 6.10
0. Racha más larga en las secuencias reales y sim
muladas de loos estudiantes
340
Evaluación de un Proyecto abierto
por lo que hay una notable diferencia entre los valores medios en ambas secuencias. Por
otro lado el intervalo de confianza al 95% para la diferencia de medias, [-1,29; -0,77],
no contiene el valor 0,0.
El efectuar la simulación de un gran número de experimentos, obtuvimos valores
aproximados de los parámetros de la distribución de la variable longitud de la racha más
larga (Figura 6.11). Su media es de 4,67, que es aún mayor que la obtenida en la
muestra del lanzamiento de la moneda obtenida por los estudiantes, con lo cual, las
distribuciones simuladas por los estudiantes se alejan aún más de lo esperado en una
secuencia aleatoria.
0.35
0.3
0.25
0.2
Media:
0.15 4,670Series1
0.1 Varianza:
2,479
0.05 Desv.Típica:
0 1,573
n= 107.117
‐0.05 0 5 10 15 20
Longitud de la racha más larga
Figura 6.11. Distribución teórica de la longitud de la racha más larga obtenida a partir
de la simulación de 107.117 secuencias de 20 lanzamientos de una moneda
Veremos como en las secuencias reales las rachas alcanzan tamaños mayores que en
las secuencias simuladas, lo que obedece a la falsa creencia de que en los fenómenos
aleatorios es bastante improbable obtener rachas grandes [Alumno EE].
…es más bien difícil que haya una racha muy grande al azar [Alumno UE]
Percepción de la dispersión
En la Tabla 6.18 se muestran tanto la desviación típica, como el intervalo de confianza
del 95% de las desviaciones típicas para de una de las variables en estudio en el
proyecto. En los párrafos sucesivos interpretaremos los datos de estos resultados para
cada una de las variables de interés.
341
Capíítulo 6. Estuudio 4
342
Evaluación de un Proyecto abierto
343
Capítulo 6. Estudio 4
Algunos estudiantes hacen trampas e inventan sus secuencias reales ya que hay
demasiadas caras sucesivas o cruces para ser aleatoria [Alumna EA]
344
Evaluación de un Proyecto abierto
Según Green y Hunt (1992) esta actitud es consistente, es decir, no importa que
tan larga sea la secuencia, los estudiantes pretenderán «equilibrar» los resultados en
pequeñas secuencias, alternando sus resultados frecuentemente y buscando la
representatividad del número de caras y cruces esperado. Sin embargo, en su análisis,
Serrano (1996) concluye que el estudiante pretende mantener la frecuencia esperada en
el total de la secuencia, ya que en su análisis no encontró relación entre el número de
caras de dos trozos de secuencia producida por un mismo alumno. Por otro lado,
Chernoff (2009b) sugiere que los estudiantes hacen una partición subjetiva del espacio
muestral, en la cual consideran sucesos compuestos a las longitudes de las rachas (y no
los sucesos compuestos formados en la distribución binomial). Una longitud de racha
corta es en realidad más probable que una larga (las rachas largas aparecen menos en la
secuencia), por lo que ellos podrían concentrarse en procurar producir secuencias con
rachas de la longitud más probable.
Lo indudable es que, de acuerdo con los resultados de estos autores y los
nuestros, los estudiantes buscan representatividad en muestras más pequeñas que
aquellas en las que se esperaría encontrar.
345
Capítulo 6. Estudio 4
346
Evaluación de un Proyecto abierto
Como se puede apreciar, casi todas estas percepciones responden a una idea
cotidiana o histórica de la aleatoriedad y la mayoría de ellos son incompletas. Así por
ejemplo, la aleatoriedad vinculada a la impredecibilidad es percibida como contraria a la
modelación, pero la modelación probabilística (que es la que se maneja en los
fenómenos aleatorios) no permite conocer ni predecir el fenómeno en el sentido
determinista. El error, entonces, está en la no aceptación de un modelo matemático en
un sentido probabilista. Así, hay contradicciones en la percepción de la aleatoriedad del
347
Capítulo 6. Estudio 4
348
Evaluación de un Proyecto
P abbierto
Tabla 6.19
9. Clasificacción de estud
diantes según
n la construccción de tabla y gráfico
Presentació
ón de la distribbución No.
Noo presenta 7
S
Solo tabla 16
Soolo gráfico 42
Tabbla y gráfico 46
Total 111
En prim
mer lugar, obbservamos que la mayyoría de los estudiantees producenn una
repreesentación de
d las distrribuciones de
d las variaables estadíísticas en forma
f de taabla o
gráfico y aproxiimadamentee la mitad de ellos, hacen ambas (T
Tabla 6.19). Los estudiiantes
que rrealizaron taabla o gráficos para unna de las varriables repittieron el proocedimientoo para
A que, apaarentementee, los estudiaantes comprrenden y utilizan
todass, casi sin exxcepción. Así
intuittivamente la idea de variable estaadística y suu distribucióón, así mism
mo, visualizzan la
necesidad de ese
e ella, pues
p en laas instrucciones del proyecto
p n se les pedía
no
explíícitamente realizar
r tabllas o gráficoos.
349
Capítulo 6. Estudio 4
350
Evaluación de un Proyecto abierto
Figura 6.12. Ejemplo de tablas de frecuencia separadas con una notación formal
351
Capítulo 6. Estudio 4
A) B)
Figura 6.13. Ejemplo de tablas separadas con distinta notación
352
Evaluación de un Proyecto abierto
rango de las variables, pues considera como mínimo el valor 6 y como máximo el 15 en
ambas secuencias, puesto que en las tablas, ambas secuencias aparentan el mismo
rango. Es decir el alumno no comprende bien el concepto de rango de la variable. Este
mismo problema se detectó en otros estudiantes; incluso algunos construyeron la tabla
de frecuencias y luego los gráficos desde el valor 0, aunque el mínimo que aparece en
las dos secuencias es de 6. Esto fue particularmente grave porque el rango fue la medida
que más se usó para evaluar la variación en la distribución de las variables, así que esto
no permitió ver la diferencia de variación en la distribución de las variables en las dos
secuencias.
353
Capítulo 6. Estudio 4
354
Evaluación de un Proyecto abierto
355
Capíítulo 6. Estuudio 4
356
Evaluación de un Proyecto abierto
357
Capíítulo 6. Estuudio 4
T
Tabla 6.20. Clasificación
n de tablas, según datos representado
r os
Categoríía del gráfico construido Frecuenciaa Porcentaje
Listado de daatos individuaales 2 3,23
Tabla separaada para cada variable
v 54 87,10
Tabla conjunnta para las doos variables 6 9,68
Total 62 100
En concclusión, com
mo vemos en la Tabbla 6.20, 62
6 estudianntes (56% de la
muesstra) constrruye la tablla de las distribucione
d es de las variables
v dee las secuenncias,
aunqque, posterioormente, enn su mayoríaa no las usann en el anállisis de la coomparaciónn. Dos
de esstas tablas son
s simplem
mente listaddo de los daatos sin orgaanizar (es decir,
d no llegan a
form ntamente las dos
mar la distriibución) y seis son taablas dondee se represeenta conjun
variaables; el restto son tablaas separadass para cada una
u de las variables
v a comparar.
c
Las tablaas generalm
mente incluyyen solamennte las frecuuencias absoolutas. La mayor
m
partee de los aluumnos que hace tablaa las elaborra correctam que se presentan
mente, aunq
diferrentes grados de com
mplejidad en
e su elabooración, lo
o que tambbién indicaa una
compprensión dee la funcióón de la distribución
d de frecuen
ncias en laa resoluciónn del
proyecto y la definición de la variaable estadísstica en ellos. Tambiién encontrramos
confu
fusiones entrre el valor de uencia absooluta y relativa, y
d la variablle y la frecuuencia, frecu
entree frecuenciaa relativa y porcentaje. Aunque alggunos alum
mnos usan laa hoja Exceel, eso
no les facilita la tarea, puesto
p que la hoja Excel
E no taabula ni agrupa los datos
autom
máticamentte y aunquee así lo hicieera, se requuiere una coomprensión del objetivvo del
probllema y del fenómeno aleatorio y su repetitivvidad para poder dar las
l instruccciones
aproppiadas al orrdenador.
Reprresentació
ón gráfica d
de la distriibución dee la variablle estadístiica
En eeste apartadoo hacemos un análisis resumido de las repreesentacionees gráficas de
d las
variaables estadísticas prodducidas por los estudiaantes en el proyecto. Un
U análisiss más
exhaaustivo se encuentra
e e la tesis de Arteagga (2011), quien estuddió los grááficos
en
produucidos por los estudiiantes en el
e mismo proyecto
p qu
ue analizam
mos nosotroos de
acuerrdo a su nivel
n de com
mplejidad semiótica
s s
sustentándos
se en el annálisis semiiótico
propuuesto por Godino,
G Baatanero y Font (2007).. También relacionó esta
e compleejidad
semiótica con laa correcciónn y el nivell de compreensión lectoora de los grráficos y coon las
conclusiones ob
btenidas en el proyectoo. Nosotross hemos coolaborado coon este auttor en
algunnas publicaaciones connjuntas (Artteaga, Bataanero y Ru
uiz, 2009; 2010),
2 ahorra, en
lugarr de repetirr su análisiss, haremos una interprretación de los gráficoos producidos en
358
Evaluación de un Proyecto abierto
0. No se producen gráficos.
En nuestro estudio, el 20% de los estudiantes no realizaron ningún tipo de gráfico
(Tabla 6.19). Su análisis se basó en tablas o medidas de tendencia central. Cuando lo
realizan, lo mismo que Arteaga (2011), encontramos que en su mayoría los estudiantes
se concentran en elaborar la gráfica de la variable «número de caras».
Observamos, entonces, que la mayoría de los estudiantes ha realizado un proceso
de transnumeración (Wild y Pfannkuch, 1999) gráfico, aunque no todos ellos llegan a
formar la distribución. Tampoco el que no hayan hecho gráficos significa que no tengan
un cierto nivel de comprensión de la distribución. En nuestro estudio, cuatro de los
estudiantes que no reportan gráfica calcularon medidas de tendencia central. Puesto que
estas medidas son un resumen de la distribución de datos, asumimos que, aunque es
posible que sea como efecto del contrato didáctico, los estudiantes están considerando la
distribución de la variable bajo estudio, sin embargo no podemos saber que tan
conscientes son de ello. Los otros tres estudiantes no usaron explícitamente este objeto
matemático.
359
Capítulo 6. Estudio 4
1. Gráficos que sólo representan los resultados del experimento individual del
estudiante que lo elaboró
Dentro de este nivel se consideraron aquellos gráficos que produjeron los alumnos para
representar únicamente sus propios datos, sin considerar los de sus compañeros. No se
encontraron tablas equivalentes a este nivel posiblemente.
Los estudiantes clasificados en esta categoría no usaron explícitamente la idea de
distribución. En general, trataron de resolver la pregunta para su caso particular (si él
mismo tiene una buena intuición) comparando lo obtenido en las dos secuencias que él
mismo había generado, por lo que deducimos que no comprendieron el propósito del
proyecto de realizar un análisis estadístico, o bien, no fueron capaces de realizar un
análisis global de los datos. En cualquier caso, no vislumbraron que el análisis
estadístico está orientado a describir y predecir las propiedades de las distribuciones y
no de datos aislados (Bakker y Gravemeijer, 2004) y por lo tanto no presentan un buen
razonamiento estadístico (Wild y Pfannkuch, 1999). En los ejemplos presentados en la
Figura 6.21, los gráficos representan las frecuencias de caras y cruces en 20
lanzamientos, usando diferentes tipos de gráficos.
A través del manejo de su gráfico se deduce que estos estudiantes manifiestan
una intuición errónea sobre la aleatoriedad porque suponen que una buena intuición
implicaría que su secuencia simulada fue idéntica en alguna característica a su secuencia
real. Es común que traten de ver si sus resultados particulares son iguales en las dos
secuencias. De acuerdo con el análisis de la sección anterior (7.1), presentan la falacia
de ilusión de control (Langer, 1975) o el enfoque en el resultado aislado (Falk, 1989).
También es evidente que este grupo de estudiantes no se percató de que no se
trabajaba el experimento aleatorio simple (el lanzamiento de una moneda) sino sobre el
compuesto por 20 lanzamientos de una moneda. Esto repercutió en que, de manera
general, la variable «número de caras en 20 lanzamientos» no tuviera sentido para ellos.
Sin embargo, esto no explica su falta de análisis global de los datos, puesto que aun
cuando se considera solamente el experimento aleatorio simple, y por lo tanto la
variable «cara o cruz en un lanzamiento», hubiera sido posible que tomaran en cuenta
los datos de todo el grupo.
En el ejemplo A de la Figura 6.21, el alumno representa la frecuencia de los
resultados de sus propias secuencias. Para él, los valores que toma la variable son
«cara» y «cruz», lo cual manifiesta una idea intuitiva de variable aleatoria y estadística
y su distribución. Sin embargo considera sólo la variable «resultado del lanzamiento de
la moneda en sus 20 ensayos», es decir, considera la variable aleatoria Bernoulli ζr, que
correspondería al lanzamiento de la moneda equilibrada, con probabilidades p=q=1/2 y
360
Evaluación de un Proyecto abierto
que toma solo esos dos valores. También estudian la variable aleatoria ζs que toma valor
1 cuando ocurre, por ejemplo, cara (éxito) y 0 cuando ocurre cruz (fracaso) en la
secuencia simulada, así como sus correspondientes variables estadísticas (tanto las
variables aleatorias como las estadísticas se describieron en la Sección 4.2.3). Como no
toma en cuenta los resultados de toda la clase, no puede considerar las variables
Binomiales ηr y ηs, número de caras en las secuencias de cada alumno, que tomaría
valores numéricos, ni sus correspondientes variables estadísticas definidas en las
secciones 4.2.4, 4.2.5 y 4.2.6.
A) B)
C) D)
361
Capítulo 6. Estudio 4
eje vertical lo rotula como «frecuencia», y lo es, sólo que de la primera variable
estadística X, que, en un lanzamiento real, correspondería a una variable aleatoria
Bernoulli, ζr. Este estudiante, sin embargo, sí representa los datos de ambas secuencias
en una sola gráfica, lo que hace más fácil la comparación de las variables. Observemos
que los valores de la frecuencia son los mismas (11), lo que, desde la concepción del
estudiante (ilusión de control o enfoque en el resultado aislado), se interpretaría como
una buena percepción de aleatoriedad.
Algunos alumnos representaron la sucesión de resultados en su experimento
como mostramos en los ejemplos C y D de la Figura 6.21. En ellos, los estudiantes están
haciendo una descripción de su propia experiencia al lanzar 20 veces una moneda,
representando de diferente manera si el resultado era «cara» o «cruz» indicando,
nuevamente, que ellos no lograron visualizar su experimento como uno compuesto, sino
como repeticiones del experimento sencillo (lanzar una moneda). En el gráfico circular
(inciso C) el alumno indica la obtención de «cara» con un sector circular en blanco, y la
obtención de una «cruz» con un segmento coloreado. En este gráfico se visualizan
rápidamente las rachas, así como la racha más grande, así mismo, se observa que el
estudiante usó su gráfico para contar el número de rachas en su secuencia, aunque no
hay evidencia de que haya hecho lo mismo con la racha más larga.
En el gráfico D, cada resultado (cara o cruz) es representado en una línea
diferente, donde, en cada repetición, el estudiante acumuló la frecuencia del resultado
del número de caras o cruces dependiendo de cuál fue el resultado. Observemos que la
variable independiente es «número de tiradas» y que cuando la línea del número de
caras crece, la línea del número de cruces permanece constante porque en una tirada se
obtiene sólo uno de los dos resultados. El crecimiento de la línea indica la existencia de
una racha, lo que permite representar, además del número de caras (o cruces), las rachas
e incluso identificar la racha mayor. De este modo representa las tres variables de su
secuencia en un solo gráfico, que además resulta ingenioso. Para su propósito, las
variables están bien definidas y el gráfico es correcto dentro de este nivel de
complejidad, aunque resulta inútil representar el número de caras y el número de cruces
de una misma secuencia en su gráfico. Este ejemplo también está relacionado con la
percepción de la aleatoriedad como un proceso temporal (7.1.1), puesto que a través del
gráfico el estudiante está representando cómo se incrementa el número de caras (o
cruces) a medida que transcurre el número de tiradas (tiempo).
A diferencia de los otros dos ejemplos, en estos (C y D) claramente se observa
que los estudiantes hicieron uso de su gráfico para realizar su análisis, aunque no logren
la comprensión que se esperaba en el proyecto.
362
Evaluación de un Proyecto abierto
En este nivel el estudiante no puede (ni tiene la intensión de) realizar una
inferencia estadística informal basándose en sus gráficos, por lo tanto realmente no está
vinculando una variable estadística con una aleatoria a través de esta herramienta. De
acuerdo con el análisis semiótico realizado por Arteaga (2011) los conceptos,
proposiciones y procedimientos puestos en juego por estos estudiantes son de un nivel
de complejidad bajo, lo que potencialmente sólo permitiría un nivel de lectura de datos
(Friel, Curcio y Bright, 2001).
363
Capítulo 6. Estudio 4
364
Evaluación de un Proyecto abierto
sería correcto dentro de su nivel puesto que permite comparar la variabilidad de las
variables estadísticas relacionadas con el número de caras (es decir las variables Yr y Ys,
descritas en 4.2.4). Además, si el estudiante lo hubiese percibido, también podría haber
representado la media de cada secuencia mediante una línea recta horizontal, lo que
hubiera permitido una mejor comparación de las secuencias. Muestra una comprensión
media del objetivo del problema al representar en un mismo eje ambas secuencias y
ofrece una potencial comparación de la variabilidad por parte del estudiante. Aunque,
por sí mismo, no indica claramente la variable que el estudiante utilizaría en su
interpretación, puesto que puede favorecer que observe la variabilidad del número de
caras en 20 lanzamientos en el total del grupo (variables Yr y Ys,) o las variables
relacionadas con el experimento simple Xr y Xs (4.2.3) si se concentra en la coincidencia
de valores entre la secuencia simulada y la real.
A) B)
C) D)
365
Capítulo 6. Estudio 4
366
Evaluación de un Proyecto abierto
A) B)
C) D)
Figura 6.23. Ejemplos de gráficos que representan las variables por separado
367
Capítulo 6. Estudio 4
368
Evaluación de un Proyecto abierto
A) B)
C) D)
369
Capítulo 6. Estudio 4
370
Evaluación de un Proyecto
P abbierto
númeero de rachhas, θr, θs y Tr, Ts (Sección 4.2..5), y rachaa más largaa, λr, λs y Lr, Ls
(Seccción 4.2.6). Sin embarggo, en el nivvel 3 la capaacidad de vincular entrre sí las variiables
c sus resppectivas aleeatorias, deependerá dee las habiliidades con otros
estaddísticas y con
recurrsos matem
máticos a loos que acud e el nivel 4, la
da el estuddiante, mienntras que en
vincuulación pueede resultaar más direecta. El 2 implica ell manejo de
d las variiables
relaccionadas conn el resultaado del lanzzamiento de
d la moned
da (ζr, ζs y Xr, Xs) conn una
compplejidad maayor, puestoo que se tom
man en cuennta los datoss de todo el grupo y tam
mbién
se pootencia el manejo
m de las otras varriables, perro no se llegga a conforrmar ni a usar la
distriibución de las mismass. Así obserrvamos quee la clasificcación de grráficos reallizada
por A
Arteaga (20011) tambiéén es útil para dar inddicios de cóómo los estuudiantes poodrían
usar los gráficoos como heerramienta para
p realizaar una inferrencia estaddística infoormal,
aunqque posterioormente verremos que no
n todos lleegan a ella, pues finalm
mente depennderá
de laa capacidad interpretativva de cada estudiante
e ((Makar, Bak
kker y Ben--Zvi, 2011)..
T
Tabla 6.21. Clasificación
n de gráficoss, según el niivel de comprensión de laa distribución
Niv
vel Categoría del gráffico construidoo Frecuuencia Porcenntaje
371
Capíítulo 6. Estuudio 4
Tabla 6.2
22. Clasificaación de alum
mnos de acueerdo a cómo representan los datos
(en tablaa o gráfico)
Forma de
d representarr los datos Frecuuencia Porcentaje
No representan
r 7 6,331
Mueestran valores aislados 12 10,81
Reprresentan distriibuciones porr separado 67
6 60,36
Reprresentan distriibuciones connjuntamente 25
2 22,52
Totaal 1111 100,00
7.2.2. Momentos
M de la varia
able estad
dística
Denttro de los elementos
e i
importantes que caractterizan a laa variable aleatoria,
a H
Heitele
(1975) señala su
s esperanzza y variabbilidad. La variable estadística que
q nos intteresa
analiizar en el traabajo de loss estudiantes es aquellaa vinculada con el fenóm
meno aleatoorio y
cuyaa generalizaación da luugar a la variable
v aleeatoria, porr lo tanto, las medidaas de
tendeencia centraal y dispersiión serán tam
mbién funddamentales en
e la variable estadísticca. La
generalización de
d estas medidas da lug
gar a la com
mprensión de
d las medidas de tenddencia
centrral y disperssión en las correspond
dientes variaables aleatorias. Parte de
d los resulltados
incluuidos en estaa sección see han publiccado en Ruizz, Arteaga y Batanero (2009a y b)).
372
Evaluación de un Proyecto
P abbierto
T
Tabla 6.23. Estadísticos
E calculados por los estudiiantes (n=1111)
Correctto Incorrecto
o Total
Media 79 11 90
M
Mediana 55 17 72
Moda 77 3 80
Rango 54 6 60
Otra meedida dispersióón 41 0 41
En la Tabla
T 6.23 presentamoos los estaadísticos repportados en
n los prodductos
escritos de los alumnos.
a Loo primero que
q nos llam
ma la atenciión es que generalmen
g nte los
estuddiantes calcculan más de
d uno, peroo ninguno de
d los estaddísticos fue calculado por
p el
total de los alum
mnos. El esttadístico máás frecuente fue la meddia, seguida por la modda y al
final la medianaa. En generaal los estudiiantes se deetuvieron pooco en meddir la variabiilidad
de laas variables,, a pesar de ser un requ
uisito para la
l comprenssión de las ideas
i de varriable
aleattoria y distrribución (Reading y Sh
haughnessyy, 2004). Ell estadísticoo de variabiilidad
más frecuente fue
fu el rango. En la tablla resumen que presenttamos, sólo reflejamoss si se
calcuula o no unna medida y si se realiiza correctaamente, puees el compoortamiento de
d un
estuddiante con respecto a estas meddidas fue ell mismo coon todas laas variabless que
analiizaron.
Med
didas de po
osición central
De uun total de 111
1 estudianntes, 91 callculan algúnn promedio y la mayooría calculann más
de unno. Esto ind mación a la idea de disttribución enn los estudiaantes,
dica una bueena aproxim
pues pasan del dato aisladoo a un resuumen estadíístico del coonjunto de datos realizzando
una ttransnumeraación (Wildd y Pfannkuuch, 1999). Los
L 20 estu
udiantes resttantes, no uusaron
mediidas de posiición centraal al comparrar dos distrribuciones de nducta que no es
d datos, con
infrecuente, de acuerdo
a conn Konold, Pollatsek,
P W y Gagnoon (1977).
Well
El estadíístico calcullado con preeferencia fuue la media (sólo uno de
d los estudiiantes
que rreportaron promedios,
p no la calcu
uló) o la mooda (80); laa mediana fue
fu calculadda por
72 esstudiantes (ver
( Tabla 66.23). Esto indica una dificultad algo
a mayor de compreensión
de laa mediana respecto a la moda o la media,, coincidienndo con lo expuesto en la
invesstigación dee Mayén (20009).
En geneeral el cálcuulo de los promedios fue correccto, lo que indica un buen
domiinio de los algoritmoss de cálculo
o, aunque aparecieron
a n algunos errores, com
mo no
ordennar los datoos en la meddiana (17 estudiantes), falta de ponnderación enn el cálculo de la
mediia ponderadda o error en
e la aplicaación del algoritmo
a del cálculo de la media (11
estuddiantes) y no
n tener en cuenta el caso de bim
modalidad paara la modaa (3 estudiaantes).
Estoss errores coinciden con los ya
y señaladoos en estuudiantes dee secundariia en
373
Capítulo 6. Estudio 4
Moda = Son las caras porque su número máximo es 12, mientras que el número
máximo de cruces es de 11 [Alumno CE].
374
Evaluación de un Proyecto abierto
observaciones, en lugar de 46). También confunde el valor de la mediana (que debe ser
un valor numérico) con los sucesos del experimento. Supone que la mediana se calcula
localizando al alumno que queda al centro (él dice que es el alumno 24) cuando tiene
ordenadas todas las secuencias de los 46 estudiantes de su grupo, es decir tiene una
concepción correcta de mediana como centro. Pero como no conoce cómo aparecieron
las caras y cruces del alumno 24, no puede deducir cuál es la mediana. El alumno CE
pretende trabajar con las variables relacionadas con los resultados del experimento
aleatorio simple (ζr, ζs y Xr, Xs, Sección 4.2.3) en la que los resultados son caras y
cruces, lo que hace que su comprensión del objetivo del proyecto sea muy pobre, puesto
que se restringe a trabajar con la variable «cara o cruz» y no lo hace correctamente.
En otros casos, cuando calculan la mediana, los estudiantes no tienen en cuenta
la frecuencia, sino que le asignan el punto medio de los diferentes valores que toma la
variable, lo que es equivalente a considerar la mediana como el centro geométrico del
rango. Este error también fue encontrado por Mayén (2009) en su estudio sobre
comprensión de los promedios. La ejemplificamos en la siguiente respuesta del alumno
CF que, además de dar la definición de mediana a partir de su algoritmo, indicando que
hay que ordenar los datos, confunde valor de la variable con los valores de las
frecuencias y las ordena (que varían de 2 a 15) para obtener la mediana. Además,
tampoco hace referencia a la mediana como centro de la distribución, sino sólo como
una especie de rango.
Medidas de dispersión
Fueron pocos los estudiantes que calcularon las medidas de dispersión, lo que sugiere
que los alumnos no sienten la necesidad de calcular estas medidas para comparar
distribuciones. Sin embargo, la comprensión de la idea de distribución entraña conjugar
a la vez las ideas de promedio y dispersión (Bakker y Gravemeijer, 2004), que muchos
estudiantes en nuestro estudio no supieron relacionar.
Sólo el 54% del grupo calculó el rango y 37% calcularon otra medida de
dispersión (ver Tabla 6.23), a pesar de que, como indica Shaughnessy (2007), la
dispersión es una característica importante de la distribución de los datos. Casi la mitad
375
Capítulo 6. Estudio 4
de los participantes en la muestra no considera esa necesidad; es posible que por falta de
comprensión de su significado o falta de familiaridad con el trabajo con las
distribuciones.
La mayoría de estudiantes que usaron alguna medida de dispersión se inclinaron
por el rango y 54 (90% de los que lo calcularon) lo hicieron correctamente. En su
mayoría los que cometieron errores, tomaron incorrectamente los mismos valores del
máximo, mínimo y rango tanto en la secuencia real, como en la simulada, lo que, como
indicamos anteriormente, implica una incorrecta comprensión de la distribución de la
variable estadística, puesto que unen el dominio de dos variables, lo cual no es válido
aunque esas dos variables sean comparables. En algunos casos, los estudiantes
incluyeron su definición correcta, por lo que, sospechamos, el error en el cálculo se
debió a la necesidad de comparar dos variables relacionadas (es decir, esta comparación
implica un nivel de comprensión más alto):
Es evidente que las medidas de dispersión son menos intuitivas para los futuros
profesores, por el menor uso que se hace de las mismas, como también se confirma en
la investigación de Arteaga (2011). En ambas muestras fueron muy pocos los que
usaron estas medidas y menos aun los que las interpretaron correctamente. Sin embargo,
376
Evaluación de un Proyecto abierto
aquellos estudiantes que las usan cometen menos errores que en el caso de las medidas
de tendencia central y cuando dan una definición intuitiva esta es correcta.
377
Capítulo 6. Estudio 4
378
Evaluación de un Proyecto abierto
379
Capítulo 6. Estudio 4
presentan tablas lo hacen para todas las variables que se analizan en la Sección 4.2. Esto
marca una diferencia importante con respecto a la elaboración de gráficos. Es posible
que la elaboración de tablas represente una tarea más sencilla que la elaboración de
gráficos; pero también es posible que estuviera relacionado con que, en su mayoría los
estudiantes basaron su trabajo en la interpretación de los gráficos y estadísticos, más que
en la de las tablas, y que no vieran la necesidad de analizar todas las variables. Esto
significaría que los estudiantes no entendieron el sentido del análisis conjunto de las tres
variables para evaluar la aleatoriedad, conformándose con un solo modelo, aunque los
distintos estudios sobre la percepción de aleatoriedad subjetiva, muestran la necesidad
de realizar el análisis haciendo uso de varios modelos (Green, 1982).
Como ya lo vimos en la sección anterior (7.1.2) al analizar sus concepciones
sobre aleatoriedad, los estudiantes tienden a dejarse influir por sus conocimientos sobre
la distribución de la variable «número de caras» para simular los resultados de una
secuencia de 20 lanzamientos de la moneda. Más aún, observamos que los estudiantes
condicionan involuntariamente el comportamiento de las otras dos variables (número de
rachas y longitud de la racha más larga) a sus creencias con respecto a la primera
variable. También hay que tomar en cuenta que en el momento de realizar el proyecto
en clase, la única variable de análisis que emergió de manera natural por parte de los
estudiantes fue el número de caras y las otras dos tuvieron que ser propuestas por el
profesor que dirigió la sesión. Ello indica que las variables relacionadas con las rachas
fueron más difíciles de comprender para los estudiantes, lo cual explicaría que sean
menos estudiantes los que las grafiquen y analicen.
380
Evaluación de un Proyecto abierto
En cuanto a la hoja de datos tengo que decir que el nº de caras de las secuencia
simulada está en torno de 7 a 14 caras; en cuanto el nº se rachas simultáneas están
entre 4 y 9 rachas y el tamaño mayor de estas rachas es de 7 que pertenece al alumno
21 que tiene 7 rachas [Alumno CB].
Otra de las variables a tener en cuenta es la longitud de las rachas, valorando que a
medida que el número de caras o de cruces aumenta, la posibilidad de que salga la
contraria es mayor [Alumna MU].
En las gráficas que se han obtenido al representar las rachas se pueden destacar varios
resultados. Por ejemplo, en la secuencia simulada encontramos cinco posibilidades y
en la real son siete. [Alumna HC].
381
Capítulo 6. Estudio 4
El azar nos demuestra que nunca, o es muy difícil, que varias veces seguidas salga la
misma muestra de valores [Alumna AM].
De ahí que la probabilidad de que nos salga 4 o 5 veces seguidas el mismo resultado
es casi imposible, de ahí que al hacer una tirada simulada haya puesto como racha más
larga la de 3, ya que casi seguro que se van a ir alternando [Alumna AM].
En la secuencia real nos damos cuenta de que la mayoría de las veces en las que
aparecen las caras se encuentran en torno a 10… Como observamos en el fenómeno
real, estamos en torno a diez, distribuidos principalmente entre 8 y 12. [Alumna LAE].
382
Evaluación de un Proyecto abierto
Al lanzar una moneda 20 veces seguidas, los resultados que debemos obtener, sería
una igualización, sin ser exacta, entre el número de caras y de cruces, puesto que al
lanzarla, tenemos un 50% de posibilidades de obtener tanto cara como cruz [Alumna
MU].
Se trata de un juego de azar en que la probabilidad juega un papel muy importante, por
tanto cabe la misma posibilidad de que salga cara o cruz [Alumna AG]
Con todo esto se llega a la conclusión de que hay un 50% de posibilidades de que
salga cara y otro 50% de que salga cruz. Esto se debe a que sólo pueden obtenerse dos
resultados diferentes, y por ello los 40 alumnos hemos obtenido resultados diferentes
[Alumna CG]
En el caso de las caras y las cruces suponemos que hay un 50% de probabilidades de
que salga una u otra, por tanto las simulaciones son todas en torno a 10 caras. Sin
embargo en el ejercicio real el número de caras y de cruces varía mucho de una
experiencia a otra [Alumno AR].
383
Capítulo 6. Estudio 4
Para efectuar una interpretación global del conjunto de datos, hacemos una tabla de
frecuencias. La más sencilla consta de dos columnas; una para las modalidades
distintas de la variable estadística ordenadas de, al ser la variable cuantitativa, de
menor a mayor y otra con las frecuencias [Alumno LG].
En cuanto a la tabla que hemos realizado tengo que decir que en mi caso han
coincidido bastante los resultados, no en el mismo lugar, pero sí en el número; tanto
en el lanzamiento real como en el simulado tengo 11 caras y 9 cruces; en cambio no he
coincidido en el número de rachas y la racha más larga [Alumna AG].
Que el número que es más probable que salga (nº de caras) es de 10 [Alumno CE].
384
Evaluación de un Proyecto abierto
Mucho menos intuitivos han sido los resúmenes estadísticos de las otras
variables. Algunos alumnos muestran explícitamente sus concepciones erróneas de la
independencia, que implícitamente quedaron plasmadas en la distribución del número
de rachas de las secuencias simuladas. En la afirmación de la alumna AM se observa
este error en el valor esperado de la longitud de la racha más larga:
Sabemos de sobra que en una secuencia de tiradas de una moneda el azar nos
demuestra que nunca o es muy difícil que varias veces seguida salga la misma
muestra, es decir, la probabilidad de que nos salga 4 o 5 veces seguida el mismo
resultado es casi imposible, de ahí que al hacer una tirada simulada hay puesto como
racha más larga la de 3 ya que casi seguro se va a ir alternando el resultado [Alumna
AM].
Se observa que en las secuencias reales hay más variedad de variables que en las
simuladas. Por lo tanto, los alumnos se arriesgan poco [Alumno ER].
Como conclusión, a raíz del análisis comprobamos que con las gráficas se puede
observar como en la secuencia simulada hay más constancia, es decir, que se tiende a
los mismos valores y en la secuencia real hay mucha más variedad, dispersión, incluso
en ocasiones cambios bruscos [Alumna AC]
385
Capítulo 6. Estudio 4
386
Evaluación de un Proyecto abierto
En la Sección 9 del Capítulo 3, vimos que gran parte de la actividad estadística puede
ser descrita como un proceso de modelación e hicimos hincapié en un proceso de
inferencia informal en el que existen dos estratos de modelación (Figura 3.7) en los que
la variable estadística juega un doble papel, como «modelo» en el primer estrato y como
«realidad» en el segundo8. A su vez, el proyecto planteado a los estudiantes está
7
En su mayoría coincide con la acepción histórica de Parzen (1971), discutido en la Sección 6.2 del
Capítulo 4, en el que visualizan el resultado del experimento aleatorio como el valor que toma la variable
aleatoria.
8
Para Henry (1997), el primer estrato sería la construcción de un modelo pseudoconcreto.
387
Capíítulo 6. Estuudio 4
diseññado para que, potencialmente, los estudiaantes recorrran todos los pasos de la
or este mootivo tambiién nos innteresamos por el graado en que los
modeelación; po
estuddiantes de nuestra
n mueestra lograrron completar los pasoos del cicloo de modellación
señallados por Dantal
D (19977).
experimento o aleatorio
Resultados del experimentto
Variable
V Descrripción simplifiicada de la
esstadística realidad: las variables
la variable disstribución de frrecuencias
relativa
estadística
Traabajo matemático con el
Análisiis estadístico
m
modelo: gráfico
os, tablas y
medidas
Inferen
ncia informal
Interrpretación en la
a realidad:
Valores de la gráfficos, comparaación entre
Probabilidaad
variable aleattoria distrribuciones y conclusiones
MODELO
ABILÍSTICO
PROBA
Figura 6.26
6. Modelacióón en estratoos descrita a través de los pasos de modelación
m dee
Dantaal, 1997.
En la Figura
F 6.26 relacionam
mos la moddelación poor estratos discutida en la
secciión 9.6 del Capítulo 3 con los pasos
p de moodelación de
d Dantal para
p visualizzar la
form
ma en que annalizaremoss los resultaados obteniddos por los estudiantess en esta seccción.
La descripción
d simplificadda de la reaalidad (Danntal, 1997) implica poor sí mismaa una
modeelación, porr lo tanto, laa definimoss como un estratos
e de modelación
m n (Heitele, 1975).
La innferencia innformal la hacemos verr como una interpretaciión de la reaalidad, puessto en
las cconclusionees los estuudiantes reqquieren vinncular las variables
v d
definidas coon el
conteexto del prooblema9.
9
El mmodelo probabbilístico sólo se infiere a trav
vés de sus meedidas, lo cuall, en nuestro proyecto,
p se obbserva
en la ccomparación entre las distribuciones paraa obtener una conclusión.
388
Evaluación de un Proyecto abierto
389
Capítulo 6. Estudio 4
390
Evaluación de un Proyecto abierto
10
De acuerdo con Heitele (1975) diversos problemas en la comprensión de la modelación en probabilidad
y estadística son debidos a que se considera «realidad» algo que en sí ya es un modelo. En el estudio
disciplinar de esta memoria de tesis, analizamos estos puntos más ampliamente (Secciones 9.4 y 9.5,
Capítulo 3).
391
Capítulo 6. Estudio 4
392
Evaluación de un Proyecto abierto
No todos los modelos resultaron apropiados ni correctos, puesto que gran parte
de ellos no sólo reflejaron los conocimientos de los estudiantes sobre estadística sino
también su conocimiento sobre el contexto del problema (Makar, Bakker, y Ben-Zvi,
2011).
Dicho conocimiento del contexto se observa cuando los estudiantes hicieron uso
de sus creencias sobre aleatoriedad, que analizamos en el punto 7.1 de este capítulo.
Estas concepciones son parcialmente correctas y es muy sutil el paso de una concepción
correcta a una que no lo es. Así mismo, en la simulación del lanzamiento de 20
monedas, desconocían el valor esperado del número de rachas o la longitud más larga,
pero sabían que el número de caras medio es 10, lo que condicionó la secuencia
simulada del grupo, ignorando la variación. Otro fuerte condicionante fue su creencia de
un azar vinculado a la irregularidad: las secuencias no fueron muy largas. Los
estudiantes se mostraron preocupados porque su secuencia simulara el lanzamiento
aleatorio de una moneda, cuando en realidad estaban siguiendo un modelo matemático
subjetivo generando ensayos dependientes.
Así, los estudiantes construyeron y tuvieron oportunidad de analizar modelos
matemáticos que dependen de sus creencias sobre la forma en que se comporta una
sucesión de resultados aleatorios al lanzar 20 veces una moneda. Ese modelo interno
(conocimiento sobre el contexto) influye, como veremos más adelante, en la forma en
que los estudiantes analizan e interpretan sus resultados estadísticos.
393
Capítulo 6. Estudio 4
394
Evaluación de un Proyecto
P abbierto
27,3%
%), lo cual es indicadoor de la maayor dificulttad que acaarrea hacer estos últim
mos de
maneera correctaa. En generral los errorres vinculaddos con el uso de tablas se refieeren a
fusión entre frecuenciaa relativa y porcentaje o a la connfusión entrre el valor de la
confu
variaable y la freecuencia abssoluta. Ejem
mplos de esstas tablas laas analizam
mos en la seección
7.2.11.
Tabla
T 6.24. Clasificación
C n de tablas y gráficos por su correccióón
Parcialmentte
Totaal Correcto Incorrectoo
correcto
Construyen grráficos 88 40 24 24
Construyen taabla 62 40 18 4
Figura 6.2
27. Ejemploo de estudiante que representa tres vaariables no comparables
395
Capítulo 6. Estudio 4
Fueron muchos los alumnos (ver ejemplos en la Figura 6.28) que muestran un buen
conocimiento y uso de las fórmulas, e incluso de las fórmulas de cálculo abreviado y la
disposición auxiliar para realizar los cálculos. Sin embargo, el uso de los símbolos
matemáticos varía en formalización. Mientras que el alumno de la Figura 6.28A, emplea
con propiedad el símbolo de sumatoria y los subíndices, así como los de media y otros
estadísticos, el segundo (Figura 6.28B) emplea sólo símbolos numéricos. En este
último, hay, además, un uso incorrecto de la igualdad en el reporte del cálculo de la
mediana, pues lo que se está calculando ahí es la mitad de la suma de frecuencias y no
el valor en sí mismo de la mediana.
A)
B)
396
Evaluación de un Proyecto abierto
A)
B)
397
Capíítulo 6. Estuudio 4
Interrpretación
n de gráfico
os
Com
mo se ha inddicado, 88 estudiantes produjeron
p algún tipo de
d gráfico. En
E la Tablaa 6.25
clasifficamos su trabajo dee acuerdo a la interpreetación quee hacen de su gráficoo para
vincuularlo con la
l «realidadd», es decirr, con el prroblema plaaneado. Alggunos resulltados
previios fueron publicados
p en Arteaga, Batanero y Ruiz (20009; 2010) y Arteaga (22011)
los annalizó con mayor
m detallle.
Destacam
mos, en primer lugar que
q una cuarta parte de
d los futurros profesorres se
limitta a produccir el gráffico sin inccluir ninguuna conclussión de él o bien daa una
interppretación errrónea no siiendo capazz de vinculaarlo con el contexto del problema.
Es posibble que una parte de loos estudiantees que no leyeron su gráfico,
g lo hayan
h
incluuido en suu reporte sólo
s como un efectoo del contrrato didácttico, pues están
acosttumbrados a que en laa clase de estadística
e sse presentenn gráfico o hagan cálcculos,
pero no han coomprendidoo la importtancia que éstos tieneen. Es deciir, no haceen un
esfueerzo para qu
ue la elabooración de la
l gráfica lees aporte allguna compprensión sobbre el
temaa. Aparentem
mente estos estudianttes no tieneen los niveeles mínimoos de lectuura de
gráficos, ni pueddan completar el ciclo de modelacción (Dantall, 1997).
398
Evaluación de un Proyecto abierto
399
Capítulo 6. Estudio 4
número de caras y de cruces varía mucho de una experiencia a otra. Como el número
de experimentos es relativamente bajo, creemos que si se aumenta, el número de caras
y de cruces se irá haciendo cada vez más equitativo [Alumno AR].
Si observamos en el sector circular, nos daremos cuenta que los alumnos han puesto al
azar más caras que cruces y que en la secuencia real dan unos resultados casi iguales
en el porcentaje de caras y cruces [Alumno CG].
400
Evaluación de un Proyecto abierto
Para comentar las diferencias, el gráfico aporta más posibilidades, pues visualmente
podemos percibir las diferencias. Las tablas necesitan de una interpretación de los
datos. Centrándome en el gráfico observamos que los valores de la frecuencia
simulada se concentran en torno a unos mismos intervalos 10 y 11, mientras que en la
frecuencia real, los valores están más disgregados, aunque también vemos que se
concentran en un núcleo 8-15, fluctuando al alza y a la baja. De esta forma en la
frecuencia real comprobamos que 10 es la secuencia con mayor número de veces
saliendo cara, tanto en la simulada (20) como en la real (14).... la horquilla de la
secuencia real es mucho más amplia que la de la simulada [Alumno FL].
401
Capíítulo 6. Estuudio 4
Coinncidimos, en
ntonces, conn Arteaga (22011) en quue la interpreetación de gráficos
g es difícil
d
para los estudianntes, a pesarr de es una herramientaa indispensaable en su vida
v profesioonal.
mparación e
Com entre las d
distribucion
nes: uso dee los estad
dísticos
La comparación
c n entre las distribucioones de lass variables de la secuuencia real y la
simuulada se reaalizó princippalmente haaciendo usoo de los estadísticos, sin embargoo, una
partee de los estu
udiantes la realizaron haciendo
h usso de otras herramientaas, como vaalores
aisladdos, la forrma de la gráfica,
g o no hicieronn tal compparación. Enn la Tabla 6.26
mosttramos quee, aunque los estudiaantes calculen los esttadísticos, no siempre los
empllean, limitánndose en muchos
m casoos a presentaarlos sin nin
ngún comen
ntario respeecto a
su siignificado o las diferrencias entrre las dos secuencias. A este reespecto Koonold,
Pollaatsek, Welll y Gagnonn (1997) in
ndican quee para los estudiantess no es sieempre
intuittivo el uso de los prom
medios y diispersión paara comparaar dos distriibuciones, por
p lo
q muchoss considerassen, por efeecto del conntrato didácttico, que la tarea
que ees posible que
estabba completaa una vez caalculados loss estadísticoos.
mera instanccia nos enffocamos a las medidaas de tendeencia centraal. 36
En prim
(32,44%) estudiaantes compaaran las meedias (32 dee ellos, corrrectamente), 18 (16,2%
%) las
modaas (12 correectamente) y doce (100,8%) las medianas
m (ddos incorrecctamente). Como
C
mos, en su mayoría loos estudianttes tienen un
notam u mejor manejo
m de laa media quue del
restoo de las meddidas de tenndencia cenntral y tambbién es a laa que más recurren,
r peero de
maneera general, los estudiaantes que hicieron uso de
d las medidas de posición centrall para
compparar las disstribucioness, lo hicieronn correctam
mente.
Tabla 6.26
6. Interpretaación de estaadísticos en la comparacióón de las disstribuciones
(n=
=111)
Tipo de commparación Frecuuencia
Comparan n media 32
3
Comparan n moda 18
1
Comparan mediana 12
1
Comparan dispersión
d 30
3
C
Comparan valo
ores aislados 10
1
Comparan forrma gráfica 12
1
Comparan sollo sus datos 11
1
Indican lo quue esperan 12
1
No com mparan 23
2
En los siguientes
s ejemplos haremos
h nootar la form
ma en que realizaron tales
compparaciones, en el primeero se hace uso de las modas, en el segundo,, de las meddias y
en ell tercero, dee las mediannas:
402
Evaluación de un Proyecto abierto
En los dos siguientes ejemplos, aunque se comparan los valores de las variables,
la idea de aleatoriedad como imposibilidad de predicción, hace que el alumno desista de
su comparación. Estos estudiantes no han comprendido la utilidad de la estadística para
analizar datos experimentales ni que ello les proporcionaría información sobre la
situación, porque no visualizan la utilidad de una predicción estadística a través de una
distribución de valores y no de valores aislados.
Otros alumnos comparan sólo sus propios datos (11, 9,9%), tratando de evaluar
únicamente sus propias intuiciones. Se limitan a comparar el valor de las diferentes
variables en las dos secuencias, sin hacer referencia a los estadísticos. Generalmente,
manifiestan que una buena intuición supone poder acertar el experimento, es decir,
tienen una concepción errónea sobre la aleatoriedad, cayendo en la ilusión de control:
403
Capítulo 6. Estudio 4
En los gráficos que se han obtenido al representar las rachas que resultaron de la
actividad realizada por los alumnos se pueden destacar distintos resultados. Por
ejemplo, en la primera gráfica, de la secuencia simulada encontramos cinco
posibilidades y en la gráfica de la secuencia real las posibilidades son siete [Alumno
HC].
Otro ejemplo es el de este estudiante, que usa sus gráficas para comparar entre sí
la variación del número de caras y del número de rachas de la secuencia simulada a
través del rango. Aunque su percepción de la distribución es como un todo es correcta,
se equivoca al comparar los estadísticos de las variables de una misma secuencia:
Se puede observar que en la secuencia simulada al calcular el rango (r), el valor más
disperso se encuentra en el número de caras con respecto a la media (x) también hay
más variación en el número de rachas, será porque nos encontramos con valores más
diversos [Alumno SL].
404
Evaluación de un Proyecto abierto
En primer lugar compararé los datos del número de caras en ambas secuencias, donde
destacaré las diferencias que se aprecian principalmente entre el rango, la varianza y,
consecuentemente la desviación típica, de hasta seis veces más de diferencia la
secuencia simulada con respecto a la real [quiere decir lo contrario, pues la dispersión
es mayor en la secuencia real]. En segundo lugar destacaré los datos del número de
rachas de las secuencias simuladas y la secuencia real. He de decir que son
sorprendentes las similitudes del rango e incluso la varianza y la desviación típica que
tan sólo llegan a diferenciarse en décimas [Alumno LC].
Se observa que en las secuencias reales hay más variedad de variables que en las
simuladas. Aunque la desviación típica es más pequeña en la secuencia simulada,
siendo inferior a cero [Alumno JC].
405
Capítulo 6. Estudio 4
406
Evaluación de un Proyecto
P abbierto
Estudian
ntes que con
ncluyen inccorrectamente o que n
no lo hacen
Fueron muchos
m loss estudiantees que no conectaron los resultaados del trrabajo
n el modelo en la situacción (73%), es decir, no vieron lass aplicacionnes de
mateemático con
lo obbtenido en el
e análisis esstadístico soobre las intuuiciones de los estudianntes.
m alejadass, simplemeente comentaban cuesttiones
Algunas de las conclusiones más
que no tenían que
q ver conn la pregunnta que debbían contesstar ni hacíían referenccia al
análiisis estadístiico que habbían efectuad
do. Las connclusiones de
d SG y JOC
CH son ejem
mplos
que muestran
m quue para alguunos estudiaantes emitirr una concluusión fue sóólo una form
ma de
cumpplir con el contrato
c diddáctico con el profesorr. Este tipo de comentaarios, podríaan ser
valioosos si hubieeran sido accompañados de una resspuesta a laa pregunta del
d proyectoo o de
un annálisis más profundo de
d sus resulltados, peroo se presenttaron aisladdos. Comenttarios
comoo el de JOC
CH, denotann una revisión bibliogrráfica que no
n citaron y que se viincula
con eel propósitoo del proyeccto solo de manera
m tanggencial:
LLa comprenssión de estas nociones no n es inmeddiata y tiene cierta dificuultad para loos
nniños, inclusso para los adolescentes
a y adultos…… Los niños se suelen deejar guiar poor
ssus creenciass y experienncias subjetivvas, considerrando, por ejjemplo, que un suceso ese
iimposible poorque a él nunca le ha ocu urrido [Alum
mno JOCH].
Dentro de
d este gruupo, son muchos
m los estudiantees (23) de la muestraa que
antepponen sus ideas sobre el contextoo al análisiss de datos. Así
A por ejem
mplo, el aluumno
EL, no compreendió que un modeloo matemátiico puede aplicarse a una situuación
aleattoria. Eso hizo
h l datos y se quedaraan con sus ideas
que neegara la evidencia de los
407
Capítulo 6. Estudio 4
Comparando los datos me he dado cuenta que son muchos los resultados entre los
compañeros los que coinciden, pero aun así, sigo pensando que es mera casualidad,
porque en la simulada hemos puesto lo que hemos querido [Alumno EL].
Observemos que aun cuando logró conectar el modelo que obtuvo con el
contexto del problema, falla en la obtención de conclusiones debido a que supone que
una buena intuición ha de corresponder a obtener los mismos resultados en las
secuencias reales y simuladas (concepción errónea de aleatoriedad). Desde distintas
perspectivas Wild y Pfannkuch (1999), Makar, Bakker y Ben-Zvi (2011) y Chaput,
Girard, y Henry (2011), han mostrado la importancia que los estudiantes dan al contexto
al trabajar con un modelo. Makar, Bakker y Ben-Zvi se han preocupado por analizar
más detenidamente el conocimiento del contexto y la forma en que éste influirá en la
forma en que se analicen los datos. Chaput, Girard, y Henry (2011) han remarcado las
dificultades que tienen los estudiantes al trabajar con un modelo pseudo-concreto en
lugar de con la «realidad». En estos otros ejemplos (alumnos GEE, LG y AG) es notorio
como mezclan el análisis estadístico (la evidencia de los datos) con sus creencias
(conocimiento del contexto) para emitir una conclusión.
En los primeros alumnos, aparecen unos datos imposibles. En general, podemos decir
que los alumnos han tenido una visión de aleatoriedad más elevada en la situación
simulada que en la real [Alumno GEE].
Partiendo del estudio de los gráficos, se podría decir que en valores absolutos, la
previsión del grupo no ha sido demasiado desafortunada. Un juego de azar es
imposible de prever con total exactitud, pero las aproximaciones sumadas a los
aciertos son mayores a las previsiones muy alejadas del resultado real [Alumno LG].
...al comparar las gráficas no se parecen mucho, ya que en la simulada lo que se hacía
era inventarse los datos y no sabe cómo pueden salir en la realidad [Alumna AG].
El alumno GEE antepone totalmente sus creencias a los datos, concluyendo que
es más aleatoria la secuencia simulada que la real. Los estudiantes LG y AG muestran
una concepción correcta del azar (no se puede prever) y otra incorrecta (evaluar el
número de coincidencias o la diferencia de valores obtenidos en cada estudiante), en
lugar de comparar directamente las distribuciones de las variables o el comportamiento
general del gráfico. Es decir, comparan caso a caso sin utilizar la distribución o sus
estadísticos al hacer la comparación.
Como analizamos en la Sección 7.1, aunque los estudiantes de la muestra están
familiarizados con el experimento «lanzar una moneda» no lo están con el experimento
408
Evaluación de un Proyecto abierto
«lanzar 20 monedas», que sería parte del contexto, ni son conscientes de sus propias
intuiciones incorrectas (que sería la otra parte del contexto del proyecto planteado). Su
falta de conocimiento sobre el contexto podría influir en que el análisis estadístico se
vea mermado.
En nuestro proyecto, esta relación entre el contexto del problema y el análisis
estadístico resultó conflictiva, puesto que al mismo tiempo que se les pretendía mostrar
a los estudiantes las ventajas del análisis estadístico11, también se les quería concientizar
sobre sus intuiciones incorrectas sobre la aleatoriedad. Sin embargo, al no tener una
buena perspectiva sobre la utilidad de la estadística, desechan los resultados
matemáticos y se guían por sus intuiciones, sin que el proyecto les permita darse cuenta
de que éstas son erróneas ni les ayude a tener una idea más global de la estadística.
En otros estudiantes faltó capacidad de trabajo con el modelo matemático para
detectar las diferencias entre las secuencias inventadas y reales. Esto, como se observa
en el siguiente ejemplo, los llevó a concluir que los resultados en las dos secuencias
eran similares:
Como conclusión podemos ver que los resultados son prácticamente los mismos tanto
en la real como en la simulada, de lo que podemos deducir que lo real y lo simulado es
muy parecido así que lo que te inventes puede ser prácticamente igual a lo real
[Alumno AC].
409
Capítulo 6. Estudio 4
Según los datos obtenidos y tras representaciones gráficas, podemos observar como la
mayoría de la clase tiene buena intuición ya que si comparamos la moda del número
410
Evaluación de un Proyecto abierto
411
Capítulo 6. Estudio 4
En la secuencia se puede ver como más o menos son parecidos el número de caras,
sólo se da un margen del 8 al 11 con una media de 10,26. En cambio en la secuencia
real existe una variedad más extensa del número de caras del 7 al 16, con una media
del número de casa de 10,61. Quedando así visible que la intuición y lo real es
parecido, con lo cual no se diferencia mucho la realidad de la moneda que nosotros
imaginariamente tirábamos [Alumno AV].
Realmente las intuiciones de los alumnos han sido más o menos muy parecidas. No
hay muchas irregularidades. Pero cuando las comparamos con sus secuencias reales,
se puede ver a simple vista en el gráfico que existen grandes irregularidades. En la
secuencia real el número máximo de caras es 16 y el mínimo 7, sin embargo en la
simulada el máximo es 13 y el mínimo 8; su recorrido es más pequeño que el real
[Alumno MM].
Concluye que las intuiciones son similares en distintos estudiantes, con lo cual
se observa que aprecia la poca variabilidad existente en el número de caras. También
nota la diferencia entre la distribución del número de caras de las secuencias simuladas
y reales. Es decir, es capaz de percibir la diferencia de variabilidad y entre máximos y
mínimos en su gráfica, pero no llega a relacionar estas diferencias de los resultados de
412
Evaluación de un Proyecto abierto
los experimentos con las intuiciones globales de los estudiantes sobre las características
del fenómeno aleatorio. Para el tipo de gráfico que este estudiante hizo, su
interpretación es correcta, sin embargo, no asoció la diferencia de dispersión en las
distribuciones real y simulada con una pobre intuición sobre la variabilidad aleatoria en
los estudiantes. Es decir, no pudo descontextualizar la matemática en términos del
contexto del problema.
También se presentó que a pesar de comparar correctamente el promedio y la
dispersión para las tres variables, se produce un error de comprensión del significado de
la medida de dispersión que ocasiona que no se llegue a una conclusión correcta. En el
caso que sigue, aun cuando el estudiante aprecia la igualdad de medias y diferencia de
rangos, le atribuye la diferencia de rangos a la representatividad de la media en lugar de
a la mayor variabilidad de los datos. Por otro lado, supone que los rangos son iguales, a
pesar de la diferencia que nota en las desviaciones típicas.
Las intuiciones de los estudiantes han sido bastante acertadas. Se ha llegado a esta
conclusión analizando las 3 variables en las secuencias real y simulada. Analizando el
nº de caras observamos que los resultados obtenidos de la moda, la mediana y la
media coinciden prácticamente. El rango de la secuencia simulada permite apreciar
más uniformidad en la media que en la secuencia real donde el rango es 9. A pesar de
ello en ambas desviaciones típicas se ve una gran representatividad de los valores de
las medias ya que están muy próximas a cero [Alumna ER; quien comenta en forma
parecida las otras dos variables].
Este estudiante hace referencia a las limitaciones de las intuiciones (las llama
«imaginación») con lo que relaciona el análisis de datos con las intuiciones de la clase.
Por lo tanto no sólo fue capaz de detectar la diferencia en variabilidad de las dos
distribuciones que compara sino también de contextualizar e interpretar estos resultados
en términos de la pregunta pedida. Su respuesta es sólo parcialmente correcta porque no
hace referencia a los promedios, únicamente a la dispersión y con un lenguaje muy
impreciso.
413
Capítulo 6. Estudio 4
En el estudio estadístico comparativo que se hizo entre las secuencias se demostró que
sí hay varias diferencias entre una secuencia simulada y una inventada. En cuanto a los
promedios, el número de caras simulados fueron muy parecidos a los reales. Esto
indica que en esto la intuición humana sobre el lanzamiento de moneda es muy similar
a la realidad. Sin embargo el número de rachas en la secuencia inventada es más alto.
Finalmente, el valor de la racha más larga fue el más distante. En cuanto la variación
típica, los valores de la secuencia inventada son considerablemente menores en los tres
casos (# de caras, # de rachas y racha más larga) en relación a la secuencia real.
[Alumno RB].
Así mismo, dos de los estudiantes interpretaron correctamente cada una de las
variables y añadieron una explicación del porqué de sus resultados. Este ejemplo,
aunque con un lenguaje poco preciso, evidencia un cambio en la concepción del azar:
Esta estudiante manifiesta no sólo un buen manejo estadístico sino una mejor
comprensión del contexto del problema en el que lo aplicó. Es decir, el análisis que
realizó le sirvió para conocer (en un sentido probabilístico) las intuiciones que tienen
los seres humanos sobre el azar.
Aunque son sólo estos cuatro estudiantes los que concluyeron en forma correcta
todo el ciclo de modelación en el proyecto, hemos visto que otros 26 lo concluyen en
forma parcial; bien porque se conforman con analizar la intuición respecto a la
tendencia central del número de caras (caso más frecuente); porque no apreciaron la
diferencia de dispersión o de promedio; o porque apreciándola, no quieren reconocer
que sus intuiciones son incorrectas. En todo caso, estos estudiantes mostraron un buen
razonamiento estadístico a lo largo de la actividad, aunque esto sólo se observó poco
más de la cuarta parte de la muestra (27%). Lo que indica que hay una necesidad fuerte
de preparar a los estudiantes para el trabajo con variables estadísticas y aleatorias en
actividades de modelación a través de la aplicación de proyectos.
414
Evaluación de un Proyecto abierto
415
Capítulo 6. Estudio 4
416
Evaluación de un Proyecto abierto
417
Capítulo 6. Estudio 4
418
Evaluación de un Proyecto abierto
419
Capítulo 6. Estudio 4
del grupo sobre aleatoriedad proporcionó información que pudimos vincular con la
forma en que los estudiantes analizaron las variables estadísticas, así como la forma en
que a partir de éstas realizan inferencias sobre las variables aleatorias. Así, coincidimos
con Makar, Bakker y Ben-Zvi (2011) sobre la importancia del conocimiento del
contexto y que es necesario darle mayor énfasis a éste en las clases de estadística.
420
Evaluación de un Proyecto abierto
algún error o bien hacen una interpretación incompleta que no permite llegar a una
conclusión completa sobre el problema y el resto hacen una buena interpretación del
gráfico. Estos resultados coinciden con los encontrados por Arteaga (2011).
421
Capítulo 6. Estudio 4
segundo estrato. Sin embargo, en ambos estudios también se percibió una dificultad
posterior, al tratar de interpretar los resultados estadísticos en el contexto del problema.
Ante esta dificultad, los estudiantes recurren a su conocimiento del contexto (en este
caso a sus creencias sobre aleatoriedad) para tratar de solventar este hueco en el tránsito
hacia la realidad para contestar la pregunta del proyecto. Dos de las dificultades más
importantes puestas en juego en este sentido son las creencias de la aleatoriedad como
enfoque aislado, falta de control o ausencia de modelos, que hacen que los estudiantes
tiendan a una visión determinista, invalidando los resultados obtenidos en el análisis
estadístico como conocimiento en sí mismo. Bajo estos enfoques, los estudiantes no
pueden ir más allá de sus datos, que en ocasiones se reducen a los suyos propios.
La dificultad de contextualizar está vinculada con la aplicación inversa de las
variables, es decir, con el proceso inverso en el primer estrato de modelación. En este
estudio, se vinculó con la incomprensión del papel de las variables para responder la
pregunta del proyecto. En este sentido, coincidimos con Chaput, B., Girard, J. C. y
Henry, M. (2011) quienes resaltan la importancia de que el estudiante comprenda el
resultado del primer estrato de modelación como un modelo pseudoconcreto12, puesto
que esto evitaría dificultades en la interpretación de los resultados en el contexto
(realidad, desde su propuesta).
Otras veces la referencia al uso de la variable aleatoria es implícita, al hablar de
las probabilidades o posibilidades de algunos valores, o de los valores posibles de la
variable y no sólo de los resultados en el experimento. En estos razonamientos se
observa una puesta en relación de variable estadística y aleatoria, es decir, la realización
de una inferencia informal (Zieffler, Garfield, Delmas y Reading, 2008).
En algunos casos los estudiantes aluden a la probabilidad de algunos valores de
las variables analizadas, que estiman a partir de las frecuencias obtenidas en los
experimentos, aplicando una concepción frecuencial de la probabilidad. Ligan también
en sus razonamientos la variable aleatoria que corresponde a una variable estadística
dada y su distribución de probabilidad o la probabilidad de algunos de sus valores
aislados con la distribución de frecuencia obtenida, mediante una inferencia de tipo
informal.
Son bastantes los que explicitan el valor esperado de la distribución binomial (10
caras en 20 experimentos) apoyándose en la equiprobabilidad de los resultados y el
número de ensayos (que serían los parámetros de la distribución binomial). En casos
aislados hay una referencia a la convergencia (de la distribución de frecuencias a la
12
El modelo de Henry (1997), retomado por Chaput, Girad y Henry (2011), está descrito en la sección 9.4
del Capítulo 3. Lo que para Henry es un modelo pseudo-concreto para nosotros (acordes con Wild y
Pfannkuch, 1999) es un modelo y adopta el papel de «realidad» en el siguiente estrato de modelación.
422
Evaluación de un Proyecto abierto
Ciclo de modelación
En el proyecto se pretendió que los estudiantes completaran un ciclo de
modelación (Dantal, 1997). Sumergimos al estudiante en una situación aleatoria de la
que él mismo formaba parte al proponerles evaluar sus propias concepciones del azar y
llevar a cabo un experimento aleatorio real para confrontarse. Durante la discusión
inicial con el profesor, en la que los estudiantes participaron activamente expresando
sus ideas sobre cómo se manifiesta el azar y sus concepciones de la aleatoriedad, hubo
una aceptación general de la pregunta planteada y del experimento aleatorio. Sin
embargo, el análisis completo de los reportes de los estudiantes dejó entrever que
algunos estudiantes no manejaron intuitivamente el experimento aleatorio compuesto
por 20 lanzamientos de la moneda. Esto trajo como consecuencia que su análisis se
restringiera a la variable «cara o cruz» o bien a cálculos erróneos en las variables
vinculadas con las rachas. Eso resulta comprensible, puesto que lo que se está
evaluando es la aleatoriedad del lanzamiento de una moneda, pero para poder hacerlo se
recurre a analizar secuencias de 20 resultados de ella. El planteamiento de un
experimento aleatorio compuesto es, por tanto, un recurso teórico difícil de comprender.
El segundo paso del ciclo, simplificar la realidad, surgió a partir de una
discusión grupal en la cual una de las variables es espontáneamente sugerida por
algunos estudiantes, estudiar el número de caras o cruces. Ellos también propusieron la
equiprobabilidad de caras y cruces en el experimento simple. Otra parte, en cambio, el
estudio de las rachas, es básicamente sugerida por el profesor, lo cual, como es sabido,
no garantiza la comprensión de su propósito en el análisis.
En su totalidad, los estudiantes hicieron uso de las variables, cuyos valores
sustituyeron el resultado del experimento aleatorio, e incluso los llegaron a tratar como
el resultado de su experimento aleatorio. Sin embargo, una gran parte de los estudiantes
no comprendieron la necesidad del estudio de las tres variables en su conjunto, ni su
relación con el proyecto en su totalidad, puesto que en su mayoría, aunque hicieron un
análisis estadístico, no llegaron a sacar conclusiones de las mismas ni a hacer uso de
ellas para responder la pregunta del proyecto. Por lo tanto, creemos que gran parte de la
aplicación de las variables al resultado de su experimento, fue solamente la aplicación
de reglas (contar el número de caras o de rachas u observar la longitud de la racha más
423
Capítulo 6. Estudio 4
424
Evaluación de un Proyecto abierto
425
Capítulo 6. Estudio 4
teórico.
Los estudiantes tienen muchos errores en la construcción de gráficos,
repitiéndose los descritos en Arteaga (2011); en particular son muy
frecuentes los errores en las escalas, pero también la elección de un gráfico
inadecuado o la representación de variables no comparables en los gráficos.
426
Evaluación de un Proyecto abierto
estudiantes pudieron abordar con ayuda del profesor. Las variables aleatorias
y estadísticas surgieron de una forma contextualizada, aunque no se pudieron
comprender del todo bien. El interés por comprobar cómo eran sus
intuiciones provocó la devolución del problema a los alumnos, a la vez, el
debate. Su argumentación al responder las preguntas planteadas sirve para
explicitar sus concepciones, dificultades y estrategias. Lo que permitió
explorar sus concepciones, dificultades y estrategias, así como poner en
juego sus concepciones matemáticas en diversos aspectos. Sin embargo no
se logró del todo que aceptasen los resultados del análisis de datos, lo que
hizo que los estudiantes le restaran importancia a su propio trabajo
matemático y estadístico y prevalecieran sus creencias sobre la aleatoriedad
en sus conclusiones (Makar, Bakker, Ben-Zvi, 2011).
Idoneidad mediacional. La puesta a punto de la situación requirió pocos
medios, únicamente papel y lápiz y el pizarrón, y una moneda para cada
estudiante, así como hojas para registrar los datos. Aunque algunos
estudiantes utilizaron la hoja Excel para realizar sus análisis, no siempre fue
bueno, pues algunos que la utilizaron añadieron nuevos errores provocados
por el software.
Idoneidad emocional: La situación fue interesante para los estudiantes,
quienes estuvieron interesados por saber cómo eran sus intuiciones y
trabajaron con gran interés en producir sus informes. Pensamos que se
consigue la devolución del problema a las estudiantes, quienes incluso llegan
a pensar en un momento de que no se trata de un problema matemático y la
llegaron a tratar como una situación a-didáctica. Ello indica una alta
idoneidad emocional del proyecto.
En resumen, los puntos anteriores indican una idoneidad razonable del proyecto,
tanto como instrumento de evaluación (como lo hemos usado en el trabajo), como con
fines didácticos.
427
428
ÍNDICE DE CONCLUSIONES
1. Introducción, 431
2. Sobre los estudios epistemológicos, 432
3. Sobre los estudios cognitivos, 438
4. Aportaciones y limitaciones de la investigación, 445
5. Algunas ideas para investigaciones futuras, 447
1. Introducción
En esta Tesis hemos realizado un acercamiento hacia la variable aleatoria mediante dos
estudios de tipo epistemológico (descrito en los Capítulos 3 y 4) y otros dos de carácter
cognitivo (Capítulos 5 y 6). Previamente se ha justificado el interés de centrarnos en
este objeto matemático, sustentándonos en tres consideraciones principales: (a) su
carácter de idea fundamental en estadística, sugerido por Heitele (1975), quien
considera que puede ser enseñada con diferentes grados de complejidad a lo largo de
todo el currículo escolar; (b) las dificultades previsibles de los estudiantes, puesto que el
estudio de la variable aleatoria y su distribución está ligado a la comprensión de otros
objetos matemáticos (Reading y Canada, 2011); (c) la escasez de investigaciones
previas, pues este objeto matemático apenas ha recibido atención desde la investigación
didáctica.
La investigación se ha apoyado como marco teórico principal de la Teoría de
Situaciones (Brousseau, 1986, 1997) y, como consecuencia, metodológicamente,
hacemos uso de la ingeniería didáctica (Artigue, 1995a). Más concretamente, se
pretende producir información dentro del análisis preliminar previo al diseño de
situaciones didácticas en los componentes epistemológicos y cognitivos de dicho
análisis preliminar. La recogida de datos en los estudios empíricos ha requerido una
experimentación exploratoria de dos situaciones adidácticas complementarias en las que
surge implícitamente la idea de variable aleatoria, una de ellas basada en el significado
clásico de la probabilidad y la otra en los significado clásico y frecuencial y la
realización de una inferencia informal, que podrían, en el futuro, ser base en el diseño
de situaciones didácticas.
Por otro lado, también se han incorporado algunos elementos del Enfoque Onto
Semiótico desarrollado por Godino y sus colaboradores. La clasificación que proponen
los autores de objetos matemáticos primarios se usa para diferenciar varios significados
de la variable aleatoria, que dependen de la forma de asignar probabilidades y para
determinar el significado de referencia de nuestro trabajo. También nos hemos apoyado
en la idea de idoneidad didáctica para analizar las situaciones utilizadas en los Estudios
3 y 4.
A continuación, se resumirán las principales conclusiones de cada uno de estos
dos tipos de estudios desde los objetivos generales de nuestra investigación. Los
objetivos e hipótesis de cada estudio ya fueron discutidos con más detalles en los
diferentes capítulos y en sus conclusiones. Después se presentan las aportaciones más
431
7. Conclusiones
432
7. Conclusiones
el vínculo con el contexto y por lo tanto, su definición debe hacerse de modo que
permita dar respuesta a la pregunta que motiva el análisis de la situación.
En este sentido Parzen (1971) enfatiza en la importancia de la definición de la
variable aleatoria como función, al aprender a reconocer y formular matemáticamente
como función objetos descritos verbalmente a partir del contexto del problema. Es decir,
es importante percibir como una aplicación (en el sentido matemático) el texto que
traduce los sucesos del espacio muestral en números reales. Es precisamente esa
dualidad la que hace importante a la variable aleatoria dentro del ciclo de modelación,
puesto que en una primera fase de la modelación describe la «realidad» y, en un estrato
más alto, reemplaza a la realidad como sustrato operacional. Así la variable aleatoria es
una realidad matemática que se modela mediante la función de distribución y permite
introducir el análisis matemático en el estudio de los fenómenos aleatorios. La
descripción de los diferentes modelos de distribuciones (como la Binomial o Normal)
constituyen, según Batanero (2003), un ejemplo de la potencia de la modelación en
estadística.
Este doble proceso de modelación, que será de especial interés en el Estudio 3,
aparece desde el contexto del problema a la variable aleatoria y de esta a su función de
distribución. En nuestro trabajo, re-interpretamos la modelación estocástica dentro del
marco descrito por Wild y Pfannkuch (1999), haciendo uso de la propuesta de Heitele
(1975), para definir una modelación estratificada.
También se contempla la relación entre variable estadística y aleatoria desde esta
perspectiva (Ríos, 1967) observando un doble proceso de modelación en la construcción
de la variable aleatoria: desde los datos a la variable estadística; y desde este a la
variable aleatoria, siguiendo una inferencia informal (contemplado en el Estudio 4).
Asimismo, señalamos algunas posibles dificultades del aprendizaje de la modelación en
este campo, puesto que existe una mayor la distancia entre realidad y modelo
matemático que en otras ramas de las matemáticas (Coutinho, 2001), que sin embargo,
ofrece una gran oportunidad para enseñar la modelación en matemáticas, por las muchas
situaciones cotidianas en las que es posible modelar fenómenos aleatorios (Chaput,
Girard y Henry, 2011).
Un punto que no se suele discutir en los textos de estadística es la influencia que la
forma en que se asigna probabilidad tiene sobre el estudio de la variable aleatoria,
puesto que añade nuevos objetos matemáticos (problemas, conceptos, propiedades y
procedimientos) al estudio de la misma y que difieren dependiendo del tipo de
asignación de probabilidades (Batanero, 2005). La descripción de algunos de los
significados que ha recibido la probabilidad a lo largo de la historia, de su campo de
433
7. Conclusiones
434
7. Conclusiones
435
7. Conclusiones
Los estudios estadísticos son conocidos desde mucho tiempo atrás, aparecen en los
censos romanos y en todas las civilizaciones primitivas para fines militares y políticos.
Científicos y políticos e incluso algunos jugadores interesados en conocer la mejor
apuesta posible dirigieron sus esfuerzos a la recopilación de datos y su análisis.
Alrededor del siglo XVII, ya se estudiaban las regularidades de los datos con el objetivo
de hacer predicciones, por ejemplo, en el estudio de las tablas de mortandad y la
esperanza de vida. En ese entonces, las variables se definían por el contexto del
problema, pero se comenzó a denotar la importancia de variables numéricas para hacer
uso de algunos resultados y herramientas probabilísticos de la época. En particular, el
trabajo de Galileo durante el siglo XVII, da un empuje fuerte al estudio de la variación y
del análisis empírico de la variable continua a partir del análisis de los errores de las
mediciones astronómicas (Hald, 1986).
A finales del siglo XIX y principios del XX, las inferencias informales tuvieron
un fuerte auge gracias a la difusión de la distribución normal como modelo apropiado
para muchos contextos en ciencias sociales, biológica y de la herencia. Surgieron las
representaciones gráficas y tabulares para mostrar los resúmenes de datos, la
caracterización de la población de estudio, las mediciones de la variación alrededor de
la mediana, así como las primeras pruebas de normalidad de los datos. Todo esto dio
énfasis a la variable estadística y su distribución, puesto que se resaltó su carácter
numérico para poder ser analizada, a la vez que su definición respondía a un contexto de
interés, y se destacó su vinculación con la aleatoria. Sin embargo, muchos de estos
estudios hicieron uso de inferencias informales, sin hacer uso de las herramientas que se
gestaban en el campo probabilístico. Casi de manera simultánea a la formalización de la
probabilidad, en el ámbito estadístico, Karl Pearson se preocupó por fundamentar,
perfeccionar y ampliar los métodos usados principalmente por Quetelet y Galton,
haciendo uso de los resultados generados en el área de probabilidad, pero también
generando una matemátización propia. Esto comenzó a hacer explícita y formal la
vinculación entre la variable aleatoria y la estadística. Otros autores como Gosset,
Fisher, Neyman y Ergon Pearson generan herramienta que sustenta y consolida a la
inferencia como una de las principales ramas de la estadística.
Así, desde problemas externos a la matemática se desarrolló lentamente la idea
de variable estadística y su distribución, para poco a poco considerar experimentos
aleatorios potenciales, donde los datos recogidos se ampliasen indefinidamente a una
cierta población. La variable aleatoria sería, desde esta perspectiva, la generalización de
una variable estadística cuando el número de datos es infinito. Además, no hay
436
7. Conclusiones
posibilidad de examinar a priori el espacio muestral del experimento, por lo que los
parámetros y distribución de las variables aleatorias han de estimarse a partir de los
correspondientes en las variables estadísticas. En consecuencia, la asignación de
probabilidades es frecuencial (inferencia frecuencial) y se justifica mediante un proceso
de inferencia, cuyos métodos se apoyan en las propiedades de las distribuciones de las
variables subyacentes.
Independientemente, Bayes, con la formalización de su teorema y la aplicación
de éste a la determinación de las probabilidades de las causas y estimación de
proporciones, sienta las bases de lo que hoy en día es la inferencia Bayesiana.
A lo largo de la historia, se observan las distintas formas en cómo las dos vías a
través de las cuales la variable aleatoria devino como objeto matemático se
entrecruzaron y retroalimentaron mutuamente de diferentes formas. Por ejemplo,
cuando el Duque de Toscana planteó un discordancia entre el comportamiento
observado en los juegos de azar y un modelo errático de espacio muestral y se lo mostró
a Galileo. A partir de este estímulo, se generó un modelo apropiado para el recuento
teórico de los posibles resultados. O cuando Halley estudió grandes bases de datos
poblacionales, lo que indujo al análisis de la esperanza de vida y estudios de mortandad.
Otro ejemplo es cuando Jacob Bernoulli quería establecer el número de datos que harían
que la probabilidad frecuencial convergiera a la probabilidad teórica, lo que genera una
primera propuesta de la ley débil de los grandes números. Y, desde nuestro estudio, las
vinculaciones más importantes se establecen cuando el uso de la distribución normal y
diversas herramientas probabilistas en el análisis de datos en diversas áreas científicas,
favoreció no sólo la generación de inferencias informales sino también de análisis
propios de la estadística. Así mismo, cuando Pearson estableció un puente entre las
ideas de Galton y resultados probabilísticos y matemáticos, favoreciendo la
formalización de la inferencia estadística, así como la vinculación formal entre la
variable aleatoria y estadística.
Sin embargo, estas dos corrientes de pensamiento también tuvieron largos
periodos de reflexión propia, a través de los cuáles la interacción entre ellas fue casi
nula. El desarrollo de la teoría de Laplace o la larga discusión que dio lugar a la
comprobación del teorema central del límite (que tendría, sin embargo, una fuerte
repercusión en la estadística) son momentos en los que la teoría prevalece sobre la
práctica. Así mismo, en el análisis de grandes recuentos de datos a través de elementos
meramente descriptivos, y sin embargo, con fines inferenciales, permaneció mucho
tiempo sin la influencia de herramienta teórica que permitiera análisis más potentes.
437
7. Conclusiones
438
7. Conclusiones
439
7. Conclusiones
440
7. Conclusiones
También pudimos observar las distintas soluciones por las que transitan las
estudiantes para llegar a una conclusión que ellas puedan argumentar
satisfactoriamente y los motivos por los que buscan una nueva solución. Las
estudiantes entran varias veces en el ciclo interrogativo de Wild y Pfannkuch
(1999), lo que también hace que hagan uso de herramientas matemáticas que
inicialmente no contemplaron. Así mismo, es notorio cómo el contexto del
problema condiciona la discusión y las soluciones de las estudiantes.
441
7. Conclusiones
442
7. Conclusiones
las otras dos, en cambio, en general, los que elaboraron tablas, lo hicieron
para las tres variables.
La comprensión y uso de medidas de tendencia central y su interpretación
fue mucho mayor que las de dispersión que, en caso de ser calculadas, no se
interpretan, salvo algunas excepciones. La comprensión de la idea de
dispersión no parece intuitiva para los estudiantes, quienes también repiten
los errores en sus representaciones gráficas que han sido descritos en
investigaciones previas como las de Bruno y Espinel (2005), Espinel (2007)
y Arteaga (2011).
443
7. Conclusiones
lanzamientos como variable que con la que se pueden estudiar los datos para
resolver la cuestión planteada.
En los pasos 3 y 4, los estudiantes muestran buena capacidad para construir y
trabajar con diferentes modelos matemáticos sencillos (tablas, gráficos y
estadísticos resúmenes), aunque en algunos de ellos aparecen errores
matemáticos o de simbolización. Sin embargo, encontramos una gran
dificultad de los estudiantes en el último paso del ciclo de modelización,
pues no tradujeron los resultados matemáticos al contexto del problema. Una
tercera parte de los estudiantes sí llegaron a comparar las variables de las
secuencias reales y simuladas, pero pocos llegaron a concluir sobre las
intuiciones de la aleatoriedad de los estudiantes. Esto nos dio indicios de que
no les fue claro cuál era la pregunta de investigación que tenían que
contestar en el proyecto o el papel que jugaban las variables aleatorias (y su
distribución) en la respuesta a esa pregunta. Por tanto, la definición de las
variables (en el paso 2 de la modelación) juega un papel importante en la
realización del proyecto, puesto que su incomprensión hace que, aun cuando
hayan realizado un trabajo matemático bueno, el ciclo de modelación se
quede trunco.
Hay que tomar en cuenta que los estudiantes de nuestra muestra tenían poco
trabajo previo con proyectos, sólo una parte de ellos habían realizado uno en
el curso anterior. Además de que no se fomenta este tipo de trabajo en otras
ramas de las matemáticas. Así que esta falta de experiencia con proyectos
estadísticos también influye en la incomprensión de la utilidad del análisis
estadístico para resolver problemas reales y su capacidad para vincular el
trabajo matemático con las variables y el contexto del problema. Ello
concuerda con lo señalado por Dantal (1997) y Chaput, Girard y Henry
(2011) que sugieren que es necesario recorrer con los estudiantes todas las
fases del ciclo de modelización en la clase de matemáticas y no sólo
centrarse en el trabajo matemático.
Así mismo, observamos que muchos estudiantes se dejan llevar por su
conocimiento sobre el contexto también en el análisis estadístico. Es decir,
dan preferencia a sus creencias por sobre los resultados de su análisis. Esto
también se ha observado en otras investigaciones, por ejemplo Estepa y
Batanero (1994) donde los estudiantes también siguen sus creencias al
resolver algunos problemas de asociación en tablas de contingencia.
444
7. Conclusiones
445
7. Conclusiones
446
7. Conclusiones
447
7. Conclusiones
Una hipótesis factible sería que los estudiantes se apropian del concepto a través
de la constante interacción entre estos dos tipos de situaciones y otras situaciones no
consideradas en este estudio (por ejemplo, la revisión de probabilidades a la luz de una
nueva información, utilizada en la inferencia Bayesiana). Tal diseño, entonces, deberá
contemplar las interacciones entre los contextos estadísticos y probabilísticos que,
detectamos, se han dado a lo largo del surgimiento del concepto de variable aleatoria.
Una vez diseñada la secuencia de enseñanza, sería necesario llevarla a cabo en
uno o varios grupos naturales de clase, observando su desarrollo, para comparar el
significado realmente implementado en la clase, con el significado pretendido en la
secuencia instruccional.
Asimismo sería necesario la construcción de instrumentos de evaluación del
aprendizaje de la variable aleatoria, que se basen en los ya utilizados en este trabajo,
pero que contemple la totalidad del significado de referencia del objeto variable
aleatoria. Es decir, que tengan suficiente validez de contenido. Dichos instrumentos,
aplicados a muestras de estudiantes después de la enseñanza del tema, permitirían
comprobar si las dificultades descritas en esta Memoria están extendidas en otros
estudiantes.
Esta investigación también abre nuevas oportunidades de estudio en la
comprensión de variables aleatorias en diversas situaciones, por ejemplo en las
distribuciones particulares, siguiendo estudios previos como el de Tauber (2001) sobre
la distribución normal. O bien, la operatividad de variables aleatorias, en especial, los
estadísticos y distribuciones del muestreo de una y varias variables y la inferencia
estadística para el caso de los estudiantes universitarios. Algunos estudio base serían los
Alvarado (2007) y Olivo (2008).
Otra vía de investigación es desarrollar una propuesta curricular que considere la
enseñanza de la variable aleatoria como una idea fundamental, tal como propone Heitele
(1979). De acuerdo con nuestros análisis epistemológicos histórico y disciplinar de la
variable aleatoria, la complejidad de este concepto matemático hace que las ideas
vinculadas con la variable aleatoria requieren de mucho tiempo para ser construidas. Por
448
7. Conclusiones
ello, podría resultar interesante el estudio de su introducción desde las primeras etapas
de desarrollo del niño siguiendo la línea de Heitele. El principio básico sería que no se
puede ser exhaustivo en ninguno de los niveles, pero sí se pueden enseñar
prefiguraciones del concepto en cada nivel escolar de manera provechosa, de modo que
proporcionen un significado redondo que puedan ser retomado en niveles escolares
superiores para incrementar su profundidad. Estas prefiguraciones podrían estar
inspiradas en las etapas históricas marcadas en nuestro estudio.
Nuestro trabajo también hace acentúa la importancia de la vinculación entre las
variables aleatoria y estadística en la inferencia informal y la importancia del
conocimiento del contexto en la realización de estas inferencias, cuestiones que puede
ser retomadas a la luz de muy recientes investigaciones que han surgido alrededor de
estos temas.
449
450
Referencias
Alatorre, S. (1998). Acerca del tratamiento didáctico de la probabilid ad. Correo del
Maestro 26, 23-35.
Alquicira, Z. M. (1998). Probabilidad: Docencia y praxis. Hacia una fundamentación
epistemológica. Tesis de Maestría. Cinvestav, México.
Alvarado, H. (2007). Significados del teorema central del límite en la enseñanza de la
estadística en ingeniería. Tesis Doctoral. Universidad de Granada, España.
Arteaga, P. (2011). Los gráficos estadísticos en la formación de profe sores de
educación primaria: evaluación de conocimiento matemático-didáctico en la
realización y valoración de un proyecto d e análisis de datos. Tesis Doctoral.
Universidad de Granada, España.
Arteaga, P., Batanero, C. y Ruiz, B., ( 2008). Complejidad semiótica de gráficos
producidos por futuros profesor es en la comparación de dos muestras. En L.
Blanco y cols. (Eds.). Actas del XII Simposio de l as Sociedad Española d e
Investigación en Educación Matemática. Comunicaciones en los grupos de
trabajo. CD- ROM. Badajoz: SEIEM
Arteaga, P., Batanero, C. y Ruiz, B. (2009). Comparación de distribuciones por futuros
profesores. En M. J. González, M. T. González y J. Murillo (Eds.), Investigación
en Educación Matemática XIII (pp. 129-138). Santander: SEIEM.
Arteaga, P., Batanero, C. y Ruiz, B. (2010). Pre-se rvice primary school teach ers’
perception of randomness. En M. M. F Pinto y T. F. Kawasaki (Eds), Proceedings
of the 34th Conference of the International Group for the Psych ology of
Mathematics Education (Vol 2, pp. 169-176). Belo Horizonte, Brasil: PME group.
Arteaga, P., Ruiz, B. y Batanero, C. (2 008). Complejidad semiótica de gráficos
estadísticos en la comparación de dos distrib uciones por futuros profeso res.
Trabajo presentado en el Encuentro Latino Americano de Educación Estadística.
Monterrey, México, Julio, 2008.
Artigue, M. (199 0). Epistémologie et did actique. Recherches en Didactique des
Mathématiques, 10(2-3), 241-286.
Artigue, M. (1995a). Ingeniería d idáctica. En P. Gómez (Ed.), Ingeniería didáctica en
educación matemática (pp. 39-59). México: Iberoamericana.
451
Artigue, M. (1995b). Une recherche d’ingénierie didactique sur l’enseignement des
mathématiques. Trabajo presentado en la Reunión Recherches en Didactique des
mathématiques et de l’Informatique. Grenoble: IMAG-LSD.
Ayers, T., Davis, G., Dubinsky, E. y Lewin, P. (1988). Computer experiences in
learning composition of functions. Journal for Research in Mathematics
Education, 19 (3), 246-259.
Azcárate, P. (1995). El conocimiento profesional de los profesores sobre las nociones
de aleatoriedad y probabilidad. Su estudio en el caso de la educación primaria.
Tesis Doctoral. Universidad de Cádiz, España.
Bakker, A. y Gravemeijer, K. P. E. (2004). Learning to reason about distribution. En J.
Garfield y D. Ben-Zvi (Eds.), The challenge of developing statistical literacy,
reasoning and thinking (pp 147-168). Dordrecht: Kluwer.
Batanero, C. (2001). Didáctica de la estadística. Granada: Grupo de investigación en
educación estadística.
Batanero, C. (2002). Los retos de la cultura estadística. Conferencia inaugural. Jornadas
Interamericanas de Enseñanza de la Estadística. Buenos Aires, Argentina.
Online: www.ugr.es/~batanero/.
Batanero, C. (2003). La simulación como instrumento de modelización en probabilidad.
Educación y Pedagogía, 35, 37-64.
Batanero, C. (2005). Significados de la probabilidad en la educación secundaria. Relime
8(3). 247-264.
Batanero, C., Arteaga, P. y Ruiz, B. (2009). Statistical graphs produced by prospective
teachers in comparing two distributions. En V. Durand-Guerrier, S. Soury-
Lavergne y F. Arzarello (Eds.), Proceedings of the Sixth Congress of the
European Society for Research in Mathematics Education. Lyon, Francia: ERME.
Online: www.inrp.fr/editions/editions-electroniques/cerme6/.
Batanero, C., Arteaga, P. y Ruiz, B. (2010). Análisis de la complejidad semiótica de los
gráficos producidos por futuros profesores de educación primaria en una tarea de
comparación de dos variables estadísticas. Enseñanza de las Ciencias, 28(1), 141-
154.
Batanero, C., Arteaga, P., Ruiz, B. y Roa, R. (2010). Assessing pre-service teachers
conceptions of randomness through project work. En C, Reading (Ed.),
Proceedings of the Eight International Conference on Teaching Statistics.
Lubjana: International Association for Statistical Education. Online:
www.stat.auckland.ac.nz/~iase/publications.
Batanero, C. Arteaga, P., Serrano, L. y Ruiz. B. (2013). Prospective primary school
teachers’ perception of randomness. En E. J Chernoff, y B. Sriraman, (Eds.),
Probabilistic thinking: presenting plural perspectives. Advances in Mathematics
Education Series. Springer, en prensa.
452
Batanero, C. Burrill, G. y Reading, C. (Eds.) (2011). Teaching statistics in school
mathematics- challenges for teaching and teacher education. A Joint ICMI/IASE
Study. New York: Springer.
Batanero, C. Burrill, G., Reading, C. y Rossman, A. (2008). Proceedings of the Joint
ICMI /IASE Study Teaching Statistics in School Mathematics. Challenges for
Teaching and Teacher Education. Monterrey, México: ICMI e IASE. CD ROM.
Batanero, C. y Díaz, C. (2007). Probabilidad, grado de creencia y proceso de
aprendizaje. Actas de las XIII Jornadas Nacionales de Enseñanza y Aprendizaje
de las Matemáticas [CD-ROM]. Granada: Federación de Sociedades de
Profesores de Matemáticas.
Batanero, C., Estepa, A. y Godino, J. D. (1997). Evolution of students' understanding of
statistical association in a computer-based teaching environment. En J. B. Garfield
y G. Burrill (Eds.), Research on the role of technology in teaching and learning
statistics. 1996 IASE Round Table Conference (pp. 183-198). University of
Minnesota: IASE.
Batanero, C., Henry, M. y Parzysz, B. (2005). The nature of chance and probability. En
G. Jones (Ed.). Exploring probability in school: challenges for teaching and
learning (pp. 15-37). Dordrecht: Kluwer.
Batanero, C. y Serrano, L. (1995). La aleatoriedad, sus significados e implicaciones
educativas. Uno, 5, 15-28.
Batanero, C. y Serrano, L. (1999). The meaning of randomness for secondary students.
Journal for Research in Mathematics Education, 30, 558-567.
Batanero, C., Serrano, L. y Green, D. R. (1998). Randomness, its meanings and
implications for teaching probability. International Journal of Mathematics
Education in Science and Technology, 29 (1), 113-123.
Batanero, C., Tauber, L. y Sánchez V. (2001). Significado y comprensión de la
distribución normal en un curso introductoria de análisis de datos. Quadrante, 10
(1), 59-92.
Batanero, C., Tauber, L. y Sánchez, V. (2004). Student’s reasoning about the normal
distribution. En D. Ben-Zvi y J. B. Garfield (Eds.), The challenge of developing
statistical literacy, reasoning, and thinking (pp. 257-276). Dordrecht: Kluwer.
Beltrami, E. (1999). What is random? Chance and order in mathematics and life. New
York: Copernicus, Springer-Verlag.
Bellhouse, D. R. (2000). De Vetula: a medieval manuscript containing probability
calculations. International Statistical Review, 68(2), 123-136.
Bennett, D. J. (1998). Randomness. Cambridge: Harvard University Press.
Bernoulli, D. (1954). Exposition of a new theory on the measurement of risk
Econometrica, 22 (1), 23-36. (Trabajo original publicado en 1738 ),
453
Bernoulli, J. (2006). The art of conjecturing. En E. D. Sylla (Ed.). Ars conjectandi
together with letter to a friend on sets in court tennis (pp 127-340). Baltimore:
The Johns Hopkins University Press (Trabajo original publicado en 1713).
Blum, W., Galbraith, P. L., Henn, H. W. y Niss, M. (2007). Modelling and applications
in Mathematics Education. The 14th ICMI Study. New York: Springer.
Boudot, M. (1979). Lógica inductiva y probabilidad. Madrid: Paraninfo.
Borovcnik, M., Bentz, H. J. y Kapadia, R. (1991a). A probabilistic perspective. En R.
Kapadia y M. Borovcnik (Eds), Chance encounters: Probability in education (pp
27-71). Dordrecht, Netherlands: Kluwer.
Borovcnik, M., Bentz, H. J. y Kapadia, R. (1991b). Empirical research in understanding
probability. En R. Kapadia y M. Borovcnik (Eds.), Chance encounters:
probability in education (pp. 73-105). Dordrecht: Kluwer.
Brousseau, G. (1981). Los obstáculos epistemológicos y los problemas en matemáticas.
México: Cinvestav.
Brousseau, G. (1986). Fondements et méthodes de la didactique des mathématiques.
Recherches en Didactique des Mathématiques¸ 7(2), 33-115.
Brousseau, G. (1997). Theory of didactical situations in mathematics. Didactique des
mathématiques, 1970-1990. Dordrecht, Netherlands: Kluwer.
Bruner, J. S. (1960). The process of education. Massachusetts: Cambridge.
Bunge, M. (1973). La investigación científica. Barcelona: Ariel.
Bruno, A. y Espinel, M. C. (2005). Recta numérica, escalas y gráficas estadísticas: un
estudio con estudiantes para profesores. Formación del Profesorado e
Investigación en Educación Matemáticas 7, 57-85.
Cantoral, R. y Farfán, R. (1998). Pensamiento y lenguaje variacional en la introducción
al análisis. Épsilon, 42, 353-369.
Cardano, G. (1953). The book on games of chance. En O. Ore (Ed.), Cardano: the
Gambling Scholar (pp 181-241). Princeton: Princeton University Press. (Trabajo
original publicado en 1663).
Castillo, J. y Gómez, J. (1998). Estadística inferencial básica. México: Grupo Editorial
Iberoamérica.
Chaput, B., Girard, J. C. y Henry, M. (2011). Modeling and simulations in statistics
education. En C. Batanero, G. Burrill y C. Reading (Eds.) (2011). Teaching
Statistics in School Mathematics- Challenges for Teaching and Teacher
Education. A Joint ICMI/IASE Study (pp. 85-95). New York: Springer.
Chernoff, E. (2009a). Subjective probabilities derived from the perceived randomness of
sequences of outcomes. Unpublished Ph. D. Simon Fraser University.
Chernoff, E. (2009b). Sample space partitions: An investigative lens. Journal of
Mathematical Behavior, 28, 19–29.
454
Chevallard, Y. (1985). La transposición didáctica. Argentina: Aique
Chevallard, Y. (1991) Dimension instrumentale, dimension sémiotique de l’activé
mathématique. Trabajo presentado en el Séminaire de Didactique des
Mathématiques et de l’informatique de Grenoble. Grenoble: Université Joshep-
Fourier,
Chevallard, Y. (1992). Concepts fondamentaux de la didactique: perspectives apportées
par un apache anthropologique. Recherches en Didactique des Mathématiques, 12
(1), 73-112.
Chevallard, Y., Bosch, M. y Gascón, J. (1997). Estudiar matemáticas. El eslabón
perdido entre la enseñanza y el aprendizaje. Barcelona: Horsori.
Ciancetta, M. (2007). Students’ reasoning when comparing distributions of data. Tesis
doctoral, Portland State University, Estados Unidos.
Clement, J. (2000). Analysis of clinical interviews: Foundations and model viability. En
A. E. Kelly y R. A. Lesh (Eds), Handbook of research design in mathematics and
science education (pp 547-589). London: Lawrence Erlbaum.
Cobo, B. (2003). Significado de las medidas de posición central para los estudiantes de
Secundaria. Tesis Doctoral. Universidad de Granada, España.
Confrey, J. (1980). Clinical interview: Its potential to reveal insights in mathematical
education. En R. Karplus (Ed.), Proceedings of the 4th International Conference
for the Psychology of Mathematics Education (pp. 400-408). Berkeley, C.A:
PME-NA.
Contreras, J. M. (2011). Evaluación de conocimientos y recursos didácticos en la
formación de profesores sobre probabilidad condicional. Tesis Doctoral.
Universidad de Granada, España.
Coutinho, C. (2001). Introduction aux situations aléatoires dès le Collège: de la
modélisation à la simulation d’expériences de Bernoulli dans l’environnement
informatique Cabri-géomètre-II. Tesis Doctoral. Universidad de Grenoble.
Cuadras, C. (1999). Problemas de probabilidades y estadística. (Vol. 1). Barcelona:
EUB.
Dantal, B. (1997). Les enjeux de la modélisation en probabilité. En Enseigner les
probabilités au lycée (pp. 57-59). Reims: Commission Inter-IREM.
De la Cruz, A. T. (2007). Un estudio sobre la construcción social de la noción de
promedio en un contexto probabilístico. Tesis de Maestría. Centro de
Investigación en Ciencia Aplicada y Tecnología Avanzada. México.
Devore, J. (2011). Probabilidad y estadística para ingeniería y ciencias. México:
Cengage Learning.
455
Doob, J. L. (1976). Foundations of probability theory and its influence on the theory of
statistics. En D. B. Owen. On the history of statistics and probability: proceedings
of a symposium on the American mathematical heritage (pp. 196-204). New
York: Dekker.
Doob, J. L. (1986). The central limit theorem around 1935: Comment. Statistical
Science, 1(1), 93-94.
Engel, J. y Sedlmeier, P. (2005). On middle-school students’ comprehension of
randomness and chance variability in data. Zentralblatt fur Didaltik der
Mathematik, 37(3), 168-177.
Engelke, N., Oehrtman, M. y Carlson, M. (2005). Composition of functions: Precalculus
students' understandings. En G. M. Lloyd, M. Wilson, J. L. Wilkins y S. L. Behm
(Eds). Proceedings of the 27th annual meeting of the North American Chapter of
the International Group for the Psychology of Mathematics Education
[CD_ROM]. Virginia Technological University.
Estepa, A. y Batanero, C. (1994). Concepciones iniciales sobre la asociación estadística.
Enseñanza de las Ciencias, 13(2), 155-170.
Espinel, C. (2007). Construcción y razonamiento de gráficos estadísticos en la
formación de profesores. Investigación en Educación Matemática 11, 99-119.
Estrada, A., Batanero, C. y Fortuny, J. M. (2004). Un estudio de evaluación de
conocimientos estadísticos en profesores en formación e implicaciones didácticas.
Educación Matemática, 16, 89-112.
Falk, R. (1981). The perception of randomness. In Proceedings of the fifth international
conference for the psychology of mathematics education (Vol. 1, pp. 222–229).
Grenoble, France: Laboratoire IMAG.
Falk. R. (1986). Misconceptions of statistical significance. Journal of Structural
Learning, 9, 83-96.
Falk, R. y Konold, C. (1997). Making sense of randomness: Implicit encoding as a basis
for judgment. Psychological Review, 104, 301-318.
Feller, W. (1989). Introducción a la teoría de probabilidades y sus aplicaciones (Vol.
1). México: Limusa.
Fischbein, E. (1975). The intuitive sources of probabilistic thinking in children.
Dordrecht: D. Reidel.
Fischbein, E. y Gazit, A. (1984). Does the teaching of probability improve probabilistic
intuitions?. Educational Studies in Mathematics, 15(1), 1-24.
Fischbein, E., Nello, M.S. y Marino, M.S. (1991). Factors afffecting probabilistic
judgments in children and adolescents. Educational Studies in Mathematics,
22(6), 523-549.
456
Fischer, H. (2011). A history of the central limit theorem from classical to modern
probability theory. New York: Springer.
Fisher, R. A. (1918). The correlation between relatives on the supposition of mendelian
inheritance. Royal Society of Edinburgh from Transactions of the Society, 52, 399-
433.
Fisher, R.A. (1922). On the mathematical foundations of theoretical statistics.
Philosophical Transactions of the Royal Society of London, A, 222, 309-368.
Fisher, R.A. (1930). Inverse probability. Proceedings of the Cambridge philosophical
society, 26, 528-535.
Friel, S., Curcio, F. y Bright, G. (2001). Making sense of graphs: critical factors
influencing comprehension and instructional implications. Journal for Research
in mathematics Education 32(2), 124-158.
Gal, I. (2002). Adult's statistical literacy. Meanings, components, responsibilities.
International Statistical Review, 70 (1), 1-25.
Galton, F. (1889). Natural inheritance. London: Macmillan.
Galton, F. (1901). Biometry. Biometrika, 1(1), 7-10.
Galton, F. (1908). Memories of my life. London: Methuen
García, M. (1971). Desarrollo histórico de la teoría de probabilidad. Estadística
Española, 71, 51-86. Online: www.ine.es/revistas/estaespa/estaespa51a60.htm
García, M. (2007). Resignificando el concepto de función lineal en una experiencia de
educación a distancia. Tesis de Maestría. México: CICATA-IPN, México.
Gattuso, L. y Ottaviani, G. (2011). Complementing mathematical thinking and
statistical thinking in school mathematics. En C. Batanero, G. Burrill y C.
Reading (Eds.) (2011). Teaching Statistics in School Mathematics- Challenges for
Teaching and Teacher Education. A Joint ICMI/IASE Study (pp. 121-132). New
York: Springer.
Ghiglione, R. y Matalón, B. (1989). Les enquêtes sociologiques. Théorie et practique.
París: Armand Colin.
Gimeno, J. (1984). Teoría de la enseñanza y desarrollo del currículo. Madrid:
Paraninfo.
Godino, J. D. (1996). Mathematical concepts, their meaning and understanding. En L.
Puig y A. Gutierrez (Eds.), Proceedings of XX Conference of the International
Group for the Psychology of Mathematics Education. (Vol. 2, pp. 417-425).
Valencia, España: PME.
Godino, J. D. (2002). Un enfoque ontológico y semiótico de la cognición matemática.
Recherches en Didactique des Mathématiques, 22(2/3), 237-238.
Godino, J. D. y Batanero, C. (1994). Significado institucional y personal de los objetos
matemáticos. Recherches en Didactique des Mathématiques, 14(3), 325-355.
457
Godino, J. D. y Batanero, C. (1998). Clarifying the meaning of mathematical objects as
a priority area of research in mathematics education. En A. Sierpinska y J.
Kilpatrick (Eds.), Mathematics Education as a research domain: A search for
identity (pp. 177-195). Dordrecht: Kluwer.
Godino, J. D., Batanero, C. y Cañizares, M. J. (1996). Azar y probabilidad. Madrid:
Síntesis.
Godino, J. D. Batanero, C. y Font, V. (2007). The onto-semiotic approach to research in
mathematics education. ZDM. The International Journal on Mathematics
Education, 39 (1-2), 127-135.
Godino, J. D., Batanero, C., Roa, R. y Wilhelmi, M. R. (2008). Assessing and
developing pedagogical content and statistical knowledge of primary school
teachers through project work. En C. Batanero, G. Burrill, C. Reading & A.
Rossman (2008). Proceedings of the Joint ICMI/IASE Study: Teaching Statistics
in School Mathematics. Challenges for Teaching and Teacher Education.
Proceedings of the ICMI Study 18 and 2008 IASE Round Table Conference.
Monterrey: ICMI and IASE. Online: www.stat.auckland.ac.nz/~iase/publications.
Godino, J. D., Contreras A. y Font, V. (2006). Análisis de procesos de instrucción
basado en el enfoque ontológico-semiótico de la cognición matemática.
Recherches en Didactiques des Mathématiques, 26 (1), 39-88.
Godino, J. D., Font, V., Contreras, A. y Wilhelmi, M. R. (2006). Una visión de la
didáctica francesa desde el enfoque ontosemiótico de la cognición e instrucción
matemática. Revista Latinoamerica de Investigación en Matemática Educativa,
9(1), 117-150.
Godino, J., Wilhelmi, M. y Bencomo, D. (2005). Suitability criteria of a mathematical
instruction process. A teaching experience of the function notion. Mediterranean
Journal for Research in Mathematics Education, 4(2), 1-26.
Gómez, B. (2003). La investigación histórica en Didáctica de las matemáticas. En E.
Castro, P. Flores, T. Ortega, L. Rico y A. Vallecillos (Eds.). Investigación en
Educación Matemática. VII Simposio de la Sociedad Española de Investigación
en Educación Matemática (SEIEM) (pp. 79-85). Universidad de Granada.
Gómez, E. (2008). La construcción de la noción de variable. Tesis de doctorado. Centro
de investigación en ciencia aplicada y tecnología avanzada del IPN, México.
Graunt, J. (1968). Natural and political observations mentioned in a following index and
made upon the bills of mortality. En J. Newman (Ed), Sigma: El mundo de las
matemáticas (Vol. 3, pp 108-121). Barcelona: Grijalbo (Trabajo original
publicado en 1662).
Green, D. R. (1982). Testing randomness. Teaching Mathematics and its Application,
1(3), 95-100.
Green, D. R. (1989). School pupils' understanding of randomness. En R. Morris (Ed.),
Studies in Mathematics Education, (Vol. 7, pp. 27-39). París: Unesco.
458
Green, D. R. y Hunt, D.N. (1992). Generation and recognition of random sequences.
Mathematical Education Report ME9102, Department of Mathematical Sciences.
Loughborough, UK: University of Technology.
Gutiérrez, S. (1992). Filosofía de la probabilidad. Valencia, España: Tirant lo Blanc.
Hacking I. (1975). El surgimiento de la probabilidad. Un estudio filosófico de las ideas
tempranas acerca de la probabilidad, la inducción y la inferencia estadística.
Barcelona: Gedisa.
Hald A. (1986). Galileo´s statistical analysis of astronomical observations. International
Statistical Review, 54(2), 211-220.
Hald, A. (2003). A history of probability and statistics and their applications before
1750. New Jersey: John Wiley.
Halley, E.(1693). An estimate of the degrees of the mortality of mankind, drawn from
curious tables of the births and funerals at the city of Breslaw; with an attempt to
ascertain the price of annuities upon lives. Philosophical Transactions of the
Royal Society of London, 17(1), 596-610.
Hawking, S. (2006). Dios creó los números. Los descubrimientos matemáticos que
cambiaron la historia. Barcelona: Crítica.
Hawkins, A., Jolliffe, F. y Glickman, L. (1992). Teaching statistical concepts. Essex:
Longman.
Hawkins, A. y Kapadia, R. (1984). Children’s conceptions of probability: A
psychological and pedagogical review. Educational Studies in Mathematics,
15(4), 349-377.
Heitele, D. (1975). An epistemological view on fundamental stochastic ideas.
Educational Studies in Mathematics, 6(3), 187-205.
Henry, M. (1997). Notion de modéle et modélization en l’enseignement. En Enseigner
les probabilités au lycée, Commission Inter-IREM, Reims, 77-84.
Hernández, J., Noda, A, Palarea, M. y Socas, M. (2003). Estudio sobre habilidades
básicas en matemáticas de alumnos de magisterio. Universidad de La Laguna.
Departamento de Análisis Matemático.
Huberman, A. M. y Miles, M. (1994). Data management and analysis methods. En N.
K. Denzin y Y. S. Lincoln (Eds.), Handbook of qualitative research (pp. 428 –
444). London: Sage Publications.
Huck, S., Cross, T. y Clark, S. (1986). Overcoming misconceptions about z-scores.
Teaching Statistics, 8(2), 38-40.
Huygens, C. (1714). Libellus de ratiociniis in ludo aleae or the value of all chances in
games of fortune. London: T. Woodward. (Trabajo original publicado en 1657).
Online: www.york.ac.uk/depts/maths/histstat/huygens.pdf
459
Inhelder, B. y Piaget, J. (1955). De la logique de l´enfant à la logique de l´adolescent.
París: Presses Universitaires de France.
Johnson, R. y Kuby, P. (2008). Estadística elemental: Lo esencial (10ª Ed). México:
Cengage Learning.
Jones, G. (2005). (Ed), Exploring probability in school: Challenges for teaching and
learning. New York: Springer.
Jones, G., Langrall, C. y Mooney, E. (2007). Research in probability: responding to
classroom realities. In F. Lester (Ed.), Second handbook of research on
mathematics teaching and learning. Greenwich, CT: Information Age Publishing
y NCTM.
Kahneman, D., Slovic, P. y Tversky, A. (1982). Judgement under uncertainty:
heuristics and biases. Cambridge: Cambridge University Press.
Kazak, S. y Confrey, J. (2007). Elementary school students’ intuitive conceptions of
random distribution. International Electronic Journal of Mathematics Education,
2(3). Online: www.iejme.com.
Kolmogorov A. (1956). Foundations of the theory of probability, 2° edition. New York:
Chelsea Publishing Company (trabajo original publicado en 1933).
Konold, C. (1989). Informal conceptions of probability. Cognition and instruction, 6(1),
59-98.
Konold, C., Lohmeier, J., Pollatsek, A., Well, A. D., Falk, R. y Lipson, A. (1991).
Novice views on randomness. En R. G. Underhill (Ed.), Proceedings of the
Thirteenth Annual Meeting of the North American Chapter of the International
Group for the Psychology of Mathematics Education (pp. 167-173). Blacksburg:
Virginia Polytechnic Institute and State University.
Konold, C., Pollatsek, A., Well, A. y Gagnon, A. (1997). Students analyzing data:
Research of critical barriers. En J. B. Garfield & G. Burrill (Eds.), Research on
the role of technology in teaching and learning statistics. Voorburg, The
Netherlands: International Statistical Institute.
Krickeberg, K. (1973). Teoría de la probabilidad. Barcelona: Teide.
Langer, E. J. (1975). The illusion of control. Journal of Personality and Social
Psychology, 32(2), 311-328.
Laplace P. S. (1778). Mémoire sur les probabilités. Mémoires de l'Académie Royale des
Sciences de Paris, 383-485.
Laplace P. S. (1812). Théorie analytique des probabilités. Gauthier-Villars.
Laplace P. S. (2006). Ensayo filosófico sobre las probabilidades. En S. Hawking (Ed),
Dios creó los números. Los descubrimientos matemáticos que cambiaron la
historia (pp. 361-419). Barcelona: Crítica (Trabajo original publicado en 1814).
460
Lecoutre, M. P. (1992). Cognitive models and problem spaces in "purely random"
situations. Educational Studies in Mathematics, 23, 557-568.
Lehmann, E. L. (1994). Jerzy Neyman. En National Research Council (Eds).
Biographical Memoirs (Vol 63, pp. 394-421). Washington, DC: The National
Academies Press.
Lévy P. (1935). Sur la sommabilité des séries aléatoires divergentes. Bulletin de la
Société Mathématique Française, 63, 1-35.
Lévy, P. (1936). Sur quelques points de la théorie des probabilités dénombrables.
Institute Henry Poincaré, 6(2), 153-184.
Lévy P. (1939). L'addition des variables aléatoires définies sur une circonférence.
Bulletin de la Société Mathématique Française, 67, 1-41.
Lévy P. (1959). Esquisse d'une théorie de la multiplication des variables aléatoires.
Annales scientifiques de l'École Normale Supérieure, 3a série, 76(1), 59-82.
Liapounoff, A. M. (1900). Sur une proposition de la théorie des probabilités. Bulletin de
l’Académie Impériale des Sciences de St. Petersburg, 13(4), 359-386.
Liapounoff, A. M. (1901a). Sur théorème du calcul des probabilités. Comptes rendus
hebdomadaires des séances de l’Académie des Sciences de Paris 132(3), 126-128.
Liapounoff, A. M. (1901b). Une proposition générale du calcul des probabilités.
Comptes rendus hebdomadaires des séances de l’Académie des Sciences de Paris,
132(13), 814-815.
Maistrov, L. E. (1974). Probability theory. A historical sketch. New York : Academic
Press.
Makar, K., Bakker, A. y Ben-Zvi, D. (2011). The reasoning behind informal statistical
inference. Mathematical thinking and learning, 13, 152-173.
Mayén (2009). Significados de las medidas de posición central para estudiantes
mexicanos de Bachillerato. Tesis doctoral. Universidad de Granada.
Magnello, M.E. (2009). Karl Pearson and the establishment of mathematical estatistics.
International Statistical Review, 77(1), 3-29.
McLean, M. (2007). The cosmographia of Sebastian Münster: describing the word in
the reformation. Surreu, UK: Ashgate.
Ministerio de Educación y Ciencia/MEC (2006). Real Decreto 1513/2006, de 7 de
diciembre, por el que se establecen las enseñanzas mínimas correspondientes a la
Educación primaria.
Meyer, P. (1989). Probabilidad y aplicaciones estadísticas. México: SITESA: Addison
Wesley Iberoamericana.
Miller, T. K. (1998). The random variable concept in introductory statistics. En L.
Pereira- Mendoza (Ed.). Proceedings of the Fifth International Conference on
Teaching Statistics. (pp. 1221-1222). Singapur: IASE.
461
Mises, R. von (1952). Probabilidad, estadística y verdad. Madrid: Espasa Calpe
(Trabajo original publicado en 1928).
Moivre, A. de (1756). The doctrine of chances or a method of calculating the
probability of events in play, 3rd edition. London: A. Millar.
Moivre, A. de (1984). On the measurement of chance, or, on the probability of events in
games depending upon fortuitous chance. International Statistical Review, 52,
237-262. (Trabajo original publicado en 1712).
Mood, A. y Graybill, F. (1963). Introducción a la teoría de la estadística. Madrid:
Aguilar.
Muñoz, J. y Valverde, J. (2000). Compendio de epistemología. Madrid: Trotta.
Moreno, M.D., Hernández, V., y Socas, M.M. (2010). Interpretación y análisis de los
resultados obtenidos antes y después de un programa de formación sobre los
números decimales. Formación del Profesorado e Investigación en Educación
Matemática, 10,179-222.
Nardecchia, G. y Hevia, H. (2003). Dificultades en la enseñanza del concepto de
variable aleatoria. Trabajo presentado en el V Simposio de Educación Matemática.
Chivilcoy, Argentina.
National Council on Teaching Mathematics [NCTM]. (2000). Principles and standards
for school mathematics. Reston, VA: NCTM. Online: standards.nctm.org/.
Newton, J. H. (2002). A conversation with Emanuel Parzen. Statistical Science, 17(3),
357-378.
Nickerson, R. S. (2002). The production and perception of randomness. Psychological
Review, 109, 330-357.
Olivo, E. (2008). Significados del intervalo de confianza en la enseñanza de la
ingeniería en México. Tesis Doctoral. Universidad de Granada.
Ortiz J. J. (2002). La probabilidad en los libros de texto. Granada: Grupo de
investigación en educación estadística.
Oseguera, F. (1994). El concepto de variable aleatoria en el contexto del currículo.
Análisis y Alternativas. Tesis de Maestría. Cinvestav, México.
Pascal, B. (1963). Traité du triangle arithmétique. En Œuvres Complètes (pp. 43-49).
París: Seuil. (Trabajo original publicado en 1654).
Pascal, B. y Fermat, P. (2007). Correspondencia entre Pascal y Fermat durante 1654. En
J. Basurto y J. A. Camuñez (Eds.), La geometría del azar (pp. 231-278). Madrid:
Nivola. (Trabajo original publicado en 1654).
Parzen, E. (1971). Teoría moderna de probabilidades y sus aplicaciones. México:
Limusa.
Pearson, E. S. y Kendall, M. (1970) (Eds). Studies in the history of statistics and
probability. Londres: Charles Griffin.
462
Pearson, K. (1893). Contributions to the mathematical theory of evolution. Journal of
the Royal Statistical Society, 56(4), 675-679.
Pearson, K. (1894). Contributions to the mathematical theory of evolution.
Philosophical Transactions of the Royal Society. Series A, 185, 71-110.
Pearson, K. (1902). On the systematic fitting of curves to observations and
measurements. Biometrika, 1(3), 265-303.
Pearson, K. (1924). Historical note on the origin of the normal curve of errors.
Biometrika, 16(3), 402-404.
Pérez Echeverría, M. P. (1990). Psicología del razonamiento probabilístico. Madrid:
ICE de la Universidad Autónoma.
Petrov, V. y Mordecki, E. (2002). Teoría de probabilidades. Moscú: Editorial URSS.
Piaget, J. (1991). Introducción a la epistemología genética, (Vol I) (Trad. M. T.
Cevasco y Fischman). México: Paidós. (Trabajo original publicado en 1950).
Piaget, J. e Inhelder, B. (1951). La genèse de l'idée de hasard chez l'enfant. Paris:
Presses Universités de France.
Poincare, H. (1979). El azar. En J. Newman (Ed), Sigma: El mundo de las matemáticas
(Vol. 3, pp. 68-82). Barcelona: Grijalbo (Trabajo original publicado en 1908).
Poisson, S. D. (1832). Suite du mémoire sur la probabilité des résultats moyens des
observations, inséré dans la connaissance des temps pour l’an 1827, Connaissance
des temps pour l’an 1832, 3-22. (Leído a la academia el 20 de abril de 1829).
Poisson, S. D. (1837). Recherches sur la probabilité des jugements en matière
criminelle et en matière civile. Paris: Bachelier. Online:
gallica.bnf.fr/ark:/12148/bpt6k110193z.pagination.
Polya, G. (1965). Cómo plantear y resolver problemas. México: Trillas.
Prodromou, T. y Pratt, D. (2006). The role of causality in the co-ordination of two
perspectives on distribution within a virtual simulation. Statistics Education Research
Journal, 5(2), 69–88. Online: http://iase-web.org/Publications.php?p=SERJ_issues.
Reading, C. y Canada, D. (2011). Teachers’ knowledge of distribution. En C. Batanero,
G. Burrill y C. Reading (Eds.) (2011). Teaching statistics in school mathematics-
challenges for teaching and teacher education. A joint ICMI/IASE Study (pp. 223-
234). New York: Springer.
Reading, C. y Shaughnessy, J. M. (2004). Reasoning about variation. En J. Garfield &
D. Ben-Zvi (Eds.), The challenge of developing statistical literacy, reasoning and
thinking (pp. 201-226). Dordrecht: Kluwer.
Ríos, S. (1967). Métodos estadísticos. Madrid: Del Castillo.
Ríos, S. (1994). La revolución probabilística. Historia de la Matemática, 135-147.
463
Rossman, A. (2008). Reasoning about informal statistical inference: One statistician's
view. Statistics Education Research Journal, 7(2), 40-58.
Rouanet, H. (1998). Significance testing in a Bayesian framework: Assessing direction
of effects. Behavioral and Brain Sciences, 21, 217-218.
Rubin, A., Hammerman, J. y Konold, C. (2006). Exploring informal inference with
interactive visualization software. En A. Rossman y B. Chance (Eds.),
Proceedings of the Seventh International Conference on Teaching Statistics.
Salvador (Bahía): International Association for Statistical Education. CD ROM.
Ruiz, B. (2006). Un acercamiento cognitivo y epistemológico a la didáctica del
concepto de variable aleatoria. Centro de investigación en ciencia aplicada y
tecnología avanzada del IPN, México.
Ruiz, B., Albert, A. y Batanero, C. (2003). Hacia una didáctica de la variable aleatoria.
Actas del 27 Congreso Nacional de Estadística e Investigación Operativa (pp.
1013-1030). Lérida: SEIO. CD ROM.
Ruiz, B., Albert, A. y Batanero, C. (2006). An exploratory study of students’ difficulties
with random variables. En A. Rossman y B. Chance (Eds.), Proceedings of the
Seventh International Conference on Teaching Statistics. Salvador (Bahía):
International Association for Statistical Education. CD ROM.
Ruiz, B., Arteaga, P. y Batanero, C. (2009a). Uso de promedios y dispersión en la
comparación de distribuciones por futuros profesores. Actas del VI Congreso
Iberoamericano de Educación Matemática (pp. 1351-1356). Puerto Mont, Chile:
Universidad de Los Lagos.
Ruiz, B., Arteaga, P. y Batanero, C. (2009b). La comparación de distribuciones, ¿una
actividad sencilla para los futuros profesores? Actas del II Encontro da
Probabilidade e Estatística na Escola. CD-ROM. Universidad de Minho, Braga,
Portugal.
Ruiz, B., Batanero, C. y Arteaga, P. (2011). Vinculación de la variable aleatoria y
estadística en la realización de inferencias informales por parte de futuros
profesores. Bolema 24 (39), 413-429.
Ruiz, B. y Sánchez, T. (2007). La variable aleatoria como una idea fundamental dentro
del currículum escolar. Actas de las XIII Jornadas sobre Enseñanza y Aprendizaje
de las Matemáticas. Granada, España: Federación Española de Profesores de
Matemáticas.
Sánchez, T., Albert, J. A. y Ruiz, B. (2011). Elementos cognitivos del estadístico como
variable aleatoria en las distribuciones muestrales: el caso de la media. En: J.D.
Zacarías. Memorias del Primer Encuentro Internacional en la Enseñanza de la
probabilidad y la estadística. CD-ROM. Benemérita Universidad Autónoma de
Puebla, México.
464
Scheaffer. R. L. (2006). Statistics and mathematics: On making a happy marriage. En G.
Burrill (Ed.), NCTM 2006 Yearbook: Thinking and reasoning with data and
chance (pp. 309-321). Reston, VA: NCTM.
Secretaria de Educación Pública [SEP]. (2006). Planes y programas de estudio para la
reforma de la educación secundaria. México: Subsecretaría de Educación Básica
de la Secretaría de Educación Pública. Online: www.sep.gob.mx/
Seneta, E. (1966). Markov and the birth of chain dependence theory. International
Statistical Review 64 (3), 255-263.
Serradó, A., Cardeñoso, J. M. y Azcárate, P. (2005). Los obstáculos en el aprendizaje
del conocimiento probabilístico: Su incidencia desde los libros de texto. Statistics
Education Research Journal 4(2), 59-81.
Serrano, L. (1996). Significados institucionales y personales de objetos matemáticos
ligados a la aproximación frecuencial a la enseñanza de la probabilidad. Tesis
Doctoral. Universidad de Granada, España.
Serrano, L., Batanero, C. y Cañizares, M. J. (1999). Concepciones sobre distribuciones
aleatorias planas en alumnos de secundaria. Epsilon, 43-44, 149-162.
Serrano, L., Batanero, C., Ortiz, J. J. y Cañizares, M. J. (2001). Concepciones de los
alumnos de secundaria sobre modelos probabilísticos en las secuencias de
resultados aleatorios. Suma, 36, 23-32.
Sfard, A. (1991). On the dual nature of mathematical conceptions: Reflections on
processes and objects as different sides of the same coin. Educational Studies in
Mathematics, 22 (1), 1-36.
Shaughnessy, J. M. (1992). Research in probability and statistic: Reflections and
directions. En D. A. Grouws (Ed.), Handbook of Research on Mathematics
Teaching and Learning (pp. 465-494). New York: Macmillan Publishing
Company.
Shaughnessy, J. M. (2007). Research on statistics learning and reasoning. En F. Lester
(Ed.), Second Handbook of Research on Mathematics Teaching and Learning (pp.
957-1010). Greenwich, CT: Information Age Publishing, Inc, y NCTM.
Shaughnessy, J. M., y Ciancetta, M. (2002). Students’ understanding of variability in a
probability environment. En B. Phillips (Ed.), Proceedings of the Sixth
International Conference on Teaching Statistics. Cape Town, South Africa:
International Statistics Institute [CD-Rom].
Sierpinska, A. (1992). On understanding the notion of function. En E. Dubinsky y G.
Harel (Eds.) The concept of function: Aspects of epistemology and pedagogy.
(Notes, Vol. 25, pp 25-58). Washington: Mathematical Association of America.
Student (1908). The probable error of a mean. Biometrika, 6, 1–25.
Sylla, E. D. (2006). Ars conjectandi together with letter to a friend on sets in court
tennis. Baltimore: The Johns Hopkins University Press.
465
Tauber, L. (2001). La construcción del significado de la distribución normal a partir de
actividades de análisis de datos. Tesis Doctoral. Universidad de Sevilla, España.
Tauber, L., Batanero, C. y Sánchez, V. (2005). Diseño, implementación y análisis de
enseñanza de la distribución normal en un curso universitario. EMA, 9 (2), 82-
105.
Tchebychef, P. L. (1899a). Démonstration élémentaire d’une proposition générale de la
théorie des probabilités. En A. Markoff y N. Sonin (Eds.), Œuvres de P. L.
Tchebychef, (Vol. 1, pp. 15-26). San Petersburgo: Académie Impériale des
sciences. (Trabajo original publicado en 1846).
Tchebychef, P. L. (1899b). Des valeurs moyennes. En A. Markoff y N. Sonin (Eds.),
Œuvres de P. L. Tchebychef, (Vol. 1, pp. 687-694). San Petersburgo: Académie
Impériale des sciences. (Trabajo original publicado en 1867).
Tchebychef, P. L. (1899c). Sur deux théorèmes relatifs aux probabilités. En A. Markoff
y N. Sonin (Eds.), Œuvres de P. L. Tchebychef, (Vol. 2, pp. 479-491). San
Petersburgo: Académie Impériale des sciences. (Trabajo original publicado en
1887).
Toohey, P. G. (1995). Adolescent perceptions of the concept of randomness. Tesis de
Maestría. University of Adelaide.
Truran, J. (1994). Children’s intuitive understanding of variance. En J. Garfield (Ed.),
Research papers from the Fourth International Conference on Teaching Statistics.
Minneapolis, MN: The International Study Group for Research on Learning
Probability and Statistics.
Vallecillos, A. (1996). Inferencia estadística y enseñanza: Un análisis didáctico del
contraste de hipótesis estadísticas. Madrid: Comares.
Vallecillos, A. (1999). Some empirical evidence on learning difficulties about testing
hypotheses. Bulletin of the International Statistical Institute: Proceedings of the
Fifty-Second Session of the International Statistical Institute (Tome LVIII, Book
2, pp. 201-204). Helsinki: International Statistical Institute.
Vergnaud, G. (1990). La théorie des champs conceptuels. Recherches en Didactique de
Mathématiques, 10(2-3), 133-170.
Wackerly, D., Mendenhall, W. y Scheaffer L. (2002). Estadística matemática con
aplicaciones. México: Thompson.
Walpole, R., Myers, R. y Myers, Sh. (1999). Probabilidad y estadística para ingenieros
(6ª Ed.) (trad. R. Cruz). México: Prentice-Hall Hispanoamericana, S. A. (Trabajo
original publicado en 1998).
Watson, J. M. (2001). Longitudinal development of inferential reasoning by school
students. Educational Studies in Mathematics, 47, 337-372.
Watson, J. M., & Moritz, J. B. (1999). The beginning of statistical inference:
Comparing two data sets. Educational Studies in Mathematics, 37,145-168.
466
Weber, R. P. (1985). Basic content analysis. Londres: Sage.
Wild, C. y Pfannkuch, M. (1999). Statistical thinking in empirical enquiry (con
discussion). International Statistical Review, 67 (3), 223-265.
Yuren, M.T. (2006). Leyes, teorías y modelos (3ª ed). México: Trillas
Zabell, S. L. (1992). Randomness and statistical applications. En F. Gordon and S.
Gordon (Eds,), Statistics for the XX1 Century. The Mathematical Association of
America.
Zieffler, A., Garfield, J., Delmas, R. y Reading, C. (2008). A framework to support
research on informal inferential reasoning. Statistics Education Research Journal,
7(2), 40-58.
467