Teoria Del Error Español
Teoria Del Error Español
THIRD EDITION
Philip R. Bevington
D. Keith Robinson
•
Case Western Reserve University
San Francisco St. Louis Bangkok Bogotá Caracas Kuala Lumpur Lisbon
London Madrid Mexico City Milan Montreal New Delhi Santiago Seoul
Singapore Sydney Taipei Toronto
McGraw-Hill Higher Education ~
www.mhhe.com
CONTENIDO
PREFACIO A LA TERCERA EDICION
En su Prefacio de 1969 a la primera edición de este libro, el difunto Philip Bevington expresó
acertadamente su propósito, "proporcionar una introducción a las técnicas de reducción de datos
y análisis de errores comúnmente empleadas por individuos que realizan investigaciones en las
ciencias físicas y presentar los detalles con suficiente detalle y amplitud para que sean útiles para
los estudiantes a lo largo de sus estudios de pregrado y posgrado. La presentación se desarrolla
desde un punto de vista práctico, incluyendo suficiente derivación para justificar los resultados,
pero enfatizando los métodos más que la teoría ". Esta tercera edición continúa la misión original
de Phil, actualizada para reflejar la disponibilidad inmediata de las computadoras modero.
Los primeros cuatro capítulos presentan los conceptos de medición de incertidumbres, análisis de
errores y distribuciones de probabilidad, con una nueva sección sobre probabilidades en
experimentos de estadística baja. El Capítulo 5 proporciona una introducción a los métodos de
Monte Carlo para simular datos experimentales, métodos que se aplican en capítulos posteriores
para generar datos para ejemplos y para estudiar y evaluar la importancia estadística de los
resultados experimentales. En los capítulos 6 al 9, el método de los mínimos cuadrados se aplica a
problemas de complejidad creciente, desde ajustes analíticos en línea recta hasta ajustes no
lineales que requieren soluciones iterativas. El capítulo 1 O proporciona una introducción a la
aplicación directa del método de máxima verosimilitud, y el capítulo 11 incluye una discusión de la
probabilidad x2, los intervalos de confianza y los coeficientes de correlación. Ejercicios
al final de los capítulos, la complejidad varía desde simples cálculos estadísticos hasta proyectos
menores como el ajuste por mínimos cuadrados y los cálculos de Monte Cario. Se proporcionan
respuestas a ejercicios seleccionados.
Se han conservado los apéndices de ediciones anteriores. El Apéndice A incluye una sección breve
sobre cálculo diferencial básico, pero está dedicado principalmente a métodos numéricos que son
útiles para analizar datos en la computadora. Los determinantes y las matrices se analizan en el
apéndice B. El apéndice C proporciona tablas y gráficos de funciones estadísticas,
complementados con rutinas de computadora en el sitio web para calcular probabilidades. El
Apéndice D establece algunas pautas para la preparación de gráficos efectivos. El Apéndice E
proporciona listados de rutinas de computadora que ilustran el texto.
RUTINAS DE COMPUTADORA
Se han conservado rutinas informáticas sencillas e ilustrativas que eran una característica útil del
libro original y se enumeran en Fortran77 en el apéndice E. Se eligió Fortran porque ha
demostrado ser el más duradero de los lenguajes durante muchas décadas. (Pascal, que se
proporcionó en la segunda edición, ha desaparecido, desplazado por C ++.) Con la ayuda de los
comentarios al principio del apéndice E, los estudiantes deberían poder leer los programas de
Fortran y seguir su lógica sin conocimientos especiales. en el idioma. Para simplificar las rutinas
enumeradas y aclarar sus principales objetivos, hemos eliminado la mayoría de las llamadas a
rutinas gráficas.
Las rutinas y programas de computadora están disponibles para descargar tanto en formato For-
tran como en C ++ desde el sitio web www.mhhe.com/bevington, junto con rutinas de apoyo para
facilitar la construcción de programas completos para la generación de Monte Cario, ajuste de
mínimos cuadrados y cálculos de probabilidad. Un archivo "Léame" en el sitio describe la
organización de los programas y proporciona instrucciones para usarlos.
EXPRESIONES DE GRATITUD
Estoy en deuda con el difunto Philip R. Bevington por su libro original, que sirvió de base para
estas revisiones. Estoy agradecido al Departamento de Física de Case Western Reserve por su
apoyo, ya mis estudiantes de laboratorio de pregrado por brindar varios de los ejemplos y mucha
inspiración. Agradezco a Spencer Cotkin y sus colegas de McGraw-Hill por su aliento.
por sus muchos comentarios y sugerencias útiles: Jingsong Zhang, Universidad de California,
Riverside; Gary Schmidt, Universidad de Arizona; Herbert Strauss, Universidad de California,
Berkeley; Daniel Suson, Texas A&M, Kingsville.
D. Keith Robinson
ACERCA DE LOS AUTORES
El difunto Philip R. Bevington era profesor de física en la Universidad Case Western Reserve. Se
graduó de la Universidad de Harvard en 1954 y recibió su Ph.D. de la Universidad de Duke en
1960. Enseñó en la Universidad de Duke durante cinco años y fue profesor asistente en la
Universidad de Stanford de 1963 a 1968 antes de llegar a la Universidad de Case Western
Reserve. Estuvo involucrado en la investigación en física de estructuras nucleares con
aceleradores Van de Graaff. Mientras estuvo en Stanford, participó activamente en aplicaciones
informáticas para la física nuclear y fue responsable del desarrollo del sistema SCANS.
1960. Fue miembro del personal del Laboratorio Nacional Brookhaven desde 1960 hasta 1966
cuando se unió a CWRU. Su investigación en física de partículas experimental ha incluido
estudios de resonancias de bosones, propiedades del mesón K, interacciones antiprotón-protón
y la desintegración radiativa de hiperones. Ha estado muy involucrado en el desarrollo de
laboratorios basados en computadoras para los cursos de introducción a la física en CWRU.
1.1 ERRORES DE MEDICIÓN
Es un hecho bien establecido de la investigación científica que, la primera vez que se realiza un
experimento, los resultados a menudo guardan muy poca semejanza con la "verdad" que se busca.
A medida que se repite el experimento, con sucesivos refinamientos de la técnica y el método, los
resultados se acercan de forma gradual y asintótica a lo que podemos aceptar con cierta confianza
como una descripción fiable de los acontecimientos. A veces podemos sentir que la naturaleza es
reacia a revelar sus secretos sin un gasto considerable de esfuerzo de nuestra parte, y que los
primeros pasos en la experimentación están destinados al fracaso. Cualquiera que sea la razón, es
ciertamente cierto que para todos los experimentos físicos, existen errores e incertidumbres que
deben reducirse mediante técnicas experimentales mejoradas y mediciones repetidas, y los
errores restantes siempre deben estimarse para es-
Webster define el error como "la diferencia entre un valor observado o calculado y el valor
verdadero". Por lo general, no conocemos el valor "verdadero"; de lo contrario, no habría razón
para realizar el experimento. Sin embargo, podemos saber aproximadamente lo que debería ser,
ya sea por experimentos anteriores o por predicciones teóricas. Estas aproximaciones pueden
servir de guía pero siempre debemos determinar de manera sistemática a partir de los datos y las
condiciones experimentales en sí mismas, cuánta confianza podemos tener en nuestros resultados
experimentales.
Existe una clase de error que podemos abordar de inmediato: errores que se originan por errores
o errores en la medición o el cálculo. Afortunadamente, estos errores suelen ser evidentes como
puntos de datos obviamente incorrectos o como resultados que no están razonablemente cerca
de los valores esperados. Se clasifican como errores ilegítimos y generalmente pueden corregirse
repitiendo cuidadosamente las operaciones. Nuestro interés es en incertidumbres introducidas
por fluctuaciones aleatorias en nuestras mediciones y errores sistemáticos que limitan la precisión
y exactitud de nuestros resultados de formas más o menos definidas. Generalmente, nos
referimos a las incertidumbres como los errores en nuestros resultados, y al procedimiento para
estimarlos como análisis de errores.
Exactitud versus precisión
La precisión de un experimento, como lo hemos definido, generalmente depende de qué tan bien
podamos controlar o compensar los errores sistemáticos, errores que harán que nuestros
resultados sean diferentes de los valores "verdaderos" con discrepancias reproducibles. Los
errores de este tipo no son fáciles de detectar y no se estudian fácilmente mediante análisis
estadístico. Pueden resultar de una calibración defectuosa del equipo o de un sesgo por parte del
observador. Deben estimarse a partir de un análisis de las condiciones y técnicas experimentales.
Una parte importante de la planificación de un experimento debe dedicarse a comprender y
reducir las fuentes de errores sistemáticos.
EJEMPLO 1.1 Un estudiante mide la superficie de una mesa con una varilla de acero y encuentra
que el promedio de sus medidas arroja un resultado de (1.982 ::: t O.OOI) m para la longitud de la
mesa. Posteriormente se entera de que la varilla de metro fue calibrada a 25 ºC
Errores aleatorios
La precisión de un experimento depende de lo bien que podamos superar los errores aleatorios,
las fluctuaciones en las observaciones que producen resultados diferentes cada vez que se repite
el experimento y, por lo tanto, requieren una experimentación repetida para obtener resultados
precisos. Una precisión dada implica una precisión equivalente y, por lo tanto, también depende
en cierta medida de errores aleatorios.
método experimental y refinando las técnicas, así como simplemente repetir el experimento. Si los
errores aleatorios son el resultado de incertidumbres instrumentales, pueden reducirse utilizando
instrumentos de medición más fiables y precisos. Si los errores aleatorios son el resultado de
fluctuaciones estadísticas en un número limitado de mediciones, pueden reducirse haciendo más
mediciones. Hay límites prácticos para estas mejoras. En la medición de la longitud de la tabla del
ejemplo 1.1, el estudiante podría intentar mejorar la precisión de sus mediciones usando una lupa
para leer la escala, o podría intentar reducir las fluctuaciones estadísticas en sus mediciones
mediante repitiendo la medición varias veces. En ningún caso sería útil reducir los errores
aleatorios muy por debajo de los errores sistemáticos, como los introducidos por la calibración de
la varilla o la corrección por su lectura inicial defectuosa de la escala. Los límites impuestos por los
errores sistemáticos son consideraciones importantes en la planificación y realización de
experimentos.
La precisión del dedo del pie de un resultado experimental está implícita en el número de dígitos
registrados en el resultado, aunque generalmente la incertidumbre también debe citarse
específicamente. El número de cifras significativas en un resultado se define como. sigue:
2. Si no hay un punto decimal, el dígito distinto de cero más a la derecha es el dígito menos
significativo.
3. Si hay un punto decimal, el dígito más a la derecha es el dígito menos significativo, incluso si es
una O.
4. Todos los dígitos entre el dígito menos significativo y el más significativo se cuentan como
dígitos significativos.
Por ejemplo, los siguientes números tienen cada uno cuatro dígitos significativos: 1234,
123.400, 123.4, 1001, 1000., 10.10, 0.0001010, 100.0. Si no hay un punto decimal, hay
ambigüedades cuando el dígito más a la derecha es O. Por lo tanto, se considera que el número
1010 tiene solo tres dígitos significativos, aunque el último dígito pueda ser físicamente
significativo. Para evitar la ambigüedad, es mejor proporcionar puntos decimales o escribir dichos
números en notación científica, es decir, como un argumento en notación decimal multiplicado
por la potencia apropiada de 1 O. Por lo tanto, nuestro ejemplo de 1 O 1 O sería escrito como
1010. o 1.010 X 103 si los cuatro dígitos son significativos.
= 1.979 m con una incertidumbre de 0.012 m, este resultado podría cotizarse como L = (1.979
dígitos de los que se especificaron originalmente, truncamos el número como se desee y tratamos
el exceso de dígitos como una fracción decimal. Toen:
1.2 INCERTIDUMBRES
Las incertidumbres en los resultados experimentales se pueden dividir en dos categorías: las que
resultan de las fluctuaciones en las mediciones y las asociadas con la descripción teórica de
nuestro resultado. Por ejemplo, si medimos la longitud de una mesa rectangular a lo largo de un
borde, sabemos que cualquier incertidumbre, además de los errores sistemáticos, está asociada
con las fluctuaciones de nuestras mediciones de un ensayo a otro. Con un número infinito de
medidas, podríamos estimar la longitud con mucha precisión, pero con un número finito de
ensayos habrá una incertidumbre finita. Si midiéramos la longitud de la tabla en posiciones
igualmente espaciadas a lo largo de la tabla, las mediciones mostrarían fluctuaciones adicionales
correspondientes a irregularidades en la tabla misma, y nuestro resultado podría expresarse como
la longitud media. Sin embargo, si tuviéramos que describir la forma de una mesa ovalada, nos
enfrentaríamos a incertidumbres tanto en la medición de la posición del borde de la mesa en
varios puntos como en la forma de la ecuación que se utilizará para describir la forma. , ya sea
circular, elíptica o lo que sea. Por tanto, en los capítulos siguientes nos ocuparemos de una
comparación de la distribución de puntos de datos medidos con la distribución predicha sobre la
base de un modelo teórico. Esta comparación ayudará a indicar si nuestro método para extraer los
resultados es válido o necesita modificaciones.
El término error sugiere una desviación del resultado de algún valor "verdadero". Usu-
Al mismo tiempo, no podemos saber cuál es el valor verdadero y solo podemos estimar los errores
inherentes al experimento. Si repetimos un experimento, los resultados pueden diferir de los del
primer intento. Expresamos esta diferencia como una discrepancia entre los dos resultados. Las
discrepancias surgen porque podemos determinar un resultado solo con una determinada
incertidumbre. Por ejemplo, cuando comparamos diferentes medidas de una constante física
estándar, o comparamos nuestro resultado con el valor aceptado, debemos referirnos a las
diferencias como discrepancias, no como errores o incertidumbres.
También debemos darnos cuenta de que el modelo a partir del cual calculamos los parámetros
teóricos
metros para describir los resultados de nuestro experimento pueden no ser el modelo correcto. En
los capítulos siguientes discutiremos parámetros hipotéticos y distribuciones probables de errores
pertenecientes a los estados de cosas "verdaderos", y discutiremos métodos para hacer
estimaciones experimentales de estos parámetros y las incertidumbres asociadas con estas
determinaciones.
Debe tenerse en cuenta, sin embargo, que incluso nuestros mejores esfuerzos solo producirán
estimaciones de las cantidades investigadas.
Si hacemos una medida x1 de una cantidad x, esperamos que nuestra observación se aproxime a la
cantidad, pero no esperamos que el punto de datos experimentales sea exactamente igual a la
cantidad. Si hacemos otra medición, esperamos observar una discrepancia entre las dos
mediciones debido a errores aleatorios, y no esperamos que ninguna de las determinaciones sea
exactamente correcta, es decir, igual a x. A medida que hacemos más y más mediciones, surgirá un
patrón a partir de los datos. Algunas de las medidas serán demasiado grandes, otras serán
demasiado pequeñas. Sin embargo, en promedio esperamos que se distribuyan alrededor del
valor correcto, asumiendo que podemos descuidar o corregir los errores sistemáticos.
EJEMPLO 1.2 En un experimento de laboratorio de física, los estudiantes dejan caer una pelota 50
veces y registran el tiempo que tarda la pelota en caer 2.00 m. Un conjunto de observaciones,
corregido para errores sistemáticos, varía de aproximadamente 0,59 sa 0,70 s, y algunas de las
observaciones son idénticas. La figura 1.2 muestra un histograma o gráfico de frecuencia de estas
medidas. La altura de una barra de datos representa el número de mediciones que caen entre los
dos valores indicados por los límites superior e inferior de la barra en la abscisa del gráfico. (Ver
Apéndice D.)
actly. La tosquedad del histograma experimental lo distingue a la vez de la suave curva teórica de
Gauss. Podríamos imaginar que, si los estudiantes hicieran una gran cantidad de mediciones o
combinaran varios conjuntos de mediciones para poder trazar el histograma en intervalos cada vez
más finos, en circunstancias ideales el histograma eventualmente se acercaría a una curva
gaussiana suave. Si tuvieran que calcular los parámetros de una muestra tan grande, podrían
determinar la distribución principal representada por la curva de puntos en la Figura 1.2.
Las curvas salid y discontinua en la Figura 1.2 se han escalado de esta manera para que el
Notación
Varios parámetros de la distribución principal se han definido por convención. Usamos letras
griegas para denotarlos y letras latinas para denotar estimaciones experimentales de ellos.
FIGURA 1.2
Histograma de medidas del tiempo de caída de un pasillo 2,00 m. La curva sólida de Gauss se
calculó a partir de la media (T = 0,635 s) y la desviación estándar (s = 0,020 s) estimada a partir de
estas medidas. La curva discontinua se calculó a partir de la distribución original con una media µ =
0,639 s
Para determinar los parámetros de la distribución principal, asumimos que los resultados de los
experimentos se acercan asintóticamente a las cantidades principales cuando el número de
mediciones se acerca al infinito; es decir, los parámetros de la distribución experimental son
iguales a los parámetros de la distribución principal en el límite de un número infinito de medidas.
Si especificamos que hay N observaciones en un experimento dado, entonces podemos denotar
esto por
Si hacemos N medidas y las etiquetamos x 1, x2, x3, y así sucesivamente, hasta una medida final
xN, entonces podemos identificar la suma de todas estas medidas como
donde el lado izquierdo se interpreta como la suma de las observaciones x¡ sobre el índice i de i =
1 ai = N inclusive. Porque haremos un uso frecuente de la suma sobre N medidas de varias
cantidades, simplificamos la notación omitiendo el índice siempre que estamos considerando una
suma donde el índice i va de 1 a N;
La mediana de la población parental µ112 se define como el valor para el cual, en el límite de un
número infinito de determinaciones X;, la mitad de las observaciones será menor que la mediana y
la mitad mayor. En términos de la distribución principal, esto significa que la probabilidad es del
50% de que cualquier medida X; será más grande o más pequeño que la mediana
La relación de la media, la mediana y el valor más probable entre sí se ilustra en la Figura 1.3. Por
una distribución simétrica, estos parámetros serían todos iguales por la simetría de sus
definiciones. Para una distribución asimétrica como la de la Figura 1.3, la mediana generalmente
cae entre el valor más probable y la media. El valor más probable corresponde al pico de la
distribución y las áreas a ambos lados de la mediana son iguales.
Desviaciones
Con fines computacionales, las desviaciones generalmente se definen con respecto a la media, en
lugar de la mediana o el valor más probable. Si µ es el valor verdadero de la cantidad, d¡ también
es el error verdadero en X;: ...
El promedio de las desviaciones d debe desaparecer en virtud de la definición de la media en la
ecuación (1.2):
La desviación media α, por tanto, se define como la media de los valores absolutos de las
desviaciones:
Un parámetro que es más fácil de utilizar analíticamente y que puede justificarse bastante bien
sobre bases teóricas para ser una medida más apropiada de la dispersión de las observaciones es
la desviación estándar o. La varianza (} '2 se define como el límite del promedio de los cuadrados
de las desviaciones de la media µ:
y la desviación estándar <T es la raíz cuadrada de la varianza. Tenga en cuenta que la segunda
forma de la ecuación (1.8) se describe a menudo como "el promedio de los cuadrados menos el
cuadrado del promedio". La desviación estándar es la raíz cuadrada de la media de las
desviaciones y está asociada con el segundo momento de los datos sobre la media. La expresión
correspondiente para la varianza s2 de la población muestral está dada por
La media µ y la desviación estándar, así como la mediana, el valor más probable y la desviación
media, son parámetros que caracterizan la información que buscamos cuando realizamos un
experimento. A menudo deseamos describir nuestra distribución en términos de la media y la
desviación estándar. La media puede no ser exactamente igual al datum en cuestión si la
distribución principal no es simétrica con respecto a la media, pero debería tener las mismas
características. Si se desea una descripción más detallada, puede ser útil calcular momentos más
altos alrededor de la media.
En general, lo mejor que podemos decir sobre la media es que es uno de los parámetros que
especifica la distribución de probabilidad: tiene las mismas unidades que el valor "verdadero" y, de
acuerdo con la convención, lo consideraremos como ser la mejor estimación del valor "verdadero"
en las condiciones experimentales imperantes.
En las siguientes secciones, sin embargo, nos ocuparemos principalmente de las distribuciones que
resultan de errores estadísticos y para las que existe la varianza.
Podemos definir la mediaµ y la desviación estándar <J 'en términos de la distribución p (x) de la
población madre. La densidad de probabilidad p (x) del dedo del pie se define de manera que en el
límite de un número muy grande de observaciones, la fracción dN de observaciones del
la variable x que produce valores entre x y x + dx viene dada por dN = Np (x) dx.
La media µ es el valor esperado (x) de x, y la varianza <J'2 es el valor esperado ((x - µ) 2) del
cuadrado de las desviaciones de x de µ. La expectativa
El valor (f (x)) de cualquier función de x se define como el promedio ponderado de (x), sobre todos
los valores posibles de la variable x, con cada valor de (x) ponderado por la distribución de
densidad de probabilidad p (x ).
Distribuciones discretas
Si la función de probabilidad es una función discreta P (x) del valor observado x, reemplazamos la
suma sobre las observaciones individuales ix; en la ecuación (1.2) por una suma de los valores de
las posibles observaciones multiplicada por el número de veces que se espera que ocurran estas
observaciones. Si hay n posibles valores observables diferentes de la cantidad x, que denotamos
por xj (donde el índicej va desde 1 tonelada sin dos valores de xj iguales), deberíamos esperar de
un total de N observaciones para obtener cada NP observable ( x) veces. Entonces, la media se
puede expresar como
De manera similar, la varianza σ 'en la ecuación (1.8) se puede expresar en términos de la función
de probabilidad P (x):
Distribuciones continuas
Si la función de densidad de probabilidad es una función p (x) de variación uniforme continua del
valor observado x, reemplazamos la suma sobre las observaciones individuales por una integral
sobre todos los valores de x multiplicado por la probabilidad p (x). La media µ se convierte en el
primer momento de la distribución principal
que se muestra en el histograma y una curva de puntos basada en los parámetros µ = 0,639 sy <T =
0,020 s de la distribución principal. (Aunque, en general, no conocemos las propiedades de la
distribución principal, podrían haberse estimado con alta precisión
sión en otro experimento que implica muchas más mediciones.) Al comparar las dos curvas,
observamos una ligera diferencia entre la media experimental T y la media "verdadera" µ, y entre
sy <T.
valores de las observaciones distribuidas de acuerdo con la población madre, podemos estimar la
forma y la dispersión de la distribución madre para obtener información útil sobre la precisión y
confiabilidad de nuestros resultados. Por tanto, consideramos la muestra media T es nuestra
mejor estimación a partir de los datos de la media µ, y consideramos que la varianza muestral s2
es nuestra mejor estimación a partir de los datos de la varianza cr2, a partir de la cual podemos
estimar la incertidumbre en nuestra estimación de µ.
RESUMEN
Error aleatorio: indefinición del resultado introducido por precisión finita de medición o
variaciones estadísticas. Medida de fluctuación después de repetidos experimentos.
Incertidumbre: Magnitud del error que se estima que se ha cometido en la determinación de los
resultados.
valor.
Precisión: medida de cuán cuidadosamente se determina el resultado sin referencia a ningún valor
"verdadero".
Personajes importantes:
2. Si no hay un punto decimal, el dígito distinto de cero más a la derecha es el dígito menos
significativo.
3. Si hay un punto decimal, el dígito más a la derecha es el dígito menos significativo, incluso si es
cero.
4. Todos los dígitos entre el menor y el más significativo se cuentan como dígitos significativos. "
Población madre: conjunto hipotético infinito de puntos de datos de los cuales se supone que los
puntos de datos experimentales son una muestra aleatoria.
Distribución parental: distribución de probabilidad de la población parental de la que
Valor esperado f (x): Promedio ponderado de una función f (x) sobre los valores reales de x:
EJERCICIOS
1.2. ¿Cuál es la cifra más significativa en cada uno de los números del ejercicio 1.1? ¿Qué es lo
menos significativo?
1.3. Redondea cada uno de los números del ejercicio 1.1 a dos dígitos significativos.
1.4. Encuentre la media, la mediana y el valor más probable de x para los siguientes datos (de los
dados lanzados).
1.5. Encuentre la calificación media, mediana y más probable del siguiente conjunto de
calificaciones. Agrúpelos para encontrar el valor más probable.
1.9. Mida cuidadosamente en centímetros la longitud de la portada de este libro a lo largo del
borde encuadernado. Estime la incertidumbre en su medida. Cite su respuesta con su
incertidumbre en forma decimal y en notación científica.
De las muchas distribuciones de probabilidad que intervienen en el análisis de datos
experimentales, tres juegan un papel fundamental: la distribución binomial, la distribución de
Poisson y la distribución gaussiana. De estos, la distribución gaussiana, o error normal, es sin duda
la más importante en el análisis estadístico de datos. En la práctica, es útil porque parece describir
la distribución de observaciones aleatorias para muchos experimentos, así como también describir
las distribuciones obtenidas cuando intentamos estimar los parámetros de la mayoría de las otras
distribuciones de probabilidad.
La distribución de Poisson es generalmente apropiada para contar experimentos donde los datos
representan el número de elementos o eventos observados por intervalo unitario. Es importante
en el estudio de procesos aleatorios, como los asociados con la desintegración radiactiva de
partículas elementales o estados nucleares, y también se aplica a datos que se han clasificado en
rangos para formar una tabla de frecuencias o un histograma.
Supongamos que lanzamos una moneda al aire y la dejamos caer. Hay un 50% de probabilidad de
que caiga cara y un 50% de probabilidad de que caiga cruz. Con esto queremos decir que si
seguimos lanzando una moneda repetidamente, la fracción de veces que cae con la cara hacia
arriba se acercará asintóticamente a Y2, lo que indica que había una probabilidad de Y2 de
hacerlo. Para cualquier lanzamiento dado, la probabilidad no puede determinar si aterrizará cara
arriba o no; sólo puede describir cómo deberíamos esperar que un gran número de lanzamientos
se divida en dos posibilidades.
Suponga que lanzamos dos monedas a la vez. Ahora hay cuatro posibles
permutaciones de la forma en que pueden aterrizar: ambas cara arriba, ambas colas arriba, y dos
mezclas de caras y colas dependiendo de cuál sea cara. Debido a que cada una de estas
permutaciones es igualmente probable, la probabilidad de elegir entre ellas es Y4 o 25%. Para
encontrar la probabilidad de obtener una mezcla particular de caras y cruces, sin diferenciar entre
los dos tipos de mezclas, debemos sumar las probabilidades correspondientes a cada tipo posible.
Por tanto, la probabilidad total de encontrar una cara hacia arriba y la otra cola hacia arriba es V2.
Tenga en cuenta que la suma de las probabilidades
para todas las posibilidades (V4 + Y4 + Y4 + V4) siempre es igual a 1 porque algo es
destinado a suceder.
Extrapolemos estas ideas al caso general. Suponga que lanzamos n monedas al aire, donde n es un
número entero. Alternativamente, suponga que lanzamos una moneda n veces. ¿Cuál es la
probabilidad de que exactamente x de estas monedas caigan cara, sin dis-
¿Cuál de las monedas pertenece realmente a qué grupo? Podemos considerar que la probabilidad
Pix: n) es una función del número n de monedas lanzadas y del número x de monedas que caen
cara. Para un experimento dado en el que se lanzan n monedas, esta probabilidad P (x; n) variará
en función de x. Por supuesto, x debe ser un número entero para cualquier experimento físico,
pero podemos considerar que la probabilidad varía suavemente con x como una variable continua
para propósitos matemáticos.
Permutaciones y combinaciones
Si se lanzan n monedas, hay 2n diferentes formas posibles en las que pueden caer. Esto se deriva
del hecho de que la primera moneda tiene dos orientaciones posibles, para cada una de ellas la
segunda moneda también tiene dos de tales orientaciones, para cada una de estas la tercera
moneda también tiene dos, y así sucesivamente. Debido a que cada una de estas posibilidades es
igualmente probable, la probabilidad de que ocurra cualquiera de estas posibilidades en cualquier
lanzamiento de n monedas es 1/2 n.
Hasta ahora hemos calculado el número de permutaciones Pm (n, x) que producirán x monedas en
la casilla "cara" y n - x monedas en la casilla "cruz", con la condición de que hemos identificado en
qué moneda se colocó la casilla "cabezas" primero, que se colocó en segundo lugar, y así
sucesivamente. Es decir, hemos ordenado las x monedas en la casilla "cabezas". En nuestro cálculo
de 2n posibles permutaciones diferentes de las n monedas, solo nos interesa qué monedas
cayeron cara arriba o cara abajo, no cuál cayó primero. Por lo tanto, debemos considerar las
contribuciones como diferentes sólo si hay monedas diferentes en las dos casillas, no si las
monedas x dentro de la casilla "caras" se permutan en diferentes ordenamientos de tiempo.