Metodo de Bayes

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 10

Instituto Tecnológico de Orizaba

TECNOLÓGICO NACIONAL DE MÉXICO


INSTITUTO TECNOLÓGICO DE ORIZABA

MAESTRÍA EN INGENIERÍA INDUSTRIAL

ASIGNATURA:
ESTADÍSTICA

TAREA:
APLICACIÓN DEL MÉTODO DE BAYES

CATEDRÁTICO:
Dr. ARRIOJA RODRIGUEZ MARIO LEONCIO

EQUIPO A:
ESPINOSA CARRILLO ADÁN
GONZÁLEZ ZANATTA MARÍA FERNANDA
SÁNCHEZ MORALES PABLO DEL ÁNGEL
SEMESTRE:

ENERO-AGOSTO 2023

Fecha de entrega 07 Marzo 2023


Instituto Tecnológico de Orizaba

Tabla de contenido-
Instituto Tecnológico de Orizaba
Método de Bayes

En la teoría de la probabilidad el teorema de Bayes es un resultado enunciado por


Thomas Bayes en 1763 que expresa la probabilidad condicional de un evento aleatorio A
dado B en términos de la distribución de probabilidad condicional del evento B dado A y la
distribución de probabilidad marginal de sólo A.

En términos más generales, el teorema de Bayes es de enorme relevancia puesto que


vincula la probabilidad de A dado B con la probabilidad de B dado A.

Sea { A 1 , A 3 , … , A i , … , An } un conjunto de sucesos mutuamente excluyentes y


exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero. Sea B un
suceso cualquiera del que se conocen las probabilidades condicionales P ( B| A i ) .
Entonces, la probabilidad P ( Ai|B ) viene dada por la expresión:

P ( B| A i ) P ( Ai )
P ( Ai|B )= SEQ Ecuación ¿ ARABIC 1
P ( B)
Donde:

P ( Ai ) son las probabilidades a priori

P ( B| Ai ) es la probabilidad de B en la hipótesis Ai

P ( Ai|B ) son las probabilidades a posteriori


El enfoque bayesiano supone que se tiene alguna información previa sobre θ. Esta
información esta expresada por medio de una distribución sobre θ, denominada
distribución a priori. Aquí supondremos que esta distribución a priori tiene una densidad
γ(θ). Esta distribución a priori puede tener distintas interpretaciones según el problema.
Se pueden dar las siguientes alternativas:

 La distribución a priori está basada en experiencias previas similares.


 La distribución a priori expresa una creencia subjetiva.

El hecho de que el enfoque bayesiano considere una distribución de probabilidades sobre


θ, supone tratar a θ como una variable aleatoria, y por lo tanto a esta variable la
denominaremos Θ para distinguirla del valor que toma θ (Mesa Páez, Rivera Lozano, &
Romero Davila, 2011)
Instituto Tecnológico de Orizaba

Probabilidad condicional y la independencia de eventos


La probabilidad de un evento a veces depende de si sabemos que han ocurrido otros
eventos. Por ejemplo, los pescadores deportivos de Florida están muy interesados
posibilidad de lluvia. Probabilidad de lluvia en un día dado las condiciones climáticas
diarias u otros eventos son el porcentaje de días en los que lluvia a largo plazo. Esta es la
probabilidad incondicional del evento "lluvia en un día". Ahora, supongamos que
queremos considerar la probabilidad de lluvia mañana. Ha llovido casi continuamente
durante dos días seguidos y una tormenta tropical se acerca a la costa. Tenemos más
información sobre si lloverá mañana y nos interesa la probabilidad condicional de que
llueva con esta información. Un residente de Florida nos dirá que la probabilidad de lluvia
condicional (asumiendo que llovió hace dos días y se pronostica una tormenta tropical) es
mucho mayor que la probabilidad de lluvia condicional. probabilidad incondicional de
lluvia. La probabilidad incondicional de sacar 1 en una tirada de dados balanceada es 1/6.
Sí sabemos que el número es impar, el número en los dados debe ser 1, 3 o 5 y la
frecuencia relativa si 1 tiene 1/3. La probabilidad condicional de un evento es la
probabilidad (frecuencia ocurrencia relativa) de un evento, siempre que hayan ocurrido
uno o más eventos. Un estudio detallado de este ejemplo mostrará la correspondencia
entre la siguiente definición y concepto de probabilidad de frecuencia relativa.
La probabilidad condicional de un evento A, dado que un evento B ha ocurrido, es igual a

p(A∩B)
P ( A|B )= SEQ Ecuación ¿ ARABIC 2
P (B )
Ecuación 1 La probabilidad condicional de un evento A, dado que un evento B ha ocurrido

siempre que P(B) > 0. [El símbolo P(A∩B) se lee “probabilidad de A dada B”.]

Una confirmación adicional de la consistencia de la definición con el concepto de


probabilidad de frecuencia relativa se puede obtener de la siguiente construcción.
Suponga que un experimento se repite un gran número de veces, N, resulta en A y B,
A∪B, n11 veces; A y no B, A∩B, n21 veces; B y no A, A ∩B, n12 veces; y ni A ni B, A∩B, n22 ,
veces. Estos resultados están contenidos en la Tabla Nótese que n11 + n12 + n21 + n22 = N.
Entonces se deduce que
n 11 +n21 n11 +n 21
P(A)≈ ¿3) P (B )≈ (SEQ Ecuación ¿ ARABIC 4)
N N
n11
P ( A|B ) ≈ (SEQ Ecuación ¿ ARABIC 5)
n11 + n21

n11
P ( B| A ) ≈ ¿6 )
n11 + n21
n11
P ( A ∩B ) ≈ (SEQ Ecuación ¿ ARABIC 7)
N
donde ≈ se lee aproximadamente igual a. Con estas probabilidades, es fácil ver que
Instituto Tecnológico de Orizaba

P ( A ∩B )
P ( B| A ) ≈ ( SEQ Ecuación ¿ ARABIC 8)
P(A)

P ( A ∩B )
P ( A|B ) ≈ ( SEQ Ecuación ¿ ARABIC 9)
P ( B)

Ilustración 1 tabla para eventos A y B

Distribución a Posteriori
Por otro lado, la distribución a posteriori 𝑝(𝜽|𝑥) es, por la ley multiplicativa de la
probabilidad, el producto de la función de distribución de probabilidad 𝑝(𝜽) y la función de
verosimilitud 𝑝(𝑥|𝜽). Dicho de otro modo, la probabilidad a posteriori es aquella que resulta
de aplicarle conjuntamente la probabilidad a priori (probabilidad subjetiva) y la
verosimilitud de los datos (transformación de los datos experimentales en función de la
probabilidad subjetiva), entre la probabilidad de los propios datos experimentales.
(Castellano & Bardina , 2015)
Intervalo de probabilidad
En estadística bayesiana, el intervalo de probabilidad se llama será llamado el intervalo de
confianza en las estadísticas de frecuencia. En términos de frecuencia, el intervalo de
confianza se refiere a la probabilidad de que las estimaciones caen dentro de dos niveles
de confianza, donde el intervalo de confianza para este rango suele ser del 95%. En otras
palabras, si repetimos el experimento muchas veces, el resultado del cálculo será así
dentro del 95% del tiempo y el 5% del tiempo juzgaremos mal. Por otro lado, el enfoque
bayesiano es un poco diferente porque el método utilizado para su cálculo se hará según
la curva de función de densidad obtenida a posteriori, donde el área bajo una curva dada
y entre algún valor de X e Y con alguna probabilidad (95%) es el intervalo de probabilidad
del 95% entre los puntos especificados (X, Y). (Wackerly, Mendenhall III, & L. Scheaffer,
2009)
Aplicación del método de Bayes en una distribución normal

Sea X =( X 1 , … , X n ) una muestra independiente de una distribución N ( θ , σ 2 ), con σ2

conocido, y supongamos que la distribución a priori de θ sea N ( µ , τ 2 ) .

Luego la densidad de la muestra X =( X 1 , … , X n ) dado θ está dada por


Instituto Tecnológico de Orizaba

( )
n
1 −1
2∑( i
f ( x , θ )= n
exp x −θ )2 ,(2)
2 σ i=1
(2 π ) σ n
2

donde exp ( x )=e x . La densidad de la distribución a priori está dada por

( )
2
1 −( θ−μ )
γ ( θ )= 1
exp 2 (3)

(2 π ) τ2

Luego multiplicando las ecuaciones (1) y (2), desarrollando los cuadrados y haciendo
algún manipuleo algebraico se obtiene que distribución conjunta de X y θ está dada por:

fx ,Θ ( x ,θ )=C ( x , σ , μ , τ ) ex p
2 2

( (
−1 n 1
2 2
σ σ τ (nx μ
+ 2 +θ 2 + 2
σ τ ))) (4)

donde C no depende de θ . Completando cuadrados y luego de un manipuleo algebraico


adicional se obtiene

( ( ( )) )
2
−1 nx μ
fx ,Θ ( x ,θ )=C 1 ( x , σ , μ , τ ) exp
2 2
θ−D 2 + 2 (5)
2D σ τ

Donde

1
D=
( σn )+( τ1 )
2 2
(6)

Completando cuadrados en el exponente de la ecuación (4) se obtiene

( ( ( )) )
2
−1 x μ
fx ,Θ ( x ,θ )=C 2 ( x , σ , μ , τ ) exp
2 2
θ−D 2 + 2 (7)
2D σ τ

Finalmente usando (1) obtenemos

( ( ( )) )
2
−1 x μ
f ( θ| x )=C3 ( x , σ , μ , τ ) exp
2 2
θ−D 2 + 2 (8)
2D σ τ

Luego esta densidad excepto una función que depende solo de x corresponde a una
distribución:
Instituto Tecnológico de Orizaba

((
N D
nx μ
2
σ τ
+ 2 ,D
) ) (9)

Como se trata de una distribución condicional X =x , podemos considerar a C3 como


constante. Luego la distribución a posteriori de Θ debe ser entonces dada por la ecuación
(8).

Supongamos nuevamente que consideramos una función de pérdida cuadrática. Luego, el


estimador de Bayes estará dado por la esperanza condicional de Θ dado X, y por lo tanto
de acuerdo con la ecuación (8) y (5) está dado por:

δ ( x ) =D
( nσX + τμ )=w X +( 1−x ) μ
2 2 (10)

Donde

n
2
σ
w= (11)

( )( )
n
σ
2
1
+ 2
τ

Por lo tanto, el estimador de Bayes es un promedio ponderado del estimador IMVU de la


teoría frecuentista X y la media de la distribución a priori µ. Los pesos son inversamente
proporcionales a las variancias σ2/n y τ2 de ambos estimadores. A medida que el tamaño
de la muestra n crece, el peso del estimador basado en la información a priori tiende a 0.
Es decir, a medida que el tamaño de la muestra crece, la información a priori tiene menos
relevancia para determinar el estimador de Bayes.

Observación. En este ejemplo partió de una distribución a priori en la familia N ( µ , τ 2 ) , y


obtenemos que la distribución a posteriori está dada por la ecuación (8), y por lo tanto
está en la misma familia normal (Estimadores de Bayes, s.f.).

Conclusión

Con el método bayesiano podemos estimar la media de una población, considerando a µ


como una variable aleatoria cuya distribución es indicativa de qué tan firmemente se cree
que ciertos valores son los que tomará µ.

Aplicación del método de Bayes


Instituto Tecnológico de Orizaba
Un fusible electrónico es producido por cinco líneas de producción en una operación de
manufactura. Los fusibles son costosos, sumamente confiables y se envían a proveedores
en lotes de 100 unidades. Como la prueba es destructiva, la mayoría de los compradores
de fusibles prueban sólo un número pequeño de ellos antes de decidirse a aceptar o
rechazar lotes de fusibles que lleguen. Las cinco líneas de producción producen fusibles
al mismo ritmo y normalmente producen sólo 2% de fusibles defectuosos, que se
dispersan al azar en la producción. Desafortunadamente, la línea 1 de producción sufrió
problemas mecánicos y produjo 5% de piezas defectuosas durante el mes de marzo. Esta
situación llegó al conocimiento del fabricante después de que los fusibles ya habían sido
enviados. Un cliente recibió un lote producido en marzo y probó tres fusibles. Uno falló.
¿Cuál es la probabilidad de que el lote se haya producido en la línea 1?
¿Cuál es la probabilidad de que el lote haya provenido de una de las otras cuatro líneas?
Solución
Denotemos con B el evento de que un fusible se sacó de la línea 1 y denotemos con A el
evento de que el fusible estuviera defectuoso. Se deduce entonces directamente que

P ( B )=0.2 y ( A|B )=3 ( 0.5 ) ( .95 ) 2=.135375

Ilustración 2 diagrama de árbol ejemplo 2

Del mismo modo

P ( B )=0.8 y P ( A|B )=3 ( 0.2 ) (.98 ) 2=.057624


Observe que estas probabilidades condicionales fueron muy fáciles de calcular. Usando la
ley de probabilidad total
Instituto Tecnológico de Orizaba

P ( A )=P ( A|B ) P ( B ) + P ( A|B ) P ( B ) =( .135375 )( . 2 ) + ( . 057624 )( . 8 ) =.0731742


Por último

P ( B ∩ A ) P ( A|B ) P ( B ) (.135375 )( .2 )
P ( B| A )= = = =.37
P( A) P(A) .0731742

P ( B| A )=1−P ( B| A )=1−.37=.63
Conclusión
El teorema de Bayes comienza conociendo la probabilidad de una secuencia de eventos.
Luego hay un evento que te da alguna información porque su probabilidad de ocurrencia
cambia dependiendo del evento que sucedió. Dado que ha ocurrido un evento, la fórmula
del teorema de Bayes muestra cómo esta información cambia la probabilidad de los
eventos.

Referencias

Arrioja, M. L. (2019). Apuntes Matemáticas de Estadística. México.


Bacchini, R. D., Vázquez, L. V., Bianco, M. J., & García, J. (2018). Introducción a la
Probabilidad y a la Estadística. Buenos Aires, Argentina: Facultad de Ciencias
Económicas.
Canavos, G. C. (1988). Probabilidad y Estadística. Aplicaciones y Métodos. Edo. de
México: McGraw-Hill.
Castellano , D. M., & Bardina , X. i. (2015). Introducción a la Estadística Bayesiana.
Barcelona: Universidad Autonoma de Barcelona.
Estimadores de Bayes. (s.f.). Obtenido de Capítulo 10: www.dm.uba.ar%2Fmaterias
%2Festadistica_teorica_Mae%2F2006%2F2%2Fpracticas
%2Fbayes.PDF&clen=128637&chunk=true
Guitiérrez G., E., & Vladimirovna P., O. (2014). Probabilidad y estadística. Aplicaciones a
la ingeniería y las ciencias. México: Grupo Editorial Patria.
López, J. F. (21 de Febrero de 2018). Economipedia. Obtenido de Teorema de Bayes:
https://economipedia.com/definiciones/teorema-de-bayes.html
Mesa Páez, L. O., Rivera Lozano, M., & Romero Davila, J. A. (2011). Descripción general
de la Inferencia Bayesiana y sus aplicaciones en los procesos de gestión. La
Instituto Tecnológico de Orizaba

simulación al servicio de la academia.


Wackerly, D., Mendenhall III, W., & L. Scheaffer, R. (2009). Estadística Matematica con
Aplicaciones. Florida: CENGAGE LEARNING.

También podría gustarte

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy