Resumen
Resumen
Resumen
En muchas situaciones más que el análisis individual de las variables interesa la relación que
pudiera existir entre dos variables y la fuerza de esta relación. Esto permitirá en algunos casos
proyectar los valores de una de las variables en función de los valores de la otra variable. Por el
contrario, si entre dos variables no existe ningún tipo de relación, el conocimiento de una de las
variables no nos servirá para predecir o suponer los valores de la otra variable, luego se debería
prescindir de una de ellas. La covarianza muestral cuantifica el grado de asociación lineal entre
dos variables, se define
de la siguiente forma:
Sin embargo, esta medida no nos permite medir la fuerza de la relación, pudiéndose señalar
simplemente que cuando esta medida es cero, las variables no están relacionadas linealmente.
Por ello es que una medida de la fuerza de la relación lineal está dada por el Coeficiente de
Correlación Muestral
de Pearson, r. 1 r
1
Probabilidades:
La probabilidad es una medida numérica de la posibilidad de que ocurra un evento o suceso. Por
lo tanto, las probabilidades son una medida del grado de incertidumbre asociado a cada uno de
los eventos previamente enunciados. En el contexto de las probabilidades, un experimento es
definido como el proceso que genera resultados.
Conceptos básicos:
a. Experimento: cualquier situación que tiene más de un resultado posible.
b. Espacio muestral, Ω: conjunto de todos los resultados posibles de un experimento.
c. Evento o Suceso: elemento o colección de resultados del espacio muestral.
En términos matemáticos entonces, podemos definir la probabilidad como una función P, que nos
permite evaluar numéricamente la ocurrencia de algún resultado o evento, asignando un valor
entre 0 y 1. 𝑃: Ω → [0, 1]
𝐴 → 𝑃(𝐴)
Axiomas básicos
a. 0 ≤ P (A) ≤ 1
b. P (Ω)=1; P ()= 0
El primero señala que cualquier evento debe ser evaluado con valores entre 0 y 1, de manera que
en la medida que ese valor esté cercano al cero, indica que el evento es poco probable que
ocurra; en cambio, mientras más cercano al valor 1 indica que es más probable que el evento
ocurra. En el segundo axioma, se indica que la probabilidad de todos los eventos del espacio
muestral suma 1 y que la probabilidad de no realizar el experimento, es decir, no obtener un
resultado, es 0.
Relaciones entre los eventos:
a. Complemento de un evento A, Ac: el conjunto de todos los resultados de Ω que no están
en A.
b. Unión, AB: el conjunto de todos los resultados que pertenecen a A, o pertenecen a B o
pertenecen a ambos.
c. Intersección, AB: el conjunto de todos los resultados que pertenecen tanto a A como a
B.
d. Eventos mutuamente excluyentes: A y B son mutuamente excluyentes si A B no tiene
elementos
Interpretaciones de la probabilidad:
a. Método clásico de asignación de las probabilidades: es apropiado cuando todos los
resultados experimentales tienen la misma posibilidad de ocurrir. Ejemplos, lanzamiento
de 3 monedas, lanzamiento de un
dado, extracción de una carta de un
mazo de naipes.
b. Método de frecuencia relativa o empírica: para la asignación de probabilidades es el más
conveniente cuando existen datos para estimar la proporción de veces que se presentarán
los resultados si el experimento se
repite muchas veces.
c. Método subjetivo de asignación: es el más indicado cuando se dispone de pocos datos
relevantes. Este método usa toda la información disponible, sea por la propia experiencia
o la intuición. La asignación de una probabilidad subjetiva expresa el grado de confianza
(en una escala de 0 a 1) que se tiene acerca de un resultado experimental. Los
profesionales en general utilizan este método para la asignación de la ocurrencia de un
resultado, por ejemplo, el hombre de negocio utiliza su propia información para asignar
la posibilidad de que ocurra un evento, una venta, mayor producción; los médicos utilizan
su experiencia para evaluar las posibilidades que un paciente se mejore o no.
Leyes de la Probabilidad
a. Ley Aditiva: Sean A y B dos eventos cualesquiera P (A B) = P (A) + P (B) – P (A B)
Sin embargo, si los eventos A y B son excluyentes, 𝑃 (𝐴) ∪ (𝐵) = 𝑃 (𝐴) + 𝑃 (B)
Esto se puede extender a más de dos eventos: 𝑃 (𝐴 ∪ 𝐵 ∪ 𝐶) = {𝑃 (𝐴) + 𝑃 (𝐵) + 𝑃
(𝐶)} – {𝑃 (𝐴 ∩ 𝐵) + 𝑃 (𝐵 ∩ 𝐶) + 𝑃 (𝐴 ∩ 𝐶)} + {𝑃 (𝐴 ∩ 𝐵 ∩ 𝐶)}
b. Ley del complemento: Tenemos que 𝑃 Ω = 1; 𝑃 Ω = 𝑃 (𝐴 ∪ 𝐴 𝑐) = 1; 𝑃 (𝐴) + 𝑃
(𝐴𝑐) =1
Entonces, 𝑃 (𝐴𝑐) = 1 – 𝑃 (𝐴). Experimento: Lanzamiento de dos dados Sea A: “la
suma de los dados es siete” 𝑃 (𝐴) = 6/36 = 0,1667; 𝑃 (𝐴𝑐) = 1 − 0,1667 = 0,8333 Es
decir, se tiene una posibilidad de un 83,33% que la suma de los dados no resulte ser 7.
c. Ley multiplicativa: P (A B) = P (B) P (A/B) = P (A) P (B/A) Esto permite definir la
probabilidad condicional de A dado que B ocurrió. 𝑃 (𝐴/𝐵) = 𝑃 (𝐴 ∩ 𝐵) / 𝑃 (𝐴).
Experimento: Extraer una carta de un naipe inglés, mantenerla sin revisar el resultado y
luego extraer una segunda carta. Sean A1: “la primera carta es un As” A2: “la segunda
carta también es un As”. 𝑃 (𝐴1) = 4/52; 𝑃 (𝐴2/𝐴1) = 3/51; 𝑃 (𝐴1 ∩ 𝐴2) = 𝑃 (𝐴1) ∙
𝑃 (𝐴2/𝐴1) = 4/52 ∙ 3/51 = 0,0045. Se lee: la posibilidad de tener 2 Ases es de un 0,45%,
extrayendo una carta primero sin devolverla al mazo (sin restitución) y luego sacando la
segunda carta. Notar que al extraer la primera carta sin devolverla al mazo, cambia la
condición para la extracción de la segunda carta. Este resultado es similar a extraer las
dos cartas simultáneamente y evaluar la probabilidad de tener 2 Ases. Ver Técnicas de
conteo, uso de las combinaciones Se tienen 4/2 = 6 combinaciones para extraer los 2
ases y 52/2 = 1,326 combinaciones en total para extraer las 2 cartas desde las 52 del
mazo.
Independencia estadística
A y B son sucesos independientes si: P(A/B) = P(A) o P(B/A) = P(B) o bien P (A B) = P(A)
P(B).
Probabilidad Total
Sean (A1), (A2), ..., (An), sucesos excluyentes entre sí que forman una partición de Ω, tal que,
A1 A2 ... An = Ω y sea B un evento cualquiera, entonces, P (B) = P (B/A1) P (A1) + P
(B/A2) P (A2) + ... + P (B/An) * P (An)
Variables aleatorias
Permiten asignar a los eventos de un espacio muestral, valores numéricos con una probabilidad
de ocurrencia. Se anotan con las letras X, Y, Z, … Matemáticamente, es una función: X:
Variables Aleatorias Discretas:
Son aquellas cuyos valores resultan de un conteo de elementos, conjunto de los números
naturales. Por ejemplo, número de accidentes de tránsito, número de errores en la digitación; o
bien, sus valores corresponden a número limitado o fijo, que indican un código: -3, -2, -1, 0, 1, 2,
3.
Se define la Función de Probabilidad o de Cuantía, f(x), a aquella que evalúa la probabilidad de
ocurrencia de los valores x, es decir, 𝑓(𝑥) = 𝑃 (𝑋 = 𝑥)
Su representación es a través de una tabla de frecuencias o de probabilidades:
x 0 1 2 3 4 5
f(x) 0,07776 0,2592 0,3456 0,2304 0,0768 0,01024
O bien, una formulación matemática: 𝑐𝑜𝑛 𝑥 = 0,1,2,3,4,5.
Esta función cumple con:
a) 0 ≤ 𝑓 𝑥 ≤ 1; ∀𝑥
b) Σ𝑥𝜖𝑅𝑒𝑐𝑋 𝑓(𝑥) = 1
Se representa gráficamente por su Histograma:
Variables Aleatorias Continuas:
Son aquellas con infinitos resultados dentro de un intervalo cualquiera. Por ejemplo, tiempos de
espera, precio de un producto, ratios financieros, monto de una cuenta del balance, peso de una
persona en un grupo etario, edad de las personas. Se define la Función de Densidad de
Probabilidad, f(x), que asigna a cada valor de x la densidad de masa de las probabilidades que
corresponde a un intervalo infinitesimal centrado en x, es decir, esta función no representa la
probabilidad en el valor x (𝑓(𝑥) ≠ 𝑃 (𝑋 = 𝑥)).
Se representa mediante una formulación matemática:
Esta función cumple con:
a) 𝑓(𝑥) ≥ 0; ∀𝑥
b) ഽ−∞ +∞ 𝑓(𝑥) 𝑑𝑥 = 1
Representación gráfica:
Variables aleatorias discretas:
Se define la Función de Distribución, F(x), como la
probabilidad acumulada hasta el valor x, esto es:
2. ∫ f ( x ) dx=1
−∞
Función de distribución, F(x), indica la probabilidad acumulada hasta un valor x, que representa
el área bajo la curva que describe la función de densidad.
∫ g(x )∙ f (x)d x
−∞
- Medidas de Dispersión
Desviación Media, DM(X): indica la variabilidad que tiene la variable, en términos
absolutos, respecto a la media µ. El desarrollo matemático
que implica el valor absoluto nos hace desestimar la
aplicación de esta medida. Escapa a los objetivos de este curso.
Varianza, σ²: indica la variabilidad de la variable respecto a la media µ, en términos
cuadráticos, por lo que no resulta práctica su
interpretación.
Desviación Estándar, σ: indica la dispersión de la variable respecto a su media µ. 𝜎 = √
𝑉(𝑋).
Coeficiente de Variación, CV: es una medida de la proporción de la dispersión de la
variable respecto a su media µ. con 𝜇 ≠ 0.
Propiedades de V(X), con a, b
1. 𝑉 (𝑎) = 0
2. 𝑉 (𝑎 ∙ 𝑋) = 𝑎² ∙ 𝑉 (𝑋)
3. 𝑉 (𝑎 ∙ 𝑋 ± 𝑏) = 𝑎² ∙ 𝑉 (𝑋)
- Medidas de forma
Coeficiente de Asimetría, As, indica la concentración de la variable respecto a la media µ.
donde Si As >
0, indica una mayor concentración en los valores
menores de X. Si As < 0, indica una mayor concentración en los valores mayores de X. Si
As = 0, distribución simétrica, áreas similares en ambos extremos respecto a la media µ.
Curtosis, Kur: indica el nivel de concentración de la variable entorno a la media µ.
donde Si
Kur > 0, indica que el área es mayor en valores
cercanos a la media µ. Leptocúrtica. Si Kur < 0, indica que el área se encuentra más
dispersa respecto de la media µ. Platicúrtica. Si Kur = 0, distribución simétrica, áreas
similares en ambos extremos respecto a la media µ. Mesocúrtica.