2011 Inferencia Rotnitzky

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 4

Inferencia Estadistica, Segundo Trimestre 2011

Profesora: Andrea Rotnitzky.

Ayudante: David Lenis

Clases teoricas: miercoles de 19:15 and 21:30.


Anuncios:
1) La clase teorica que no se dicto el miercoles 15 de junio sera recuperada
el lunes 27 de junio en el horario de las clases practicas.
2) Las clases practicas comenzaran el lunes 4 de julio.

Objetivo: El objetivo de este curso es dar una introduccion a los metodos


modernos de inferencia estadistica. El curso tratara la estimacion de parametros
y funcionales en modelos parametricos y en modelos no-parametricos, el calculo
analitico de estimadores de la desviacion estandard de un estimador, metodos
computacionales para su calculo como el bootstrap y el jacknife, el metodo
de maxima verosimilitud, nociones de e…ciencia, conceptos de test de hipotesis
incluyendo los test asintoticos de Wald, del cociente de verosimilitud y de escore.
Finalmente, si el tiempo lo permite se hara una introduccion a la estimacion en
modelos de regresion.

Ejercitacion: Cada viernes se incluira en la pagina de web del curso los


problemas de ejercitacion correspondientes a la clase teorica del miercoles ante-
rior. Algunos de estos problemas seran discutidos durante la clase practica del
lunes de la semana siguiente, por lo que se espera que para ese momento los
alumnos hayan intentado resolver los problemas de esa practica.

Evaluacion: Los alumnos seran evaluados mediante un examen …nal que


constara de la resolucion de problemas. La fecha del examen …nal sera anunciada
oportunamente.

Bibliogra…a: En el curso se cubriran algunos capitulos de All of Statistics:


A Concise Course in Statistical Inference (2003) Autor: L. Wasserman, Editor-
ial: Springer y de Mathematical Statistics, (2000). Autor: K. Knight, Editorial:
Chapman-Hall. Algunos temas, especialmente hacia el …nal del curso, no estan
cubiertos en estos libros y para ellos se distribuiran notas de clase.

Bibliogra…a adicional recomendada pero no requerida.

Libros sobre inferencia matematica, nivel introductorio


Rice, J. (2006) Mathematical Statistics and Data Analysis. Third Edition..
Duxbury Press.
Wasserman, L. (2006) All of Non-Parametrics. Springer

1
Libros sobre inferencia matematica, nivel intermedio.
Casella, G. and Berger, R. (2001). Statistical Inference. Duxbury Press
Bickel, P. and Doksum, K. (2006). Mathematical Statistics. Vol I. Second
Edition. Prentice Hall
Mittelhammer. (1999). Mathematical statistics for Economics and Business.
Springer

Libros sobre inferencia matematica, nivel avanzado.


Cox, D.R. and Hinkley, D. (1979). Theoretical Statistics. Chapman and Hall
Lehmann, E. and Casella, G. (2003) . Theory of point estimation. Second
Edition. Springer
Lehmann, E. and Romano, J. (2006). Testing statistical hypothesis. Second
Edition. Springer.
Young, G.A. and Smith, R.L. (2005). Essentials of Statistical Inference.
Cambridge Series in Statistical and Probabilistic Mathematics.

Bibligra…a sobre algunos temas especi…cos


Wasserman, L. (2006). All of Nonparametric Statistics. Springer. Capitulos
2 y 3. (Estimacion no-parametrica de la distribucion acumulativa, boostrap,
jacknife)
Efron, B. and Tibshirani, R. (1993) An introduction to the boostrap. Chap-
man Hall (Boostrap y Jacknife)
Geisser, S. (2006) Modes of Statistical Inference. Wiley Series in Statis-
tics. (Nociones fundacionales de la estadistica, principio de verosimilitud, teoria
Bayesiana)
Berger, J. and Wolpert, R. (1988). The likelihood principle. Institute of
Mathematical Statistics. Lecture notes, Monograph Series. (Nociones funda-
cionales de la estadistica, principio de verosimilitud)
Gelman, A. Carlin, J., Stern, H. and Rubin, D. (1995). Bayesian Data
Analysis. Chapman Hall (Metodos Bayesianos).
Berger, J. (1985) Statistical Decision Theory. Second Edition. Springer Se-
ries in Statistics. (Nociones fundacionales de la estadistica, teoria Bayesiana)

Temario Tentativo. Por clases

1.
Introduccion a la inferencia estadistica. Capitulo 7 y 8 (Wasserman),
Capitulo 4.1, 4.2, 4.4 y 7.1 (Knight). Modelos estadisticos parametricos y
no parametricos. Estimadores puntuales. Sesgo. Varianza. Error cuadratico
medio. Consistencia. Introduccion a los Intervalos de con…anza.

2.

2
Estimacion de la funcion de distribucion acumulativa y de fun-
cionales de ella. Capitulo 8 (Wasserman). Capitulo 4.5 y 4.6 (Knight). La
funcion de distribucion acumulativa empirica. Desigualdad de Hoe¤dings (ver
apartado 5.2 del capitulo 5 de Wasserman) . El teorema de Glivenko-Cantelli.
El teorema de Dvoretzky-Kiefer-Wolfowitz y su aplicacion para el calculo de
bandas de con…anza. Estimacion de funcionales. El metodo plug-in.

3.
El boostrap y el jacknife. Capitulo 10 (Wasserman) y Capitulo 4.9
(Knight). De…nicion del estimador bootstrap de un funcional. Intervalos de
con…anza basados en el boostrap: intervalo normal e intervalo a percentil del
bootstrap. El uso del jacknife para la estimacion del sesgo y de la varianza.

4.
El metodo de maxima verosimilitud. Capitulos 11 y 12.1-12.3 (Wasser-
man), Capitulos 5.1-5.3. (Knight) y Notas de clase. De…nicion y ejemplos de
estimacion de maxima verosimilitud parametrico y no-parametrico. Los princi-
pios de su…ciencia, condicionalidad y verosimilitud. La desigualdad de Jensen.
Consistencia del estimador de maxima verosimilitud.

5.
El metodo de maxima verosimitud (continuacion). Capitulos 5.4-5.6
(Knight) y Notas de clase. La funcion escore. La matriz de informacion.
La igualdad de informacion. Distribucion asintotica del estimador de maxima
verosimilitud parametrico. El metodo delta. Estimacion del error estandard
del estimador de maxima verosimilitud parametrico. Estimacion de maxima
verosimilitud bajo modelos incorrectos.

6.
E…ciencia Capitulo 12, apartados 12-4 al 12-9 (Wasserman), Capitulos
4.8 y 6 (Knight) y notas de clase. Estimadores insesgados de minima varianza.
La desigualdad de Cramer-Rao. E…ciencia asintotica relativa. E…ciencia del
estimador de maxima verosimilitud.

7.
Parametros molestos y estimacion en modelos no-regulares. In-
troduccion a la estimacion Bayesiana. Capitulo 5.8, 7.2 (Knight) y notas
de clase. Efecto de desconocer un parametro molesto. Nocion de velocidad de
convergencia. Velocidad de convergencia del estimador de maxima verosimilitud
en modelos no-regulares: el caso del modelo uniforme.

8.
Estimacion Bayesiana. Motivacion: estimacion frecuentista vs Bayesiana.
Distribuciones previas y posteriores. Distribuciones previas conjugadas y no
informativas. Algunos ejemplos. Regiones de con…anza con mayor probabilidad
posterior

3
9.
Test de hipotesis I. Capitulo 17 (Wasserman), Capitulo 7.3 (hasta el teo-
rema de Neyman-Pearson, inclusive) y 7.5 (seccion p-values solamente) (Knight)
y notas de clase. La hipotesis nula y la hipotesis alternativa. Region de rechazo.
Errores de tipo 1 y 2. Nivel de un test. Funcion de potencia. Valor p. Potencia
del test.

10.
Test de hipotesis II. Capitulo 7.3 (A partir de Uniformly most powerful
tests) y 7.4 (Knight) y notas de clase. Test uniformemente mas potente. El test
de cociente de verosimilitud. Maxima potencia local. El test Escore. El test de
Wald.

11.
Test asintoticos. Capitulo 17 (Wasserman), Capitulo 7.4, 7.5 (Obtain-
ing con…dence regions from hypothesis tests (Knight) y notas de clase. Tests
de Wald, Cociente de verosimilitud y Escore para hipotesis nulas compuestas.
Distribucion asintotica del test de Escore y el de Cociente de verosimilitud.
Potencia asintotica local. Equivalencia asintotica entre los tests de Wald, de
Escore y del Cociente de verosimilitud. Calculo de los tres tests para hipotesis
nulas compuestas con restricciones lineales. Calculo de regiones de con…anza
asintoticas mediante la inversion de tests.

12.
Introduccion al analisis de regresion. Notas de clase. Objetivos:
prediccion vs estimacion. Prediccion: Reglas de prediccion. Funcion de per-
dida y deciciones optimas. Esperanza condicional. Modelo de regresion no-
parametrico. La maldicion de la dimensionalidad. Modelos de regresion lineal
y no-lineal. Estimacion: Interpretacion de los coe…cientes de regresion. Efec-
tos causales. Inferencia causal en estudios aleatorizados. Inferencia en estu-
dios observacionales. Modelos de regresion lineal y lineal generalizado. Mod-
elo de regresion lineal semiparametrico. Modelo de regresion de mediana. M-
Estimadores. Sus propiedades asintoticas.

También podría gustarte

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy