Você está na página 1de 4

UNIVERSIDAD NACIONAL AGRARIA LA MOLINA

Escuela de Posgrado
Facultad de Economía y Planificación
Departamento Académico de Estadística e Informática

SÍLABO

1. DATOS GENERALES
1.1 Curso : Estadística Computacional
1.2 Maestría : Estadística Aplicada
1.3 Código : EP7119
1.4 Créditos :4
1.5 Horas de teoría (semanales) :3
1.6 Horas de práctica (semanales) :2
1.7 Requisito : Ninguno
1.8 Profesor : Ph.D. Frida Rosa Coaquira Nina
1.9 Correo electrónico : fcoaquira@lamolina.edu.pe

2. SUMILLA

El curso corresponde al área de formación específica siendo de carácter teórico


práctico. Se propone desarrollar competencias en el estudiante en el uso de
metodologías estadísticas cuya principal característica es el uso intensivo de
recursos informáticos. El curso comprende 6 capítulos: Conceptos preliminares,
Teoría del Bootstrap, Aplicación del Bootstrap, Método Jackknife, Validación
Cruzada y Selección de variables. El análisis de los datos con las metodologías
desarrolladas se obtendrá utilizando el paquete R.

3. COMPETENCIAS, HABILIDADES A LOGRAR

Al finalizar el curso el estudiante estará en la capacidad de trabajar en equipo


con profesionales de diferentes áreas.
Podrá elaborar funciones de metodologías computacionales, con ayuda del
paquete estadístico R.
Aplicará dichas metodologías a diferentes conjuntos de datos y discutirá los
resultados obtenidos.

4. PROGRAMACIÓN CALENDARIZADA DE CONTENIDO

Semana 1 Capítulo I
Conceptos preliminares
Conceptos de probabilidades
Variables Aleatorias
Funciones de Probabilidad
Generación de números pseudoaleatorios. Aplicaciones
Semana 2 Valor estadístico. Muestra Aleatoria.
Distribución muestral. Distribución muestral de la media y su
error estándar.
El Teorema de Límite Central.
Interpretación de un intervalo de confianza.
Evans, M. Cap. 1
Ríos, D, et al. Cap. 3

1
UNIVERSIDAD NACIONAL AGRARIA LA MOLINA
Escuela de Posgrado
Facultad de Economía y Planificación
Departamento Académico de Estadística e Informática

Lunneborg, C. Concepto 3
Notas de clases Capítulo 1

Semana 3 Capítulo II
Teoría del Bootstrap
Estimación del error estándar de la media.
El bootstrap. La Muestra bootstrap. El estimado bootstrap del
error estándar de un estimador.

Primera Práctica Calificada


Semana 4 El estimado bootstrap ideal.
El algoritmo bootstrap para estimar errores estándar.
Aplicaciones.
Número de muestras bootstrap. Algoritmo gráfico.
Semana 5 El Bootstrap paramétrico. Aplicación.
Estimación del sesgo mediante bootstrap.
Estimado bootstrap de un estimador corregido por sesgo.
Intervalos de confianza con Bootstrap
Efron, B. y Tibshirani, R. Cap. 6 y 7
Lunneborg, C. 7 y 8

Semana 6 Capítulo III


Aplicaciones del Bootstrap
Análisis de Regresión Lineal
Bootstrap en las observaciones.
Bootstrap en los residuos.

Segunda Práctica Calificada


Semana 7 Intervalos de confianza para los coeficientes de una regresión
lineal.
Método estándar, Método de los percentiles. Método de doble
bootstrapping.
Efron, B. y Tibshirani, R. Cap. 9, 10, y 11

Semana 8 Examen Parcial

Semana 9 Capítulo IV
Método Jackknife
El método Jackknife para estimar el error estándar.
Comparación del Método Jackknife con el Método Bootstrap.
Falla del Jackknife. Uso del Jackknife para estimar intervalos
de confianza.
Jackknife eliminado d-observaciones.
Semana 10 Intervalos de confianza con Jackknife
Jackknife después Bootstrap

2
UNIVERSIDAD NACIONAL AGRARIA LA MOLINA
Escuela de Posgrado
Facultad de Economía y Planificación
Departamento Académico de Estadística e Informática

Efron, B. y Tibshirani, R. Cap. 11


Lunneborg, C. Concepto 7 y 8

Semana 11 Capítulo V
Validación Cruzada
La estimación del error de predicción. La tasa de mala
clasificación.
La muestra de entrenamiento y la muestra de prueba.
Métodos para estimar el error de predicción: PRESS

Tercera Práctica Calificada


Semana 12 Validación Cruzada y Validación Cruzada Generalizada.
Métodos para estimar el error de predicción con
bootstrapping: Simple, Refinado y 0.632.
Efron, B. y Tibshirani, R. Cap. 17

Semana 13 Capítulo VI
Selección de variables
Para modelos no supervisados
Semana 14 Selección de variables
Para modelos supervisados
Cuarta Práctica Calificada
Liu H., y Motoda Hiroshi . Cap. 2
Guyon I. Gunn s., Nikravesh M., y Zadeh L. (2006). Cap. 3,4 y5

Semana 15 Exposición de Trabajo Final

Semana 16 Examen Final

5. ESTRATEGIAS METODOLÓGICAS

Las clases se realizan mediante exposiciones teórico-prácticas. Se usa el aula


virtual para colocar todo el material del curso (textos, separatas, enlaces). Cada
estudiante cuenta con una computadora personal con el programa estadístico
RStudio. En las clases se hace uso de pizarra, proyector de cañón y los recursos
disponibles en el aula virtual.
En el curso, se realizan prácticas calificadas de los temas desarrollados
anteriormente. Asimismo, los estudiantes desarrollarán un trabajo en equipo
sobre aplicaciones de las metodologías computacionales que serán expuestos
en la última semana de clase.

6. CRITERIOS DE EVALUACIÓN

3
UNIVERSIDAD NACIONAL AGRARIA LA MOLINA
Escuela de Posgrado
Facultad de Economía y Planificación
Departamento Académico de Estadística e Informática

Ponderación de Criterios de
Competencias Metodología
los criterios evaluación
Procedimentales a. Trabajo Final 15% Presentación y
exposición oral
b. Tareas 10% Evaluación práctica
c. Prácticas Calif. 25% Evaluación práctica
Actitudinales d. Valoración de Asistencia y
Actitud participación en clase
Conceptuales e. Examen Parcial 25% Evaluación teórica y
práctica
f. Examen Final 25% Evaluación teórica y
práctica

7. FUENTES DE INFORMACIÓN
7.1 Bibliografía Básica:
 Evans, M., Rosenthal, J. ProbabilidadyEstadística, (2005) Editorial
Reverté.
 Davison, A. C., & Hinkley, D. V. (1997). Bootstrapping methods and their
application. Cambridge, UK: Cambridge University Press.
 Efron, B., & Tibshirani, R. J. (1993). An introduction to the bootstrap. New
York: Chapman & Hall.
 Hastie, T, Tibshirani, R & Friedman, J. (2001). Elements of Statistical
Learning. Springer-Verlag.
 Lunneborg C. (2000) Data Analysis by Resampling: Concepts and
Applications. Duxbury Press.
 Liu H., & Motoda Hiroshi (2008). Computational Methods of Feature
Selection. Chapman & Hall.
 Guyon I. Gunn S., Nikravesh M., & Zadeh L. (2006). Feature Extraction.
Foundation and apliactions. Springer

7.2 Bibliografía Complementaria:


 Martinez, W.L, & Martinez, A. (2002). Computational Statistics handbook
with MATLAB. Chapman and Hall/CRC, Boca Raton. Florida.
 Artículos científicos elaborados por: E. Acuña, L. Breiman, R. Kohavi. R.
Tibshirani, T. Hastie y otros.

Você também pode gostar