Escolar Documentos
Profissional Documentos
Cultura Documentos
SEXTO NIVEL
RESUMENES
RESPONSABLES GRUPO 1:
ARMAS SIMBAÑA ALISSON MICHELLE
FERNÁNDEZ PICHUCHO GRACIELA LIZBETH
HINOJOZA ORBEA MIKELE ALEJANDRO
LINCANGO TUQUERRES JONATHAN RAFAEL
TUSO ANALUISA WILLIAM STALIN
PRUEBAS DE NORMALIDAD
Es una prueba de hipótesis, no requiere que la distribución de la población sea caracterizada por
ciertos parámetros. Por ejemplo, muchas pruebas de hipótesis parten del supuesto de que la
población sigue una distribución normal con los parámetros μ y σ. Las pruebas no paramétricas
no parten de este supuesto, de modo que son útiles cuando los datos son considerablemente
no normales y resistentes a transformaciones.
MÁXIMA VEROSIMILITUD
La evaluación por el método de máxima verosimilitud procura encontrar los valores más
probables de los parámetros de la distribución para un conjunto de datos. Maximizando el valor
de lo que se conoce como la “función de verosimilitud” La función de verosimilitud se basa en
la función de la densidad de la probabilidad fdp para una distribución dada.
LA PRUEBA DE KOLMOGOROV-SMIRNOV
La prueba de Kolmogorov es una prueba de bondad de ajuste, es decir, del grado en que la
distribución observada difiere de otra distribución. Es una alternativa a la prueba Ji Cuadrado de
bondad de ajuste cuanto el número de datos es pequeño. La prueba no debe ser aplicada si hay
muchos empates.
Es igual a
Importante saber que una vez dada una muestra aleatoria simple de tamaño n, (x1,x2,…,xn), se
quiere saber si procede de una población con distribución normal. Este problema es muy
frecuente, ya que son muchas las pruebas de inferencia estadística que exigen como condición
imprescindible que la población de procedencia de la muestra sea normal.
Los coeficientes (ain) suelen aparecer tabulados en los manuales. Obtenido el valor de W, su
distribución permite calcular el valor crítico del test que permite tomar una decisión sobre la
normalidad de la muestra.
El programa devuelve el valor del estadístico W, así como su probabilidad crítica, pc, la cual da
la clave para aceptar o rechazar la hipótesis nula de normalidad, que representamos por H0. Si
pc<0.05, se rechazará la hipótesis con un nivel de significación del 5%; si pc<0.01, se rechazará
con un nivel del 1%.
PRUEBA DE ANDERSON-DARLING
La prueba AD es una forma de estimación de mínima distancia, y uno de los estadísticos más
potentes para detectar discrepancia con respecto a normalidad. Se puede utilizar con un tamaño
muestral bajo (n ≤ 25). Tamaños muestrales muy grandes pueden rechazar el supuesto de
normalidad con tan solo pequeñas imperfecciones.
La prueba de Anderson-Darling es usada para probar si una muestra viene de una distribución
especifica. Esta prueba es una modificación de la prueba de Kolmogorov- Smirnov donde se le
da más peso a las colas de la distribución que la prueba de Kolmogorov-Smirnov.
A2=−n−S
PROCEDIMIENTOS:
Esta explicación está basada en una prueba para una distribución normal.
BIBLIOGRAFÍA
Marqués dos Santos, María José; Estadística Básica: un enfoque no paramétrico, Universidad
Nacional Autónoma de México, Facultad de Estudios Superiores Zaragoza.
INTEGRANTES GRUPO 2:
JÁTIVA PAUL
LUZURIAGA ESTEFANÍA
PAZMIÑO SOLANGE
TALAVERA BRYAN
VEINTIMILLA EDISON
CORRELACION NO LINEAL
Para poder entender la Correlación No Lineal, es primordial entender que es la Correlación
Lineal, a continuación lo detallamos:
Una correlación entre dos o más variables existe cuando una de ellas está ligada de cualquier
manera con las otras.
En este caso nos referiremos cuando en el diagrama de dispersión, los puntos nos indiquen una
tendencia No Lineal Grafico 2, comparado con una tendencia Lineal Grafico 1.
Correlacion De Pearson
Nos indica si dos variables cuantitativas tienen datos que en un diagrama de dispersion tienen
tendencia a acomodarse de forma Lineal.
Grafico 3, Datos con tendencia
Lineal, Galindo.
Cuando obtenemos el índice de correlación entre dos o más variables, lo que se procede a
realizar es un análisis de la función, para luego Escoger el valor de R más cercano a 1, como lo
veremos en el siguiente ejemplo:
CORRELACION
El Anegado Colimes San Pablo Camposano Julcuy
El Anegado 1
Colimes 0,04095244 1
San Pablo 0,13298764 0,78606803 1
Camposano 0,07972523 0,87124 0,83717556 1
Julcuy -0,12833208 0,62910457 0,48134546 0,5920723 1
Cuando Dos o más variables sujetos de análisis No están Ligadas entre sí, sucede la Correlación
No lineal.
Es primordial Graficar los datos y reconocer que tipo de función se tiene y en el caso que no sea
función Lineal, se debe realizar transformaciones de manera que los modelos se conviertan en
Lineales, de tal manera que podremos calcular el grado de correlación lineal entre variables que
no tienen un comportamiento lineal.
BIBLIOGRAFIA
INTEGRANTES GRUPO 3:
BERRONES GEOVANA
CORTEZ ANGHELA
LOACHAMIN CRISTIAN
ORTIZ DANIELA
QUILLE ERIKA
ESPERANZA MATEMÁTICA
Introducción
La esperanza matemática o valor esperado de una variable aleatoria discreta es la suma del
producto de la probabilidad de cada suceso por el valor de dicho suceso.
𝑛
𝐸(𝑥) = 𝑥1 ∗ 𝑝1 + 𝑥2 𝑝2 + ⋯ + 𝑥𝑖 ∗ 𝑝𝑖 = ∑ 𝑥𝑖 ∗ 𝑝𝑖
𝑖=1
Los nombres de esperanza matemática y valor esperado tienen su origen en los juegos de azar
y hacen referencia a la ganancia promedio esperada por un jugador cuando hace un gran
número de apuestas.
Definición
El valor esperado de una variable aleatoria discreta: se denota con E y representa el valor
promedio de los resultados. Se obtiene mediante:
E(x) = ∑ x. p(x)
i
Ejemplos:
Sean X e Y variables
– E(2X² + 3𝑌 4 ) = 2EX² + 3𝑌 4
– E(X + Y)² = EX² + 2E(XY ) + EY²
– E(sen(XY ) + 3𝑒 𝑥 − 2Y² ) = Esen(XY ) + 3E𝑒 𝑥 − 2EY²
Un jugador lanza dos monedas. Gana 1 o 2 € si aparecen 1 o dos caras. Por otra parte, pierde 5
C S
2
𝑃(+1) =
4
1
𝑃(+2) =
4
1
𝑃(−5) =
4
2 1 1 1
𝐸(𝑥) = 1 ∗ 4 + 2 ∗ 4
− 5 ∗ 4 = -4
Sabemos que la altura de un cierto árbol sigue una distribución continua con la siguiente
𝑥
función de densidad:𝑓(𝑥) = 12, cuando 1 < 𝑥 < 5. Calcular la esperanza de 𝑥
∞
𝐸(𝑥) = ∫ 𝑥 ∗ 𝑓(𝑥)𝑑𝑥
−∞
5
𝑥
𝐸(𝑥) = ∫ 𝑥 ∗ 𝑑𝑥
1 12
5
𝑥2
𝐸(𝑥) = ∫ 𝑑𝑥
1 12
1 5
𝐸(𝑥) = [36 𝑥 3 ]
1
125 1 31
𝐸(𝑥) = 36
− 36 = 9
Ejercicio 3. Variables aleatorias continuas
El contenido de Magnesio en una aleación es una v.a dada por la función de probabilidad
𝑥
𝑓(𝑥) = 16, 0 < 𝑥 < 6 y 0 de otra forma. La utilidad esperada que se obtiene de esta aleación
6
𝑥
𝐸(𝑃) = 𝐸(10 + 2𝑥) = ∫ (10 + 2𝑥) ∗ 𝑑𝑥
0 16
6
10 𝑥 2 2 𝑥 3 360 432
𝐸(𝑃) = [ ∗ + ∗ ] = + −0
16 2 16 3 0 32 48
81
𝐸(𝑃) = 4
≈ 20,25
INTEGRANTES GRUPO 4:
ARCINIEGA ANDRÉS
CORTÉS SOFÍA
MORALES GABRIELA
SALAZAR JOHANNA
ZAMORA ESTEBAN
CARACTERISTICAS:
INTEGRANTES GRUPO 5:
AGUILAR MORA CRISTINA GABRIELA
GUAMÁN POZO JESSICA MISHELLE
GUERRERO GUERRERO DANILO ROLANDO
LEÓN SALGUERO MARÍA JOSÉ
LÓPEZ LUDEÑA KARINA ANDREA
TAIPE QUISPE JESSICA MARISOL
DISTRIBUCIÓN DE POISSON
1. POISSON, USOS
2. POISSON, CARACTERÍSTICAS
Es una variable discreta
Es una distribución asimétrica
Cumple con únicamente un parámetro (λ)
Se utiliza en situaciones donde los sucesos son impredecibles o de ocurrencia
aleatoria, o donde no se sabe el total de posibles resultados.
Es útil cuando la muestra o segmento n es grande y la probabilidad de éxitos p es
pequeña.
El número de resultados que ocurren en un intervalo de tiempo o región específicos es
independiente del número que ocurre en cualquier otro intervalo de tiempo o región.
3. FÓRMULA DE POISSON
Una variable aleatoria discreta X que puede tomar un número infinito de valores 0, 1, 2,…, se
dice que sigue una ley de Poisson de parámetro λ (λ>0), si la probabilidad de que X tome valor
k es:
𝑒 −λ λ𝑘
Pr(X=k)= , k=0,1,2,3…
𝑘!
E(X) = λ
Var(X) = λ
El significado del parámetro λ es el promedio de aparecimiento del evento en n pruebas.
Puesto que muchas aplicaciones de esta ley dependen del tiempo, es conveniente poner la
siguiente formula:
𝑒 −λt (λt)𝑘
Pr(X=k) = , k=0,1,2,3…
𝑘!
Donde:
Po = 𝑒 −λ
λ
Pk= 𝑝𝑘−1 * , k=1,2,3…..
𝑘
4. BIBLIOGRAFÍA
INTEGRANTES GRUPO 6
JESSICA ANDRADE
VICTOR HERRERA
ANDREA QUISAGUANO
EVELIN TAPIA
EDGAR VILLAGOMEZ
DISTRIBUCIÓN DE BERNOULLI
Si X es una variable aleatoria que mide el "número de éxitos", y se realiza un único experimento
con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria {X} se distribuye
como una Bernoulli de parámetro {p}
La fórmula será:
La distribución de Bernoulli es una distribución discreta que está relacionada con muchas
distribuciones, tales como la distribución binomial, geométrica y binomial negativa. La
distribución de Bernoulli representa el resultado de 1 ensayo. Las secuencias de ensayos de
Bernoulli independientes generan las demás distribuciones: la distribución binomial modela el
número de éxitos en n ensayos.
PROPIEDADES Y CARACTERISTICAS
Esperanza matemática:
Varianza:
Desviación estándar:
√n ∗ p ∗ q
EJEMPLOS:
Al lanzar una moneda, comprobar si sale cara (éxito) o cruz (fracaso). Se suele suponer
que una moneda tiene una probabilidad de éxito de 0,5.
Al lanzar un dado, ver si se obtiene un seis (éxito) o cualquier otro valor (fracaso).
Al realizar una encuesta política, tras escoger un votante al azar, ver si éste votará "si"
en un referéndum próximo.
Al lanzar un dado y que salga 5, X = #veces que sale un 5.
Al lanzar un dado tenemos 6 probabilidades resultados el espacio muestra es de:
𝑆 = (1,2,3,4,5,6)
1
Se considera éxito sacar un 5 entonces la probabilidad es 𝑃 = 6
1 5
Se considera fracaso a no sacar 5 entonces 𝑞 = 1 − 𝑃 = 1 − 6 = 6
La probabilidad de que salga un 5 viene definida en que 𝑥 = 1 (éxito)
1 5 1−1 1
𝑃(𝑥 = 1) = ( )1 ∗ ( ) = = 0.16
6 6 6
Y 𝑥 = 0 (fracaso)
1 5 1−0 5
𝑃(𝑥 = 0) = ( )0 ∗ ( ) = = 0.83
6 6 6
INTEGRANTES GRUPO 7
CONDOR BRYAN
CARPIO GABRIEL
MOLINA JUAN
ESTADÍSTICA NO PARAMÉTRICA
Definición: Una prueba estadística no paramétrica está basada en un modelo que especifica solo
condiciones muy generales y ninguna cerca de la forma específica de la distribución de la cual
fue obtenida la muestra.
Una prueba no paramétrica es una prueba de hipótesis que no requiere que la distribución de
la población sea caracterizada por ciertos parámetros. Por ejemplo, muchas pruebas de
hipótesis parten del supuesto de que la población sigue una distribución normal con los
parámetros μ y σ. Las pruebas no paramétricas no parten de este supuesto, de modo que son
útiles cuando los datos son considerablemente no normales y resistentes a transformaciones.
Ventajas:
- Los procedimientos no paramétricos prueban diferentes hipótesis acerca de la población, que
los procedimientos paramétricos no hacen.
- Tratan datos que son simplemente categóricos es decir a una escala nominal.
- Las pruebas no paramétricas típicamente hacen menos suposiciones acerca de los datos y
pueden ser más relevantes a una situación particular. Además, las hipótesis probadas por una
prueba no paramétrica pueden ser más adecuadas para la investigación
Desventajas:
1. Prueba de los signos: La prueba de los signos es aplicable al caso de dos muestras
relacionadas cuando el investigador desea establecer que dos condiciones son
diferentes. La única suposición que subyace a esta prueba es que la variable estudiada
tiene una distribución continua. La prueba no hace suposiciones acerca de la forma de
la distribución y tampoco supone que los sujetos pertenecen a una misma población.
Los diferentes pares pueden pertenecer a diferentes poblaciones en cuanto a edad,
sexo, inteligencia, etc.
INTEGRANTES GRUPO 8
CERON CARLOS
LANDETA KARLA
MANOBANDA EVELIN
RUIZ NATHALI
SIMBA CARLOS
VALDEZ ANDRES
CADENAS DE MARKOV
La cadena de Markov es un proceso estocástico.
Proceso estocástico
Definición formal
Proceso estocástico: es una familia de variables aleatorias {𝑋(𝑡), 𝑡 ∈ 𝑇} en donde t toma valores
del conjunto T.
Una sucesión de observaciones X1, X2, X3, . . . se denomina proceso estocástico sí:
Los valores de estas observaciones no se pueden predecir exactamente.
Pero se pueden especificar las probabilidades para los distintos valores posibles en
cualquier instante de tiempo.
𝑋𝑛 : variable aleatoria que define el estado inicial del proceso.
Xn : variable aleatoria que define el estado del proceso en el instante de tiempo n.
Cadenas de Markov
Una cadena de Markov es un proceso estocástico que cumple con la propiedad de pérdida de
memoria.
Propiedad de perdida de la memoria consiste en que los estados futuros del proceso dependen
únicamente del presente, por lo mismo son independientes del pasado.
Definición formal
Cadenas de Markov
Matriz de transición de una etapa: matriz cuadrada formada por las probabilidades de
transición.
𝑃00 𝑃01 𝑃02 … 𝑃0𝑀
𝑃10 𝑃11 𝑃12 … 𝑃1𝑀
𝑃= 𝑃20 𝑃21 𝑃22 … 𝑃2𝑀
⋮ ⋮ ⋮ ⋱ ⋮
𝑃𝑀0 𝑃𝑀1 𝑃𝑀2 … 𝑃𝑀𝑀
∑ 𝑃𝑖𝑗 = 1
𝑗=0
Cadenas de Markov
Ejercicio
Un estudiante de la carrera de Automotriz debe prepararse para rendir los exámenes finales,
para lo cual debe estudiar las materias de Física, Calculo y Algebra, donde la probabilidad es de
0.5, 0.5 y 0.4 respectivamente. Si el estudiante estudia Calculo el día lunes ¿Cuál es la
probabilidad de que el día jueves vuelva a estudiar Calculo?, además determine la matriz de
transición y represente la gráfica de Markov.
Matriz de transición.
Gráfica:
0.3
0.5 0.5
F 0.2 C
0.4
Resolución
Método 1.
INTEGRANTES GRUPO 9:
FERNÁNDEZ MAURICIO
GIL KEVIN
LUDEÑA ERIKA
QUINTUÑA HENRY
TIGSE ANDRÉS
Este método se utiliza comúnmente para analizar una serie de datos que se obtengan de algún
estudio, con el fin de expresar su comportamiento de manera lineal y así minimizar los errores
de la data tomada.
La recta de los mínimos cuadrados que aproxima el conjunto de puntos, tomando en cuenta a
Y como variable dependiente tiene por ecuación:
Y= mx + b
∑ 𝑦 = 𝑚 ∑ 𝑋 + 𝑏𝑁
∑ 𝑋𝑌 = 𝑚 ∑ 𝑥 2 + 𝑏 ∑ 𝑥
Que se llaman ecuaciones normales para la recta de mínimos cuadrados
𝑁 ∑ 𝑥𝑦 − (∑ 𝑥)(∑ 𝑦)
𝑚=
𝑁 ∑ 𝑥 2 − (∑ 𝑥)2
∑ 𝑦 ∑ 𝑥 2 − (∑ 𝑥)(∑ 𝑥𝑦)
𝑏=
𝑁 ∑ 𝑥 2 − (∑ 𝑥)2
La parábola de mínimos cuadrados que ajusta al conjunto de puntos muéstrales está dada por:
𝑦 = 𝑎 + 𝑏𝑥 + 𝑐𝑥 2
∑ 𝑥𝑦 = 𝑎 ∑ 𝑥 + 𝑏 ∑ 𝑥 2 + 𝑐 ∑ 𝑥 3
∑ 𝑥2𝑦 = 𝑎 ∑ 𝑥2 + 𝑏 ∑ 𝑥3 + 𝑐 ∑ 𝑥4
Si se deja que yest denote el valor estimado de y para un valor de x, como se obtiene en la curva
de regresión y en x entonces la cantidad que se llama error estándar de estimación de y en x
proporciona una medida de la dispersión alrededor de la curva de regresión.
∑(𝑦 − 𝑦𝑒𝑠𝑡 )2
𝑆𝑦,𝑥 = √
𝑛
Puesto que ∑(𝑦 − 𝑦𝑒𝑠𝑡 )2 =∑ 𝑑2 , se observa que de todas las posibles curvas de regresión, la
curva de mínimos cuadrados tiene el error estándar de estimación más pequeño
𝑆 2𝑦,𝑥 = 𝑆𝑦2 (1 − 𝑟 2 )
A partir del cual se concluye como un corolario que r2≤1, esto es, -1 ≤ r ≤ 1.
Ejercicio:
𝑁 ∑ 𝑥𝑦 − (∑ 𝑥)(∑ 𝑦)
𝑚= 2
𝑁 ∑ 𝑥 2 − (∑ 𝑥)
∑ 𝑦 ∑ 𝑥 2 − (∑ 𝑥)(∑ 𝑥𝑦)
𝑏= 2 2
𝑁 ∑ 𝑥 − (∑ 𝑥)
Y = a + bx
Y = 87.75 + 27.67(x)
Con esta ecuación de mínimo cuadrado se pueden predecir los costos totales aproximados de
acuerdo a las horas laboradas.
Y = 87.75 + 27.67(40)
Y = 87.75 + 1106.8
Y = $1,194.55