Você está na página 1de 25

UNIVERSIDAD POLITECNICA SALESIANA

SEXTO NIVEL

RESUMENES

RESPONSABLES GRUPO 1:
 ARMAS SIMBAÑA ALISSON MICHELLE
 FERNÁNDEZ PICHUCHO GRACIELA LIZBETH
 HINOJOZA ORBEA MIKELE ALEJANDRO
 LINCANGO TUQUERRES JONATHAN RAFAEL
 TUSO ANALUISA WILLIAM STALIN

PRUEBAS DE NORMALIDAD

Es una prueba de hipótesis, no requiere que la distribución de la población sea caracterizada por
ciertos parámetros. Por ejemplo, muchas pruebas de hipótesis parten del supuesto de que la
población sigue una distribución normal con los parámetros μ y σ. Las pruebas no paramétricas
no parten de este supuesto, de modo que son útiles cuando los datos son considerablemente
no normales y resistentes a transformaciones.

1. Son métodos de distribución libre. No requieren conocer la distribución de la muestra,


ésta debe ser representativa de la población objeto de estudio.
2. Se utilizan estadísticos cuya distribución se determina con independencia de cuál sea la
distribución de la población, esto es, que los datos de cualquier caso en las variables
medidas no estén condicionados por los datos de otros casos en la muestra, permiten
conocer cómo es la forma de la distribución de la población de la que se ha extraído la
muestra.

Contrastes de Bondad de Ajuste: para conocer la forma de la población que ha originado la


muestra, las pruebas de bondad de ajuste se utilizan para contrastar si los datos de la muestra
pueden considerarse que proceden de una determinada distribución.

MÁXIMA VEROSIMILITUD

La evaluación por el método de máxima verosimilitud procura encontrar los valores más
probables de los parámetros de la distribución para un conjunto de datos. Maximizando el valor
de lo que se conoce como la “función de verosimilitud” La función de verosimilitud se basa en
la función de la densidad de la probabilidad fdp para una distribución dada.

 Es consistentemente asintótico: mientras que el tamaño de muestra aumenta, las


estimaciones convergen a los valores correctos.
 Es asintótico eficiente: para conjuntos de datos grandes produce las estimaciones más
exactas.
 Es asintótico imparcial: para conjuntos de datos grandes uno espera conseguir el valor
correcto en promedio.
 La distribución de las estimaciones mismas es normal, si el conjunto de datos es
bastante grande. cantidad de datos censurados. Esta polarización puede causar
discrepancias importantes en el análisis.

LA PRUEBA DE KOLMOGOROV-SMIRNOV

La prueba de Kolmogorov es una prueba de bondad de ajuste, es decir, del grado en que la
distribución observada difiere de otra distribución. Es una alternativa a la prueba Ji Cuadrado de
bondad de ajuste cuanto el número de datos es pequeño. La prueba no debe ser aplicada si hay
muchos empates.

Cuando la prueba Kolmogorov-Smirnov kolmogorov se aplica para contrastar la hipótesis de


normalidad de la población, el estadístico de prueba es la máxima diferencia:

Siendo Fn(x) la función de distribución muestral y Fo(x) la función teórica o correspondiente a la


población normal especificada en la hipótesis nula.

La distribución del estadístico de Kolmogorov-Smirnov es independiente de la distribución


poblacional especificada en la hipótesis nula y los valores críticos de este estadístico están
tabulados. Si la distribución postulada es la normal y se estiman sus parámetros, los valores
críticos se obtienen aplicando la corrección de significación propuesta por Lilliefors.
PRUEBA DE SHAPIRO-WILK

El contraste que se desarrolla en esta sección recibe el nombre de Shapiro-Wilks.

El método consiste en comenzar ordenando la muestra de menor a mayor, obteniendo el nuevo


vector muestral (x(1),x(2),…,x(n))(x(1),x(2),…,x(n)), siendo x(j)x(j) el jj-ésimo valor muestral tras
la ordenación. Cuando la muestra es como máximo de tamaño 50 se puede contrastar la
normalidad con la prueba de shapiro Shapiro-Wilk. Para efectuarla se calcula la media y la
varianza muestral, S2, y se ordenan las observaciones de menor a mayor. También se calculan
las diferencias entre: el primero y el último; el segundo y el penúltimo; el tercero y el
antepenúltimo, etc. y se corrigen con unos coeficientes tabulados por Shapiro y Wilk. El
estadístico de prueba es:

Es igual a

Donde b es la suma de las diferencias corregidas.

Nota: Se rechazará la hipótesis nula de normalidad si el estadístico W es menor que el valor


crítico proporcionado por la tabla elaborada por los autores para el tamaño muestral y el nivel
de significación dado.

Importante saber que una vez dada una muestra aleatoria simple de tamaño n, (x1,x2,…,xn), se
quiere saber si procede de una población con distribución normal. Este problema es muy
frecuente, ya que son muchas las pruebas de inferencia estadística que exigen como condición
imprescindible que la población de procedencia de la muestra sea normal.

Los coeficientes (ain) suelen aparecer tabulados en los manuales. Obtenido el valor de W, su
distribución permite calcular el valor crítico del test que permite tomar una decisión sobre la
normalidad de la muestra.

El programa devuelve el valor del estadístico W, así como su probabilidad crítica, pc, la cual da
la clave para aceptar o rechazar la hipótesis nula de normalidad, que representamos por H0. Si
pc<0.05, se rechazará la hipótesis con un nivel de significación del 5%; si pc<0.01, se rechazará
con un nivel del 1%.

PRUEBA DE ANDERSON-DARLING

La prueba AD es una forma de estimación de mínima distancia, y uno de los estadísticos más
potentes para detectar discrepancia con respecto a normalidad. Se puede utilizar con un tamaño
muestral bajo (n ≤ 25). Tamaños muestrales muy grandes pueden rechazar el supuesto de
normalidad con tan solo pequeñas imperfecciones.
La prueba de Anderson-Darling es usada para probar si una muestra viene de una distribución
especifica. Esta prueba es una modificación de la prueba de Kolmogorov- Smirnov donde se le
da más peso a las colas de la distribución que la prueba de Kolmogorov-Smirnov.

La prueba Anderson-Darling se define como:

Ho: Los datos siguen una distribución especificada.

Ha: Los datos no siguen la distribución especificada

Estadística de prueba: La estadística de la prueba Anderson-Darling se define como

A2=−n−S

F es la función de distribución acumulada de la distribución especificada. Tenga en cuenta que


Yi son los datos ordenados.

PROCEDIMIENTOS:

Esta explicación está basada en una prueba para una distribución normal.

 Los datos Xi para i = 1…,n de la variable X que se quiere probar se organizan


ascendentemente (menor a mayor).
 La media 𝑋̅ y desviación estándar s son calculadas para la muestra X. Los valores Xi se
estandarizan como , y determinar las probabilidades acumuladas Fi.
 2
Calcular A según la fórmula dada.
 Comparar con el valor de tablas (Tabla T-7) para determinar el valor 1 − 𝛼, y llegar a una
conclusión acerca de Ho

BIBLIOGRAFÍA
Marqués dos Santos, María José; Estadística Básica: un enfoque no paramétrico, Universidad
Nacional Autónoma de México, Facultad de Estudios Superiores Zaragoza.

INTEGRANTES GRUPO 2:

 JÁTIVA PAUL
 LUZURIAGA ESTEFANÍA
 PAZMIÑO SOLANGE
 TALAVERA BRYAN
 VEINTIMILLA EDISON

CORRELACION NO LINEAL
Para poder entender la Correlación No Lineal, es primordial entender que es la Correlación
Lineal, a continuación lo detallamos:

Una correlación entre dos o más variables existe cuando una de ellas está ligada de cualquier
manera con las otras.

En este caso nos referiremos cuando en el diagrama de dispersión, los puntos nos indiquen una
tendencia No Lineal Grafico 2, comparado con una tendencia Lineal Grafico 1.

Grafico 1. Tendencia Lineal, Galindo.

Grafico 2. Tendencia No Lineal, Galindo.

Correlacion De Pearson

Nos indica si dos variables cuantitativas tienen datos que en un diagrama de dispersion tienen
tendencia a acomodarse de forma Lineal.
Grafico 3, Datos con tendencia
Lineal, Galindo.

Cuando obtenemos el índice de correlación entre dos o más variables, lo que se procede a
realizar es un análisis de la función, para luego Escoger el valor de R más cercano a 1, como lo
veremos en el siguiente ejemplo:

M451 M458 M459 M171 M169


Año El Anegado Colimes San Pablo Camposano Julcuy
1990 2400,9 821,7 102,93 838,9 219,5
1991 2128,4 520,8 114,45 683,6 186,2
1992 1178,9 1992,4 282,67 2020,3 785,8
1993 933,3 1662,8 245,88 1931,6 587,2
1994 913,9 114,5 135,25 1567,8 738,7
1995 1069,9 1025,1 173,49 1172 286,5
1996 70,4 1046,5 118,80 672,5 7163,2
1997 598,3 2453,7 327,54 2637,7 31024,7
1998 1281,2 2843,8 458,57 3023,3 9655,7

Tabla1, Datos de precipitaciones, Jativa, P. Luzuriaga, E. 2018.

CORRELACION
El Anegado Colimes San Pablo Camposano Julcuy
El Anegado 1
Colimes 0,04095244 1
San Pablo 0,13298764 0,78606803 1
Camposano 0,07972523 0,87124 0,83717556 1
Julcuy -0,12833208 0,62910457 0,48134546 0,5920723 1

Tabla 2, Índice de Correlación de precipitaciones. Játiva, P.


Luzuriaga, E. 2018
Correlación No Lineal

Cuando Dos o más variables sujetos de análisis No están Ligadas entre sí, sucede la Correlación
No lineal.

Es primordial Graficar los datos y reconocer que tipo de función se tiene y en el caso que no sea
función Lineal, se debe realizar transformaciones de manera que los modelos se conviertan en
Lineales, de tal manera que podremos calcular el grado de correlación lineal entre variables que
no tienen un comportamiento lineal.

Una función Linealizable es la función Exponencial, comúnmente la más utilizada.

1. ¿Cómo es el proceso de linealización?


buscamos una función de X muy simple (lineal) que nos permita aproximar Y mediante
ln(y)= b0 + b1X
b0 (ordenada en el origen, constante)
b1 (pendiente de la recta)
2. Linealizamos los datos, es decir creamos otra tabla con los valores de x y los valores de
ln(y).
3. Gráficos y tablas

Tabla 2. Valores de x e y Tabla 3. Valores de x y ln(y)

Grafico 6. Tabla de dispersión X vs. Ln(y)


4. Por último, una vez linealizada la función se procede a graficar la línea de tendencia y
encontrar los valores de las componentes de la ecuación y se procede a realizar una
prueba de Hipótesis y definir si existe correlaci0n lineal entre las variables.

BIBLIOGRAFIA

 Caligaris, M., Rodríguez, G., & Lauguero, L. (2014). La formación de conceptos en la


resolución numérica de ecuaciones no lineales. Documentos en Educación Matamática.
 Aguayo, M., & Lora, E. (2014). Cómo realizar “paso a paso” un contraste de hipótesis
con SPSS para Windows:(III) Relación o asociación y análisis de la dependencia (o no)
entre dos variables cuantitativas. Correlación y regresión lineal simple. Fundación
Andaluza Beturia para la Investigación en Salud.,´pg 15.
 Freedman, D. et al.(1991). Estadística. Barcelona: A. Bosch ed.

INTEGRANTES GRUPO 3:

 BERRONES GEOVANA
 CORTEZ ANGHELA
 LOACHAMIN CRISTIAN
 ORTIZ DANIELA
 QUILLE ERIKA

ESPERANZA MATEMÁTICA
Introducción

La esperanza matemática o valor esperado de una variable aleatoria discreta es la suma del
producto de la probabilidad de cada suceso por el valor de dicho suceso.
𝑛

𝐸(𝑥) = 𝑥1 ∗ 𝑝1 + 𝑥2 𝑝2 + ⋯ + 𝑥𝑖 ∗ 𝑝𝑖 = ∑ 𝑥𝑖 ∗ 𝑝𝑖
𝑖=1

Los nombres de esperanza matemática y valor esperado tienen su origen en los juegos de azar
y hacen referencia a la ganancia promedio esperada por un jugador cuando hace un gran
número de apuestas.

Si la esperanza matemática es cero, E(x) = 0, el juego es equitativo, es decir, no existe ventaja


ni para el jugador ni para la banca.

Definición

El valor esperado de una variable aleatoria discreta: se denota con E y representa el valor
promedio de los resultados. Se obtiene mediante:

E(x) = ∑ x. p(x)
i

Si x es una variable aleatoria continua y f(x) es el valor de su densidad de probabilidad en x, el


valor esperado de esta variable aleatoria es:

𝐸(𝑥) = ∫ 𝑥. 𝑓(𝑥)𝑑𝑥
−∞

Propiedades de la Esperanza matemática

1. Para c ∈ R constante, E(c)=c


2. E(cX)= cEX, si c ∈ R constante
3. Linealidad: si X, Y son integrables y a,b ∈ R constantes entonces aX+bX es integrable y
E(aX+bY)=aEX+bEY
4. Positividad: si X ≥ 0, entonces EX ≤ EY. En particular, │EX│ ≤ E│X│
5. Independencia: si X e Y son independientes e integrables, entonces XY es integrable y
E(XY ) = EXEY .

Observación 1: Si g1, g2: R²→ R funciones (continuas) y X e Y variables, entonces g1(X,


Y) y g2(X, Y) son variables.
E (ag1(X, Y) + bg2(X, Y) = aEg1(X, Y) + bEg2(X, Y), a, b ∈ R constantes.

Observación 2: Si g1, g2: R → R funciones y X e Y independientes, g1(X) y g2 (Y) son


también independientes.
Si X e Y independientes, E (g1(X) g2 (Y)) = Eg1(X)Eg2(Y ).

Ejemplos:
Sean X e Y variables
– E(2X² + 3𝑌 4 ) = 2EX² + 3𝑌 4
– E(X + Y)² = EX² + 2E(XY ) + EY²
– E(sen(XY ) + 3𝑒 𝑥 − 2Y² ) = Esen(XY ) + 3E𝑒 𝑥 − 2EY²

Si además X e Y son independientes:


– E(XY ) ² = EX²EY²
– E(X𝑒 𝑦 ) = EXE𝑒 𝑦
– E𝑒 𝑥+𝑦 = E𝑒 𝑥 E𝑒 𝑦

Ejercicio 1. Variables aleatorias discretas

Un jugador lanza dos monedas. Gana 1 o 2 € si aparecen 1 o dos caras. Por otra parte, pierde 5

€ si no aparece cara. Determinar la esperanza matemática del juego y si éste es favorable.

C S

2
𝑃(+1) =
4
1
𝑃(+2) =
4
1
𝑃(−5) =
4
2 1 1 1
𝐸(𝑥) = 1 ∗ 4 + 2 ∗ 4
− 5 ∗ 4 = -4

Ejercicio 2. Variables aleatorias continuas

Sabemos que la altura de un cierto árbol sigue una distribución continua con la siguiente
𝑥
función de densidad:𝑓(𝑥) = 12, cuando 1 < 𝑥 < 5. Calcular la esperanza de 𝑥


𝐸(𝑥) = ∫ 𝑥 ∗ 𝑓(𝑥)𝑑𝑥
−∞

5
𝑥
𝐸(𝑥) = ∫ 𝑥 ∗ 𝑑𝑥
1 12

5
𝑥2
𝐸(𝑥) = ∫ 𝑑𝑥
1 12

1 5
𝐸(𝑥) = [36 𝑥 3 ]
1

125 1 31
𝐸(𝑥) = 36
− 36 = 9
Ejercicio 3. Variables aleatorias continuas

El contenido de Magnesio en una aleación es una v.a dada por la función de probabilidad

𝑥
𝑓(𝑥) = 16, 0 < 𝑥 < 6 y 0 de otra forma. La utilidad esperada que se obtiene de esta aleación

es 𝑃 = 10 + 2𝑥, determine ¿Cuál es la utilidad esperada?

6
𝑥
𝐸(𝑃) = 𝐸(10 + 2𝑥) = ∫ (10 + 2𝑥) ∗ 𝑑𝑥
0 16

6
10 𝑥 2 2 𝑥 3 360 432
𝐸(𝑃) = [ ∗ + ∗ ] = + −0
16 2 16 3 0 32 48

81
𝐸(𝑃) = 4
≈ 20,25

INTEGRANTES GRUPO 4:
 ARCINIEGA ANDRÉS
 CORTÉS SOFÍA
 MORALES GABRIELA
 SALAZAR JOHANNA
 ZAMORA ESTEBAN

PARÁMETROS Y SUFICIENCIA DE FISHER

CARACTERISTICAS:

• La funcion f es una funcion continua.


• Existe una familia de distribuciones F que están determinados por dos parámetros:
 gl1 (grados de libertad del numerador)
 gl2. (grados de libertad del denominador).
• La distribución de la variable es asimétrica, pero su asimetría disminuye cuando
aumenta los grados de libertad del numerador y denominador.
• El valor F no puede ser negativo.
• La curva representada en la gráfica debe ser de sesgo positivo.
• Sus valores varían entre 0 a infinito.
PROPIEDADES:

• Una propiedad importante de la F es que el cuadrado de una T(n) de Student es una


F(1,n).
• Si X es una F(m,n), entonces la variable1/X es una F (n,m), y la variable

Es una beta (n/2,m/2).


Distribución Fisher
Es una distribución de probabilidad de gran aplicación en la inferencia estadística ,
fundamentalmente en la contrastación de la igualdad de varianzas de dos poblaciones
normales, y , fundamentalmente en el análisis de la varianza , técnica que permite detectar la
existencia o inexistencia de diferencias significativas entre muestras diferentes y que es, por
tanto esencial , en todos aquellos casos en los que se quiere investigar la relevancia de un factor
en el desarrollo y naturaleza de una característica.
Definición
Sean las variables aleatorias 𝑋~𝑋 2 (m) e 𝑌~𝑋 2 (n) independientes.
𝑋⁄
𝑚
Entonces la variable aleatoria F definida como 𝐹 = 𝑌⁄ , que toma cualquier valor real positivo,
𝑛
sigue una distribución F de Snedecor de parámetros m y n (𝐹~𝐹(𝑚, 𝑛)).
Donde:
𝑚 𝑦 𝑛 Son los grados de libertad
𝑋 𝑦 𝑌 Siguen una distribución chi-cuadrado y son estadísticamente independientes.
Función de densidad
La función de densidad de una F se obtiene a partir de la función de densidad conjunta de
X y Y.
Para todo valor de x>0. Es evidente, por su construcción, que solo puede tomar valores
positivos, como la chi-cuadrado.
La forma de la representación gráfica depende de los valores m y n, de tal forma que si m y
n tienden a infinitos, dicha distribución se asemeja a la distribución normal.
La función de densidad de la F de Snedecor viene dada por:
Siendo m y n los parámetros de la función (distribución) y Г la función gamma de Euler.
La media y la varianza
La media de la distribución es 𝐸 = (𝐹𝑛1 , 𝐹𝑛2 ) = 𝑛⁄𝑛 − 2 se define con los grados de libertad
del numerador y del denominador, la media tiende a n>2.
Siendo la varianza cuando n>4

Cuando usar esta distribución


 Se Utiliza la distribución F en el análisis de varianza y en pruebas de hipótesis para
determinar si dos varianzas de población son iguales. No tiene utilidad en la vida
cotidiana.

Como usar la tabla


 Se tendrá que buscar primero los grados de libertad para luego localizar el área
correspondiente, relacionándola con los grados de libertad uno, para calcular el valor
de F.
 n1 (se listan en la parte superior de la tabla)
 n2 (se listan en la parte lateral de la tabla)
Cuando ya se señalados estos valores en el interior se encuentra los números correspondientes.
Suficiencia
 Un estadístico es suficiente si contiene toda la información relevante, es decir, toda la
que contiene la muestra.
Teorema de factorización
 Se llama teorema de factorización porque buscamos factorizar la función de distribución
conjunta de la muestra f x (x | θ) como un producto de dos funciones, una que solo
dependa de la transformación de la muestra y el parámetro, y otra que sólo dependa de
la muestra y con esta función T se puede construir un estadístico que se garantiza que
sea suficiente.

INTEGRANTES GRUPO 5:
 AGUILAR MORA CRISTINA GABRIELA
 GUAMÁN POZO JESSICA MISHELLE
 GUERRERO GUERRERO DANILO ROLANDO
 LEÓN SALGUERO MARÍA JOSÉ
 LÓPEZ LUDEÑA KARINA ANDREA
 TAIPE QUISPE JESSICA MARISOL

DISTRIBUCIÓN DE POISSON
1. POISSON, USOS

La distribución de Poisson se aplica a sucesos que se presentan en el tiempo o en el espacio,


tales como número de accidentes de tráfico, número de llamadas telefónicas a una central,
número de goles que marca en un partido, numero de bacterias en una placa, entre otros.

2. POISSON, CARACTERÍSTICAS
 Es una variable discreta
 Es una distribución asimétrica
 Cumple con únicamente un parámetro (λ)
 Se utiliza en situaciones donde los sucesos son impredecibles o de ocurrencia
aleatoria, o donde no se sabe el total de posibles resultados.
 Es útil cuando la muestra o segmento n es grande y la probabilidad de éxitos p es
pequeña.
 El número de resultados que ocurren en un intervalo de tiempo o región específicos es
independiente del número que ocurre en cualquier otro intervalo de tiempo o región.

3. FÓRMULA DE POISSON

Una variable aleatoria discreta X que puede tomar un número infinito de valores 0, 1, 2,…, se
dice que sigue una ley de Poisson de parámetro λ (λ>0), si la probabilidad de que X tome valor
k es:

𝑒 −λ λ𝑘
Pr(X=k)= , k=0,1,2,3…
𝑘!

p(x, λ) = probabilidad de que ocurran x éxitos, cuando el número promedio de ocurrencia de


ellos es λ
x = variable que nos denota el número de éxitos que se desea que ocurra
λ = media o promedio de éxitos por unidad de tiempo, área o producto
e = 2.718

A esta variable aleatoria se la nota como X P(λ).

Su esperanza y su varianza son, respectivamente, iguales a:

E(X) = λ

Var(X) = λ
El significado del parámetro λ es el promedio de aparecimiento del evento en n pruebas.

Esta ley de probabilidades es una buena aproximación a la binomial cuando n es relativamente


grande (n ≥30) y p pequeño (p ≤0.05), poniendo λ=np

Puesto que muchas aplicaciones de esta ley dependen del tiempo, es conveniente poner la
siguiente formula:

𝑒 −λt (λt)𝑘
Pr(X=k) = , k=0,1,2,3…
𝑘!

Donde:

p(x, λ) = probabilidad de que ocurran x éxitos, cuando el número promedio de ocurrencia de


ellos es λ
x = variable que nos denota el número de éxitos que se desea que ocurra
λ = media o promedio de éxitos por unidad de tiempo, área o producto
e = 2.718
t= tiempo

Que se la interpreta como la probabilidad que suceda exactamente k eventos en un intervalo de


tiempo fijo de duración t
Para la ley de distribución de Poisson también existe una fórmula de recurrencia para el cálculo
de las probabilidades, dada por:

Po = 𝑒 −λ
λ
Pk= 𝑝𝑘−1 * , k=1,2,3…..
𝑘

4. BIBLIOGRAFÍA

Galindo, E. (2011). Estadística Métodos y Aplicaciones. Prociencia Editores.

Carreto, J. Distribución de Poisson, Obtenido de: https://www.slideshare.net/jcarreto/10-


distribucin-de-poisson?next_slideshow=1

INTEGRANTES GRUPO 6

 JESSICA ANDRADE
 VICTOR HERRERA
 ANDREA QUISAGUANO
 EVELIN TAPIA
 EDGAR VILLAGOMEZ
DISTRIBUCIÓN DE BERNOULLI

En teoría de probabilidad y estadística, la distribución de Bernoulli (o distribución dicotómica),


nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de
probabilidad discreta, que toma valor 1 para la probabilidad de éxito ( p ) y valor 0 para la
probabilidad de fracaso ( q =1-p ). La distribución binomial es una generalización de una
distribución de Bernoulli.

Si X es una variable aleatoria que mide el "número de éxitos", y se realiza un único experimento
con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria {X} se distribuye
como una Bernoulli de parámetro {p}

Su función de probabilidad viene definida por:

La fórmula será:

Un experimento al cual se aplica la distribución de Bernoulli se conoce como Ensayo de Bernoulli


o simplemente ensayo, y la serie de esos experimentos como ensayos repetidos. Los ensayos de
Bernoulli están modelados por una variable aleatoria que puede tomar sólo dos valores, 0 y 1.
Habitualmente, se utiliza el 1 para representar el éxito y 0 para fracaso y consiste en la repetición
en el tiempo de ensayos independientes pero idénticos.

La distribución de Bernoulli es una distribución discreta que está relacionada con muchas
distribuciones, tales como la distribución binomial, geométrica y binomial negativa. La
distribución de Bernoulli representa el resultado de 1 ensayo. Las secuencias de ensayos de
Bernoulli independientes generan las demás distribuciones: la distribución binomial modela el
número de éxitos en n ensayos.

PROPIEDADES Y CARACTERISTICAS

Esperanza matemática:

Varianza:
Desviación estándar:

√n ∗ p ∗ q

EJEMPLOS:

 Al lanzar una moneda, comprobar si sale cara (éxito) o cruz (fracaso). Se suele suponer
que una moneda tiene una probabilidad de éxito de 0,5.
 Al lanzar un dado, ver si se obtiene un seis (éxito) o cualquier otro valor (fracaso).
 Al realizar una encuesta política, tras escoger un votante al azar, ver si éste votará "si"
en un referéndum próximo.

 Al lanzar un dado y que salga 5, X = #veces que sale un 5.
Al lanzar un dado tenemos 6 probabilidades resultados el espacio muestra es de:
𝑆 = (1,2,3,4,5,6)
1
Se considera éxito sacar un 5 entonces la probabilidad es 𝑃 = 6
1 5
Se considera fracaso a no sacar 5 entonces 𝑞 = 1 − 𝑃 = 1 − 6 = 6
La probabilidad de que salga un 5 viene definida en que 𝑥 = 1 (éxito)
1 5 1−1 1
𝑃(𝑥 = 1) = ( )1 ∗ ( ) = = 0.16
6 6 6
Y 𝑥 = 0 (fracaso)
1 5 1−0 5
𝑃(𝑥 = 0) = ( )0 ∗ ( ) = = 0.83
6 6 6

INTEGRANTES GRUPO 7
 CONDOR BRYAN
 CARPIO GABRIEL
 MOLINA JUAN

ESTADÍSTICA NO PARAMÉTRICA
Definición: Una prueba estadística no paramétrica está basada en un modelo que especifica solo
condiciones muy generales y ninguna cerca de la forma específica de la distribución de la cual
fue obtenida la muestra.

Una prueba no paramétrica es una prueba de hipótesis que no requiere que la distribución de
la población sea caracterizada por ciertos parámetros. Por ejemplo, muchas pruebas de
hipótesis parten del supuesto de que la población sigue una distribución normal con los
parámetros μ y σ. Las pruebas no paramétricas no parten de este supuesto, de modo que son
útiles cuando los datos son considerablemente no normales y resistentes a transformaciones.

Ventajas:
- Los procedimientos no paramétricos prueban diferentes hipótesis acerca de la población, que
los procedimientos paramétricos no hacen.

- Si el tamaño de la muestra n<30 puede no haber otra alternativa.

- Tratan datos que son simplemente categóricos es decir a una escala nominal.

- Las pruebas no paramétricas típicamente hacen menos suposiciones acerca de los datos y
pueden ser más relevantes a una situación particular. Además, las hipótesis probadas por una
prueba no paramétrica pueden ser más adecuadas para la investigación

Desventajas:

- No son sistemáticas (conjunto ordenado de normas y procedimientos).

- Con el tamaño de la muestra muy pequeño se vuelve inconsistente.

Herramientas de la estadística no paramétrica

1. Prueba de los signos: La prueba de los signos es aplicable al caso de dos muestras
relacionadas cuando el investigador desea establecer que dos condiciones son
diferentes. La única suposición que subyace a esta prueba es que la variable estudiada
tiene una distribución continua. La prueba no hace suposiciones acerca de la forma de
la distribución y tampoco supone que los sujetos pertenecen a una misma población.
Los diferentes pares pueden pertenecer a diferentes poblaciones en cuanto a edad,
sexo, inteligencia, etc.

2. Prueba de rangos asociados de Wilcoxon: 2 muestras asociadas:


- Es usada para hacer pruebas de hipótesis acerca de la mediana.
- Se resta de cada dato el valor de la mediana que se considera en la hipótesis nula. Se
calcula los rangos de las diferencias sin tomar en cuenta el signo de las mismas (o sea
en valor absoluto).
- En el caso de haber empate se asigna un rango promedio a todas las diferencias
empatadas es decir; se les asigna el rango.

3. Man – Whitney: 2 muestras independientes: contrasta si dos poblaciones muestreadas


son equivalentes en su posición. Las observaciones de ambos grupos se combinan y
clasifican, asignándose el rango de promedio en caso de producirse empates. El número
de empates debe ser pequeño en relación con el número total de observaciones. Si la
posición de las poblaciones es idéntica, los rangos deberían mezclarse aleatoriamente
entre las dos muestras. La prueba calcula el número de veces que una puntuación del
grupo 1 precede a una puntuación del grupo 2 y el número de veces que una puntuación
del grupo 2 precede a una puntuación del grupo 1.

4. Kruskal-Wallis: +2 muestras independientes: Este contraste permite decidir si puede


aceptarse la hipótesis de que k muestras independientes proceden de la misma
población o de poblaciones idénticas con la misma mediana. El único supuesto necesario
es que las distribuciones subyacentes de las variables sean continuas y que éstas hayan
sido medidas por lo menos en una escala ordinal.
5. Friedman: +2 muestras asociadas: Esta prueba puede utilizarse en aquellas situaciones
en las que se seleccionan n grupos de k elementos de forma que los elementos de cada
grupo sean lo más parecidos posible entre sí, y a cada uno de los elementos del grupo
se le aplica uno de entre k ''tratamientos'', o bien cuando a cada uno de los elementos
de una muestra de tamaño n se le aplican los k ''tratamientos''

INTEGRANTES GRUPO 8
 CERON CARLOS
 LANDETA KARLA
 MANOBANDA EVELIN
 RUIZ NATHALI
 SIMBA CARLOS
 VALDEZ ANDRES

CADENAS DE MARKOV
La cadena de Markov es un proceso estocástico.

Proceso estocástico

Es un proceso que se desarrolla de manera aleatoria en el tiempo.

Definición formal
Proceso estocástico: es una familia de variables aleatorias {𝑋(𝑡), 𝑡 ∈ 𝑇} en donde t toma valores
del conjunto T.

Una sucesión de observaciones X1, X2, X3, . . . se denomina proceso estocástico sí:
 Los valores de estas observaciones no se pueden predecir exactamente.
 Pero se pueden especificar las probabilidades para los distintos valores posibles en
cualquier instante de tiempo.
 𝑋𝑛 : variable aleatoria que define el estado inicial del proceso.
 Xn : variable aleatoria que define el estado del proceso en el instante de tiempo n.

Clasificación de procesos estocásticos según conjunto de subíndiceT, y tipo de variable aleatoria


Xt.
Conjunto de subíndices (T)
t Discreto t Continuo
Espacio de estado (X)
Proceso de estado y tiempo
discretos:
Proceso de Saltos Puros
Cadena
Discreto (Ej.: N unidades producidas
(Ej.: Número de unidades
hasta el instante t).
producidas/semana).

Proceso Continuo y tiempo


Proceso continuo
discreto
Continuo (Ej.: velocidad de un vehículo
(Ej.: Tonelada de producción
en el instante t).
diaria de un producto)

Cadenas de Markov

Una cadena de Markov es un proceso estocástico que cumple con la propiedad de pérdida de
memoria.
Propiedad de perdida de la memoria consiste en que los estados futuros del proceso dependen
únicamente del presente, por lo mismo son independientes del pasado.

Definición formal

Considere el proceso (𝑋𝑛+1 , 𝑋𝑛 , 𝑋𝑛−1 , … , 𝑋1 , 𝑋0 )


Si 𝑋𝑛 = 𝑖  el proceso se encuentra en el estado i en el tiempo o etapa n.
Un proceso cumple con la propiedad Markoviana sí:

𝑃(𝑋𝑛+1 = 𝑗/𝑋𝑛 = 𝑖, 𝑋𝑛−1 = 𝐾𝑛−1 , … , 𝑋1 = 𝐾1 , 𝑋0 = 𝐾0 )


= 𝑃(𝑋𝑛+1 = 𝑗/𝑋𝑛 = 𝑖)

Cadenas de Markov
Matriz de transición de una etapa: matriz cuadrada formada por las probabilidades de
transición.
𝑃00 𝑃01 𝑃02 … 𝑃0𝑀
𝑃10 𝑃11 𝑃12 … 𝑃1𝑀
𝑃= 𝑃20 𝑃21 𝑃22 … 𝑃2𝑀
⋮ ⋮ ⋮ ⋱ ⋮
𝑃𝑀0 𝑃𝑀1 𝑃𝑀2 … 𝑃𝑀𝑀

0≤ 𝑃𝑖𝑗 𝑛 ≤ 1 𝑝𝑎𝑡𝑎 𝑡𝑜𝑑𝑜 𝑖, 𝑗, 𝑛 = 0, 1, 2, …

∑ 𝑃𝑖𝑗 = 1
𝑗=0
Cadenas de Markov

Representación gráfica de un proceso de Markov.

Un proceso de Markov puede representarse gráficamente si se conocen los M estados posibles


del sistema y las probabilidades de transición asociadas a ellos.

Ejercicio

Un estudiante de la carrera de Automotriz debe prepararse para rendir los exámenes finales,
para lo cual debe estudiar las materias de Física, Calculo y Algebra, donde la probabilidad es de
0.5, 0.5 y 0.4 respectivamente. Si el estudiante estudia Calculo el día lunes ¿Cuál es la
probabilidad de que el día jueves vuelva a estudiar Calculo?, además determine la matriz de
transición y represente la gráfica de Markov.

FISICA CALCULO ALGEBRA

FISICA 0.5 0.3 0.2

CALCULO 0.2 0.5 0.3

ALGEBRA 0.15 0.45 0.4

Matriz de transición.

0.5 0.3 0.2


0.2 0.5 0.3
0.15 0.45 0.4

Gráfica:

0.3
0.5 0.5

F 0.2 C

0.2 0.15 0.3 0.45

0.4

Resolución

Po = (0,1,0) probabilidad inicial.

Método 1.

0.5 0.3 0.2


P1 = [(0,1,0)] 0.2 0.5 0.3
0.15 0.45 0.4

P1 =[0 + 0.2 + 0] [0 + 0.5 + 0] [0 + 0.3 + 0]

P1 = [0.2 0.5 0.3]

0.5 0.3 0.2


P2 = [0.2, 0.5, 0.3] 0.2 0.5 0.3
0.15 0.45 0.4

P2 = [0.2, 0.5, 0.3] [0.06 + 0.25 + 0.135] [0.04 + 0.15 + 0.12]

P2 = [0.245, 0.445, 0.67]

0.5 0.3 0.2


P3 = [0.245, 0.445, 0.67] 0.2 0.5 0.3
0.15 0.45 0.4

P3 = [0.1225 + 0.089 + 0.1005] [0.0735 + 0.2225 + 0.3015] [0.134 + 0.201 + 0.268]

P3 =[0.312, 0.5975, 0.603]


⁂ La probabilidad que estudie cálculo el día jueves es de 0.5975

INTEGRANTES GRUPO 9:

 FERNÁNDEZ MAURICIO
 GIL KEVIN
 LUDEÑA ERIKA
 QUINTUÑA HENRY
 TIGSE ANDRÉS

MÉTODO DE MÍNIMOS CUADRADOS


Es un procedimiento de análisis numérico en la que, dados un conjunto de datos, se intenta
determinar la función continua que mejor se aproxime a los datos, proporcionando una
demostración visual de la relación entre los puntos de los mismos.

Este método se utiliza comúnmente para analizar una serie de datos que se obtengan de algún
estudio, con el fin de expresar su comportamiento de manera lineal y así minimizar los errores
de la data tomada.

Recta de los mínimos cuadrados

La recta de los mínimos cuadrados que aproxima el conjunto de puntos, tomando en cuenta a
Y como variable dependiente tiene por ecuación:
Y= mx + b

Donde las constantes quedan fijadas al resolver simultáneamente las ecuaciones

∑ 𝑦 = 𝑚 ∑ 𝑋 + 𝑏𝑁

∑ 𝑋𝑌 = 𝑚 ∑ 𝑥 2 + 𝑏 ∑ 𝑥
Que se llaman ecuaciones normales para la recta de mínimos cuadrados

Las constantes m y b de las ecuaciones anteriores pueden hallar de las formulas

𝑁 ∑ 𝑥𝑦 − (∑ 𝑥)(∑ 𝑦)
𝑚=
𝑁 ∑ 𝑥 2 − (∑ 𝑥)2

∑ 𝑦 ∑ 𝑥 2 − (∑ 𝑥)(∑ 𝑥𝑦)
𝑏=
𝑁 ∑ 𝑥 2 − (∑ 𝑥)2

Parábola de Mínimos Cuadrados

La parábola de mínimos cuadrados que ajusta al conjunto de puntos muéstrales está dada por:

𝑦 = 𝑎 + 𝑏𝑥 + 𝑐𝑥 2

Donde a, b y c se determinan mediante las ecuaciones normales


∑ 𝑦 = 𝑛𝑎 + 𝑏 ∑ 𝑥 + 𝑐 ∑ 𝑥 2

∑ 𝑥𝑦 = 𝑎 ∑ 𝑥 + 𝑏 ∑ 𝑥 2 + 𝑐 ∑ 𝑥 3

∑ 𝑥2𝑦 = 𝑎 ∑ 𝑥2 + 𝑏 ∑ 𝑥3 + 𝑐 ∑ 𝑥4

Error estándar de estimaciones

Si se deja que yest denote el valor estimado de y para un valor de x, como se obtiene en la curva
de regresión y en x entonces la cantidad que se llama error estándar de estimación de y en x
proporciona una medida de la dispersión alrededor de la curva de regresión.

∑(𝑦 − 𝑦𝑒𝑠𝑡 )2
𝑆𝑦,𝑥 = √
𝑛

Puesto que ∑(𝑦 − 𝑦𝑒𝑠𝑡 )2 =∑ 𝑑2 , se observa que de todas las posibles curvas de regresión, la
curva de mínimos cuadrados tiene el error estándar de estimación más pequeño

En el caso de una recta de regresión se tiene


∑ 𝑦 2 − 𝑎 ∑ 𝑦 − 𝑏 ∑ 𝑥𝑦
𝑆 2𝑦,𝑥 =
𝑛
∑(𝑦 − 𝑦)2 − 𝑏 ∑(𝑥 − 𝑥)(𝑦 − 𝑦)
𝑆 2𝑦,𝑥 =
𝑛
O también se expresa 𝑆 2𝑦,𝑥 para la recta de mínimos cuadrados en términos del coeficiente de
varianza y correlación como

𝑆 2𝑦,𝑥 = 𝑆𝑦2 (1 − 𝑟 2 )

A partir del cual se concluye como un corolario que r2≤1, esto es, -1 ≤ r ≤ 1.

Ejercicio:

Determina ¿cuáles serán los costos en una jornada de trabajo de 40 horas?

MES COSTO (Y) HORAS (X)

ENERO 400 10.00

FEBRERO 500 12.50

MARZO 500 17.50

ABRIL 600 20.00

MAYO 1,500 50.00

JUNIO 900 30.00


TOTAL 4,400 140.00

Se hace la tabla adjuntada para realizar más fácil la ecuación:

MES COSTO (Y) HORAS (X) (X)(Y) X2


ENERO 400 10.00 4000 100
FEBRERO 500 12.50 6250 156
MARZO 500 17.50 8750 306
ABRIL 600 20.00 12000 400
MAYO 1,500 50.00 75000 2,500
JUNIO 900 30.00 27000 900
TOTAL 4,400 140.00 133,000 4,363

𝑁 ∑ 𝑥𝑦 − (∑ 𝑥)(∑ 𝑦)
𝑚= 2
𝑁 ∑ 𝑥 2 − (∑ 𝑥)

∑ 𝑦 ∑ 𝑥 2 − (∑ 𝑥)(∑ 𝑥𝑦)
𝑏= 2 2
𝑁 ∑ 𝑥 − (∑ 𝑥)

6(133000) − (140)(4400) 182000


𝑚= = = 27,67
6(4363) − (140)2 6578
(4400)(4363) − (140)(133000) 577200
𝑏= = = 87,75
6(4363) − (140)2 6578

Y = a + bx

Y = 87.75 + 27.67(x)

Con esta ecuación de mínimo cuadrado se pueden predecir los costos totales aproximados de
acuerdo a las horas laboradas.

Y = 87.75 + 27.67(40)

Y = 87.75 + 1106.8

Y = $1,194.55

Você também pode gostar