Você está na página 1de 20

2.

3 ESTADISTICA DESCRIPTIVA

2.3.1 TABLA DE FRECUENCIA


Ilustración 1 Tabla de Frecuencias

Autores: Michell Piza, Adrián Manjarres, Johanna Ponce

La tabla de frecuencias (o distribución de frecuencias) es una tabla que muestra


la distribución de los datos mediante sus frecuencias. Se utiliza para variables
cuantitativas o cualitativas ordinales.

La tabla de frecuencias es una herramienta que permite ordenar los datos de


manera que se presentan numéricamente las características de la distribución
de un conjunto de datos o muestra. (Gorgas, 2011)

2.3.2 FRECUENCIA ABSOLUTA

∑ki=1 ni = n1 + n2 +. . . +nk = N (1)


La frecuencia absoluta (ni ) de un valor Xi es el número de veces que el valor
está en el conjunto (X1 , X2 ,…, XN ). La suma de las frecuencias absolutas de
todos los elementos diferentes del conjunto debe ser el número total de sujetos
N. Si el conjunto tiene k números (o categorías) diferentes, entonces:

2.3.3 FRECUENCIA ABSOLUTA ACUMULADA

La frecuencia absoluta acumulada(Ni) de un valor Xi del conjunto (X1, X2,…, XN)


es la suma de las frecuencias absolutas de los valores menores o iguales a Xi,
es decir:

Ni = n1 + n2 +. . . +ni (2)

2.3.4 FRECUENCIA RELATIVA


La frecuencia relativa (fi) de un valor Xi es la proporción de valores iguales a Xi
en el conjunto de datos (X1, X2,…, XN). Es decir, la frecuencia relativa es la
frecuencia absoluta dividida por el número total de elementos N:

𝑛𝑖
𝑓𝑖 = (3)
𝑁

Siendo (X1, X2,…, XN) el conjunto de datos y ni el total de valores igual a Xi.
Las frecuencias relativas son valores entre 0 y 1, 0 ≤ fi ≤ 1. La suma de las
frecuencias relativas de todos los sujetos da 1. Supongamos que en el conjunto
tenemos k números (o categorías) diferentes, entonces:

∑ki=1 fi = f1 + f2 +. . . +fk = 1 (4)

Si se multiplica la frecuencia relativa por cien se obtiene el porcentaje (tanto por


cien %).

2.3.5 FRECUENCIA RELATIVA ACUMULADA

Definimos la frecuencia relativa acumulada (Fi) de un valor Xi como la proporción


de valores iguales o menores a Xi en el conjunto de datos (X1, X2,…, XN). Es
decir, la frecuencia relativa acumulada es la frecuencia absoluta acumulada
dividida por el número total de sujetos N:

𝑁𝑖
𝐹𝑖 = (5)
𝑁
Siendo (X1, X2,…, XN) el conjunto de datos y Ni el total de valores igual o menor
a Xi. La frecuencia relativa acumulada de cada valor siempre es mayor que la
frecuencia relativa. De hecho, la frecuencia relativa acumulada de un elemento
es la suma de las frecuencias relativas de los elementos menores o iguales a él,
es decir:

Fi = f1 + f2 +. . . +fi (6)

2.3.6 HISTOGRAMA DE FRECUENCIA


Ilustración 2 Histograma de Frecuencias
Son diagramas de barras verticales en los que se construyen barras
rectangulares en los límites de cada clase. La variable aleatoria o fenómeno de
interés se despliega a lo largo del eje horizontal; el eje vertical representa el
número, proporción o porcentaje de observaciones por intervalo de clase,
dependiendo de si el histograma particular, es un histograma de frecuencia, un
histograma de frecuencia relativa o histograma de porcentaje. Guerra Bustillo.
Estadística (1987).

2.4 ESTIMADORES DE CENTRALIZACIÓN.

2.4.1 MEDIA ARITMETICA.


𝑥
𝑥̅ = ∑𝑛(𝑖+1) 𝑛𝑖 (7)

∑(𝑋𝐼 𝑓𝑖 )
𝑥̅ = ∑ 𝑓𝑖
(8)

La media aritmética es la suma de todos los datos dividida entre el número total
de datos. Se calculan dependiendo de cómo vengan ordenados los datos.
(Martinez, 2003)

2.4.2 MODA.
𝑴 = (𝒅𝒂𝒕𝒐 𝒒𝒖𝒆 𝒎𝒂𝒔 𝒔𝒆 𝒓𝒆𝒑𝒊𝒕𝒆) (9)

La moda de un conjunto de datos es el dato que más veces se repite, es decir,


aquel que tiene mayor frecuencia absoluta. Se denota por Mo. En caso de existir
dos valores de la variable que tengan la mayor frecuencia absoluta, habría dos
modas. Si no se repite ningún valor, no existe moda. (Navidi, 2006)
2.4.3 MEDIANA ( 𝒙̃ ).
𝑋(𝑛+1) (10)
2

𝑋(𝑖+1) +𝑋(𝑖 −1)


𝑥̃ = 𝑥(𝑖) = (11)
2

La mediana o valor mediano será el valor de la variable que separa en dos grupos
los valores de las variables, ordenadas de menor a mayor. Por tanto, es una
cantidad que nos indica orden dentro de la ordenación.
𝑛
El lugar que ocupa se determina dividiendo el N.º de valores entre 2: 2

Cuando hay un número impar de valores de la variable, la mediana será justo el


valor de orden central, aquel cuya frecuencia absoluta acumulada coincida con
𝑛
2
.
𝑛
Es decir: 𝑁𝑖−1 < ≤ 𝑁𝑖 ⟹ 𝑀𝑒(𝑥̃ ) = 𝑥𝑖 Por tanto la mediana coincide con un valor
2

de la variable. (Ramos, 2015)

2.5 ESTIMADORES DE DISPERCIÓN.

2.5.1 VARIANZA.
1
𝑆 2 = 𝑛−1 ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2 (12)

∑ 𝑋𝑖 2 𝑓𝑖
𝑆2 = ∑ 𝑓𝑖
− (𝑥̅ )2 (13)

Medida de la variación de una serie de observaciones respecto de la media.


Equivale a la dispersión respecto de la media en una serie de datos continuos.
∑(𝑋𝑖−𝑥̅ )2
Su cálculo corresponde a si corresponde a la población total o sigma
𝑛
(𝑋𝑖−𝑥̅ )2
(𝑛−1)
si corresponde a una muestra de esa población, siendo X la media, n el

tamaño de la población o de la muestra y xi cada uno de los valores. (Devore,


1998)

2.5.2 DESVIACIÓN ESTÁNDAR (O DESVIACIÓN TÍPICA).


𝑆 = √𝑆 2 (14)

Es una medida de dispersión para variables de razón (ratio o cociente) y de


intervalo, de gran utilidad en la estadística descriptiva. Es una medida
(cuadrática) que informa de la media de distancias que tienen los datos respecto
de su media aritmética, expresada en las mismas unidades que la variable.
(Devore, 1998)

2.5.3 COEFICIENTE DE VARIACIÓN.

𝑆
𝐶𝑉 = (15)
𝑥̅

Medida de la dispersión de una distribución de frecuencias respecto de su media.


Equivale a la raíz cuadrada de la varianza. Se expresa como s si corresponde a
una muestra de la población. (Devore, 1998)

2.6 ESTIMADORES DE POSICIÓN.

2.6.1 DIAGRAMA DE CAJAS


Ilustración 3 Diagrama de cajas

Diagrama de caja es un tipo de gráfico que nos permite interpretar los datos para
las variables, a través de cuál podemos observar cuartiles, valores mínimo y
máximo, mediana y los valores atípicos. (Chirstensen, 1983)

2.6.2 RANGO INTERCUANTIL


Es una estimación estadística de la dispersión de una distribución de datos.
Consiste en la diferencia entre el tercer y el primer cuartil.
En estadística descriptiva, se le llama rango intercuartílico o rango intercuartil, a
la diferencia entre el tercer y el primer cuartil de una distribución. Es una medida
de la dispersión estadística. A diferencia del rango, se trata de un estadístico
robusto. (Myers, 1974)

2.6.3 SESGO O SIMETRÍA

Ilustración 4 Sesgo o simetría


Es una medida de forma de una distribución que permite identificar y describir la
manera como los datos tiende a reunirse de acuerdo con la frecuencia con que
se hallen dentro de la distribución. Permite identificar las características de la
distribución de datos sin necesidad de generar el gráfico. (Canavos, 1987)

2.6.4 PERCENTIL.
(𝑛+1)𝑖
𝑃(𝑖) = 𝑋( 100
) (16)

Los percentiles son los 99 valores que dividen la serie de datos en 100 partes
iguales. Los percentiles dan los valores correspondientes al 1%, al 2%... y al 99%
de los datos. (Mendenhall, 2002)

• P50 coincide con la mediana.


• P50 coincide con D5.

2.6.5 CUARTIL.
𝑄2 = 𝑃(50) (17)

Cuartiles (Qi) Son valores de la variable que dividen a la distribución en 4 partes,


cada una de las cuales engloba el 25 % de las mismas. Se denotan de la
siguiente forma: Q1 es el primer cuartil que deja a su izquierda el 25 % de los
datos; Q2 es el segundo cuartil que deja a su izquierda el 50% de los datos, y
Q3 es el tercer cuartil que deja a su izquierda el 75% de los datos. (Q2 = Me).
(Muñoz, 2004)

Hallar la posición: 𝑋(𝑖) = 𝑋(𝑖,𝑎) = 𝑋(𝑖) + 0, 𝑎(𝑋(𝑖+1) − 𝑋(𝑖 ) ) (18)

2.7 ESTIMADORES DE FORMA.

2.7.1 SESGO O SIMETRÍA, COEFICIENTE DE ASIMETRÍA.

• As < 0; Asimétrica hacia la izquierda


• As = 0; Simétrica
• As > 0; Asimétrica hacia la derecha

∑ 𝑋𝑖 3
𝐴𝑠 = (19)
𝑛. 𝑆𝑥 3

Se da cuando en una distribución se distribuyen aproximadamente la misma


cantidad de los datos a ambos lados de la media aritmética. No tiene
alargamiento o sesgo. Se representa por una curva normal en forma de campana
llamada campana de Gauss (matemático alemán 1777-1855) o también
conocida como de Laplace (1749-1827). También se dice que una distribución
es simétrica cuando su media aritmética, su mediana y su moda son iguales, en
símbolos 𝑥̅ (𝑀𝑒) = 𝑀𝑜. (Chirstensen, 1983)

2.7.2 CURTOSIS.

∑ 𝑋𝑖4
𝐶𝑟 = − 3 (20)
𝑛. 𝑆𝑥 4

El Coeficiente de Curtosis analiza el grado de concentración que presentan los


valores alrededor de la zona central de la distribución.

Se definen 3 tipos de distribuciones según su grado de curtosis:

− Distribución mesocúrtica (Cr = 0): presenta un grado de concentración


medio alrededor de los valores centrales de la variable (el mismo que
presenta una distribución normal).
− Distribución leptocúrtica (Cr > 0): presenta un elevado grado de
concentración alrededor de los valores centrales de la variable.
− Distribución platicúrtica (Cr <0): presenta un reducido grado de
concentración alrededor de los valores centrales de la variable. (Jeff
Rosenthal, 2005)

2.8 TÉCNICAS DE CONTEO

2.8.1 Teoría de Conjuntos

La Teoría de Conjuntos es una teoría matemática, que estudia básicamente a un


cierto tipo de objetos llamados conjuntos y algunas veces, a otros objetos
denominados no conjuntos, así como a los problemas relacionados con estos.
Los fenómenos aleatorios, por el contrario, son aquellos que se obtienen de
experimentos realizados, otra vez, bajo las mismas condiciones determinadas,
pero como resultado posible poseen un conjunto de alternativas, por ejemplo, el
lanzamiento de un dado o de una moneda. (Lipschutz, 2000)

2.8.2 Regla de multiplicación

Si se desea realizar una actividad que consta de r pasos, en donde el primer


paso de la actividad a realizar puede ser llevado a cabo de N1 maneras o formas,
el segundo paso de N2 maneras o formas y el k-ésimo paso de Nk maneras o
formas, entonces esta actividad puede ser llevada a efecto de;

N1 x N2 x ..........x Nk maneras o formas (21)

El principio multiplicativo implica que cada uno de los pasos de la actividad deben
ser llevados a efecto, uno tras otro. (Lipschutz, 2000)

2.8.3 Combinaciones

Es un arreglo de elementos en donde no nos interesa el lugar o posición que


ocupan los mismos dentro del arreglo. En una combinación nos interesa formar
grupos y el contenido de los mismos. (Wilhelmi, 2004)

La fórmula para determinar el número de combinaciones es:

𝑛!
nCk= (22)
(𝑛−𝑘)!𝑘!

2.8.4 Permutaciones

Una permutación es una combinación ordenada.

Hay dos tipos de permutaciones:

1. Se permite repetir: como la cerradura de arriba, podría ser "333".


2. Sin repetición: por ejemplo, los tres primeros en una carrera. No puedes
quedar primero y segundo a la vez.

1. Permutaciones con repetición


Son las más fáciles de calcular. Si tienes n cosas para elegir y eliges r de ellas,
las permutaciones posibles son:

n × n × ... (r veces) = nr (23)

(Porque hay n posibilidades para la primera elección, DESPUÉS hay n


posibilidades para la segunda elección, y así.)

Por ejemplo en la cerradura de arriba, hay 10 números para elegir (0,1,...,9) y


eliges 3 de ellos:

10 × 10 × ... (3 veces) = 103 = 1000 permutaciones

Así que la fórmula es simplemente: nr

donde n es el número de cosas que puedes elegir, y eliges r de ellas (Se puede
repetir, el orden importa). (Lipschutz, 2000)

2. Permutaciones sin repetición

En este caso, se reduce el número de opciones en cada paso. Por ejemplo,


¿cómo podrías ordenar 16 bolas de billar? Después de elegir por ejemplo la "14"
no puedes elegirla otra vez. Así que tu primera elección tiene 16 posibilidades, y
tu siguiente elección tiene 15 posibilidades, después 14, 13, etc. Y el total de
permutaciones sería:

16 × 15 × 14 × 13 ... = 20,922,789,888,000

La fórmula se escribe:

𝑛!
nPr= (24)
(𝑛−𝑟 )!

2.9 EXPERIMENTO Y ESPACIO MUESTRAL

2.9.1 Experimento

Conjunto de acciones por las que utilizando procedimiento claramente obtenido


se efectúa un tipo de observación medida.

2.9.2 Espacio muestral del experimento


Se denomina así a un par ordenado (Ω, L) donde omega(Ω) es el conjunto de
todos los resultados posibles del experimento y “L” es conjunto potencia de
omega(Ω), esto es, L es el conjunto de todos los conjuntos de Ω y a este se le
denomina espacios de elementos. (Pliego, 1998)

2n (25)

2.9.3 Eventos

Para cualquier experimento dado podemos enfocarnos en la ocurrencia de


ciertos eventos, más que en el resultado de un elemento especifico en el espacio
muestral.

Un evento es un subconjunto de un espacio muestral.

El complemento de un evento A respecto de S es el subconjunto de todos los


elementos de S que no están en A. Denotamos el complemento de A mediante
el símbolo A'. (Rosenthal, 2005)Ejemplo:

Experimento: lanzamos 3 monedas definir el conjunto del espacio muestral

2n = 2(3)=8

Ω= { (CCC),(CCS),(CSS),(CSC),(SCC),(SSC),(SSS),(SCS)}

2.10 FUNCIÓN DE PROBABILIDAD

P= Una función de probabilidad cuyo dominio es L y cuyo conjunto de llegada es


el intervalo cerrado de números reales de 0 a 1, es una función de
probabilidades, es decir:

𝑷: 𝑳 ↷ [𝟎, 𝟏]

Propiedades

Si solo se cumple:

1. La P(Ω) =1
2. La probabilidad del evento debe estar: 0 ≤ 𝑃 (𝐸) ≤ 1∀𝐸 ∈ 𝐿

𝑵(𝑬)
𝐏(𝐄) = 𝑵(Ω)(26)
• Ley de complemento
𝑷(𝑬) = 𝟏 − 𝑷(𝑬𝒗𝒆𝒏𝒕𝒐𝑪 )(27)
• Ley adictiva de probabilidad
𝑷(𝑬𝟏 ∪ 𝑬𝟐) = 𝑷(𝑬𝟏) + 𝑷(𝑬𝟐) − 𝑷(𝑬𝟏 ∩ 𝑬𝟐)(28)
• Probabilidad condicional
es la probabilidad de que ocurra un evento A, sabiendo que también
sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se
lee “la probabilidad de A dado B”.
No tiene por qué haber una relación causal o temporal entre A y B. A
puede preceder en el tiempo a B, sucederlo o pueden ocurrir
simultáneamente. A puede causar B, viceversa o pueden no tener relación
causal. Las relaciones causales o temporales son nociones que no
pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o
no dependiendo de la interpretación que se les dé a los eventos. (Ibarrola,
1997)
𝐴∩𝐵
𝑃 (𝐴⁄𝐵) = (29)
𝑃(𝐵)

• Independencia de eventos
o 𝑃 (𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑥𝑃(𝐵) (30)
o 𝑃 (𝐴) = 𝑃 (𝐴|𝐵)(31)
o 𝑃 (𝐵) = 𝑃(𝐵|𝐴)(32)
o 𝑃 (𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑥𝑃(𝐵|𝐴)(33)
o 𝑃 (𝐵 ∩ 𝐴) = 𝑃(𝐵)𝑥𝑃(𝐴|𝐵)(34)
• Probabilidad total
𝑷(𝑨) = 𝑷(𝑨 ∩ 𝑬𝟏) + 𝑷(𝑨 ∩ 𝑬𝟐) + 𝑷(𝑨 ∩ 𝑬𝟑) + 𝑷(𝑨 ∩ 𝑬𝟒)
𝑷(𝑨) = 𝑷(𝑬𝟏) ∗ 𝑷(𝑨|𝑬𝟏) + 𝑷(𝑬𝟐) ∗ 𝑷(𝑨|𝑬𝟐) + 𝑷(𝑬𝟑) ∗ 𝑷(𝑨|𝑬𝟑) + 𝑷(𝑬𝟒) ∗ 𝑷(𝑨|𝑬𝟒) (35)

• Teorema de Bayes

𝑷(𝑬𝟏)∗𝑷(𝑨|𝑬𝟏)
𝑷(𝑬𝟏|𝑨) = (36)
𝑷(𝑨)

𝑷(𝑬𝒊)∗𝑷(𝑨|𝑬𝒊)
𝑷(𝑬𝒊|𝑨) = (37)
𝑷(𝑨)

2.11 Variable aleatoria


Sea (Ω,Y), el espacio muestral de un experimento estadístico y sea X una función
cuyo dominio es Ω, y cuyo conjunto de llegada es R, donde R es el conjunto de
números reales, bajo estas condiciones la función X es una variable aleatoria.

En definitivo su representación como función es 𝑋 = Ω → R; lo cual significa que


a cada ∞ ∈ Ω, la función X le origina uno y solo un número real. (Mode, 1990)

2.12 Variable Aleatoria Discreta


Una variable aleatoria discreta puede tomar un número finito o infinito contable
de valores. Por lo general estas variables se asocian a procesos de contar, por
lo que pueden tomar valores como 0, 1, 2, 3, . . . Por ejemplo: el número de hijos
por familia, la cantidad de bacterias por unidad de área en un alimento, los años
de vida de un ser humano, etcétera. (Sanchez, 2014)

2.13 Soporte de una Variable Aleatoria.


El soporte de una variable aleatoria es el conjunto de los valores reales que
ocurren con probabilidad distinta de cero.

El soporte de la variable X igual al número de monedas en las que sale “cara” en


la parte superior de un lanzamiento de 3 monedas sería S = {0,1,2,3}. Una
variable aleatoria es discreta si su soporte S es un conjunto contable.

2.14 Distribución Acumulada de una variable aleatoria.


Función que acumula probabilidades asociadas a una variable aleatoria. Su
notación es F(x) = P(x ≤ x). (38)

2.15 Media y Varianza de una Variable Aleatoria Discreta.

2.15.1 Media
La media de una variable aleatoria X con distribución de probabilidades
P(X = x) se define como:

μ = E[x] (39)

2.15.2 Varianza

La varianza de una variable aleatoria x con distribución de probabilidades


P(X = x) se define como:
σ2 = E[(x − μ)2 ] = E[x 2 ] − μ2 (40)

2.16. Función de distribución de probabilidades.

La función de distribución describe el comportamiento probabilístico de una


variable aleatoria X asociada a un experimento aleatorio y se representa como:
F(x) ó Fx . (Devore, 1998)

Sea X una variable aleatoria discreta asociada a un espacio probabilístico, se


define la función de distribución:

F(x): R → [0,1] que verifica F(x) = P[X ≤ X] = ∑xi<x Pi (41)

Esta función debe de cumplir las siguientes condiciones:

X=x
1.) 0 ≤ P ( ) ≤ 1 (42)

2.) ∑x∈S P(X = x) = 1 (43)

2.17. Valores Esperados.


Si 𝑥 es una variable aleatoria cualquier función de ella, ℎ(𝑥) es también una
variable aleatoria, en consecuencia, también se define este parámetro para una
función de variable aleatoria. (Mendenhall, 2002)
Sea 𝑥 una variable aleatoria con distribución de probabilidad de 𝑃(𝑋 = 𝑥) y 𝑔(𝑥)
una función en términos de 𝑥. El valor esperado de 𝑔(𝑥) si existe se define como:
𝐸 [𝑔(𝑥 )] = ∑𝑥∈𝑆 𝑔(𝑥 ) 𝑃(𝑋 = 𝑥 ) (44)

Propiedades:

• Valor esperado de una constante. 𝐸 [𝑐 ] = 𝑐 (45)

• Valor esperado de una constante por una función. 𝐸 [𝑐 . 𝑔(𝑥)] =


𝐸 [𝑐 ] . 𝐸[𝑔(𝑥 )] (46)
• Valor esperado de la suma de 2 funciones. 𝐸 [𝑔1 (𝑥 ) + 𝑔2 (𝑥)] =
𝐸 [𝑔1 (𝑥 )] + 𝐸[𝑔2 (𝑥)](47)

2.18. Experimento Binomial.


Muchos experimentos aleatorios pueden generar uno de dos resultados
posibles; por ejemplo, en el lanzamiento de una moneda puede resultar águila o
sol, cada artículo que sale de una línea de producción puede ser defectuoso o
no, una persona al hacerse un estudio puede estar enferma o sana, al presentar
un examen un estudiante puede acreditar o reprobar, cada persona entrevistada
sobre una elección puede estar a favor o en contra de cierto candidato. A éstos
se les conoce como experimentos binominales. En cada una de las situaciones
anteriores seleccionamos una muestra de n objetos de una población finita y
verificamos si cada objeto seleccionado posee una característica de interés (por
ejemplo, cae águila, está defectuoso, se encuentra enferma, aprueba el examen,
está a favor del candidato), entonces contamos el total de objetos muestreados
que poseen la característica en la muestra seleccionada y este número lo
representamos mediante X ; nos interesa conocer la probabilidad de que asuma
un determinado valor, es decir, 𝑃(𝑋 = 5). (Rosenthal, 2005)

Características de un experimento binomial.

1. El experimento consta de n pruebas o repeticiones idénticas.

2. Cada prueba tiene dos resultados posibles: uno denominado éxito (𝐸) y el otro
fracaso (𝐹)

3. La probabilidad de éxito en una sola prueba es (𝑝) y la probabilidad de fracaso


es su complemento (1 − 𝑝) = 𝑞. (48)

4. Las pruebas son independientes, es decir, el resultado de una no influye en el


resultado de la otra. La variable aleatoria de interés (𝑥), es el número y
proporción de éxitos observados en las n pruebas. (Sanchez, 2014)

2.19 Distribución Binomial.

Toma en cuenta los casos que se esté analizando que ocurra un éxito o un
fracaso. Si se cumplen todas las condiciones señaladas decimos que (𝑋) tiene
distribución binomial de probabilidad, con parámetros (𝑛 𝑦 𝑃). Su fórmula es:
𝑃(𝑋 = 𝑥 ) = (𝑛𝑥) 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥 (49)

• Media • Varianza
𝜇 = 𝑛 . 𝑝 (50) 𝜎 2 = 𝑛 . 𝑝 (1 − 𝑝)(51)

2.20 Distribución Binomial Negativa.


Sea (𝑋) definida como el número de fracaso antes del r-ésimo éxito en sucesivas
realizaciones de un experimento Bernoulli independientes con igual probabilidad,
se dirá que sigue una distribución binomial negativa. La distribución geométrica
es un caso particular de binomial negativa cuando 𝑟 = 1, donde 𝑟 es una
característica de 𝑛. La variable aleatoria (𝑋) toma los valores (𝑘 = 0,1, 2,3 … . ).
(Canavos, 1987) Su fórmula es:

𝑃 (𝑋 = 𝑥 ) = (𝑥−1
𝑟−1
) 𝑝𝑟 (1 − 𝑝)𝑥−𝑟 (52)

• Media
𝑟
𝜇=𝑝 (53)

• Varianza
𝑟 (1−𝑝)
𝜎2 = (54)
𝑃2

2.21. Distribución Geométrica.


Una variable aleatoria (𝑋) definida como el número de fracasos antes de obtener
el primer éxito en sucesivas realizaciones de experimentos Bernoulli
independientes y con idénticas probabilidades de éxito se dirá que sigue una
distribución geométrica. Dicha variable toma los valores de (𝑘 = 0,1, 2,3 … . ).
(González, 2003)

Su fórmula es: Si 𝑟 = 1

𝑃(𝑋 = 𝑥 ) = 𝑝(1 − 𝑝)𝑥−1 (55)

Propiedad.

Sea (𝑋)~𝐺𝑒(𝑃), para cuales quiera 𝑛 𝑦 𝑚 se verifica que:


𝑃(𝑋 > 𝑚 + 𝑛 ∕ 𝑋 > 𝑚 = 𝑃(𝑋 ≥ 𝑛) (56)

Recíprocamente, si (𝑋) es una variable aleatoria que toma valores no


negativos cumple que:

𝑃(𝑋 > 𝑚 + 𝑛 ∕ 𝑋 > 𝑚 = 𝑃(𝑋 ≥ 𝑛) (57)

Para todo 𝑛 𝑦 𝑚, entonces se tiene que (𝑋) se distribuye según una distribución
geométrica. Esta propiedad se conoce como Pérdida de Memoria.

• Media • Varianza
1 1−𝑝
𝜇 = 𝑝(58) 𝜎2 = (59)
𝑃2

2.22. Distribución Hipergeometrica.


Dada una urna compuesta por 𝑁1 bolas blancas y 𝑁2 negras, de la que se
extraen 𝑛 bolas sin reemplazamiento ¿Cuál es la probabilidad de que haya 𝑟
bolas blancas y 𝑛 − 𝑟 bolas negras entre las 𝑛 bolas extraída?

Utilizando números combinatorios, esta probabilidad vale:

(𝑁1
𝑟
𝑁2
)(𝑛−𝑟 )
(𝑁1+𝑁2
𝑛
)

En esta situación, la distribución de la variable aleatoria definida como número


de bolas blancas 𝑟 en una extracción de 𝑛 bolas de una urna se le denomina
distribución hipergeometrica. (Sanchez, 2014)

Dicha variable toma los valores de 𝑟 = 0, 1, … , 𝑚í𝑛{𝑛, 𝑁1} con probabilidad:


(𝑎 𝑁−𝑎
𝑥)( 𝑛−𝑥 )
𝑃 (𝑋 = 𝑥 ) = (60)
(𝑁
𝑛)

Donde 𝑥 = 0, 1, 2, … ∈ ℝ

𝑎 → 𝐶𝑎𝑟𝑎𝑐𝑡𝑒𝑟í𝑠𝑡𝑖𝑐𝑎 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛

𝑁 → 𝑃𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛

𝑛 → 𝑀𝑢𝑒𝑠𝑡𝑟𝑎
• Media
𝑎𝑛
𝜇= (81)
𝑁

• Varianza
𝑎𝑛
𝜎2 = (𝑛−𝑎
𝑁
)(𝑁−𝑛 )
𝑁−1 (82)
𝑁

2.23. Distribución de Poisson.


La distribución de Poisson se obtiene como límite de la binomial cuando el
número de veces que se realiza un experimento, 𝑛, tiene a infinito, la probabilidad
de éxito, 𝑝, tiende a cero y el número medio de éxitos, 𝑛𝑝 , se estabiliza alrededor
de un número, 𝜆, que será la media y el valor que caracteriza a la distribución.
Calculando dicho limite se obtiene:
ℯ −𝜆 𝜆𝑥
𝑃 (𝑋 = 𝑥 ) = (83) 𝛺 = {0, 1, 2, … }
𝑥!

La distribución, que se denota 𝑃(𝜆), aparece, históricamente, al considerar el


número de llamadas telefónicas realizadas por unidad de tiempo en un mismo
teléfono, siendo (𝜆), el número medio de llamadas. Además, se puede observar
que en la distribución de Poisson la mayor parte de la masa de probabilidad
queda repartida entre un numero relativamente pequeño de valores, siendo
posible que tome otros valores, pero con una probabilidad bastante pequeña.
Por ellos a la distribución de Poisson se le llama distribución de sucesos raros.
Poisson trabaja con cálculos de tiempo y dimensiones.(Pliego, 1998)

• Media
𝜇 = 𝜆 (84)

• Varianza
𝜎2 = 𝜆 (85)
2.24. Variable Aleatoria Continua.
La variable aleatoria (𝑋) será continua si los valores asignados pueden ser
cualesquiera, dentro de ciertos intervalos, es decir, puede tomar cualquier valor de 𝑹.
Por ejemplo, si consideramos el experimento aleatorio consistente en medir el nivel de
agua en un embalse y tomamos la variable aleatoria “(𝑋 = 𝑛𝑖𝑣𝑒𝑙 𝑑𝑒𝑙 𝑎𝑔𝑢𝑎)”, esta
puede tomar valores entre 0 y más infinito”. (Devore, 1998)

2.25. Distribución de Probabilidades Continuas.

Sea 𝑋 una variable aleatoria continua con función de densidad 𝑓(𝑥) se define la
función de distribución, 𝐹(𝑥) como:

𝐹 (𝑥 ) = 𝑃[𝑥 ≤ 𝑋] = ∫−∞ 𝑓(𝑥) 𝑑𝑥 (86)

La función de distribución para una variable continua siempre verifica las


siguientes propiedades:

A) 𝐹 (𝑥 ) ≥ 0

B) ∫−∞ 𝑓 (𝑥 )𝑑𝑥 = 1
𝑏
C) 𝑃[𝑎 ≤ 𝑥 ≤ 𝑏] = ∫𝑎 𝑓 (𝑥 )𝑑𝑥 = 𝐹 (𝑏) − 𝐹(𝑎) (87)

D)𝑓(𝑥 ) = 𝐹 ′(𝑥 ) ⇒ 𝐿𝑎 𝑓𝑢𝑛𝑐𝑖ó𝑛 𝑑𝑒 𝑑𝑒𝑛𝑠𝑖𝑑𝑎𝑑 𝑒𝑠 𝑙𝑎 𝑑𝑒𝑟𝑖𝑣𝑎𝑑𝑎 𝑑𝑒 𝑙𝑎 𝑓𝑢𝑛𝑐𝑖ó𝑛 𝑑𝑒 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛

2.26. Distribución Acumulada.


Sea 𝑋 una variable aleatoria continua con función de densidad 𝑓(𝑥), la
distribución acumulada de 𝑋 se define como:

𝐹 (𝑥 ) = 𝑃(𝑋 ≤ 𝑥 ) = ∫−∞ 𝑓(𝑡) 𝑑𝑡 (88)

Notemos que 𝐹 ′(𝑥 ) = 𝑓(𝑥)

Propiedades.

1.) 𝑙𝑖𝑚 𝐹(𝑥) = 0


𝑥→∞−

2.) 𝑙𝑖𝑚 𝐹(𝑥) = 1


𝑥→∞+

3.) 𝐹 (𝑥 ) 𝑒𝑠 𝑐𝑟𝑒𝑐𝑖𝑒𝑛𝑡𝑒
4.) 𝐹 (𝑥 ) 𝑒𝑠 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎.
2.27. Valores Esperados para variable aleatoria continua.

Sea 𝑋 una variable aleatoria continua, con función de densidad 𝑓 (𝑥 )𝑦 𝑔(𝑥) una
función en términos de 𝑋. El valor esperado de 𝑔(𝑥) si existe, se define como:

𝐸 [𝑔(𝑥 )] = ∫∞− 𝑔(𝑥 ) 𝑓 (𝑥 ) 𝑑𝑥 (89)

Propiedades.

1.) 𝐸[𝑐 ] = 𝑐 (90)


2.) 𝐸[𝑐 𝑔(𝑥 )] = 𝑐 𝐸[𝑔(𝑥 )] (91)
3.) 𝐸[ 𝑔1(𝑥) + 𝑔2 (𝑥 )] = 𝐸[𝑔1 (𝑥 )] + 𝐸[𝑔2 (𝑥 )] (92)

2.28. Media y Varianza de una Variable Aleatoria Continua.

2.28.1. Media.
La media de una variable aleatoria continua 𝑥 con función de densidad 𝑓(𝑥) se
define como:

𝜇 = 𝐸[𝑥] (93)

2.28.2. Varianza.

La varianza de una variable aleatoria continua x con función de densidad f(x)


se define como:

σ2 = E[(x − μ)2 ] = E[x 2 ] − μ2 (94)

2.29. Distribución Uniforme Continua.


Es aquella que toma con igual probabilidad valores dentro de dos conjuntos
cualesquiera de igual amplitud e incluidos en el intervalo de valores posibles de
la variable. La variable X sigue una distribución uniforme o rectangular en el
intervalo (α, β) cuando su función de densidad viene dada de la siguiente forma:
(Rosenthal, 2005)
1
; α ≤ x ≤ β ; α, β ∈ ℝ
α−β
f(x) = (95)

{ 0 ; si no
• Media
β 1 β+α
μ = E[x] = ∫α dx → μ = (96)
β−α 2
• Varianza
σ2 = E[x 2 ] − μ2
β 1 (β+α)2
E[x 2 ] = ∫α x 2 dx → σ2 = (97)
β−α 12

2.30. Distribución Exponencial.

Se dice que una variable aleatoria continua X tiene una distribución exponencial
con parámetros β > 0, donde β es un valor numérico, entonces su función de
densidad está dada de la siguiente manera:
1 −x⁄β
e ;x ≥ 0
β
f(x) = (98)

{ 0 ; si no

• Media
μ=β (99)

• Varianza
σ2 = β2 (100)

Você também pode gostar