Você está na página 1de 23

Uneversidad de España y Mexico

Maestria en administración de negocios

Sexto modulo:
Modelos cuantitativos

Tema: Probabilidad aplicada a los negocios

Integrantes :
• Marco Antonio Delgadillo
• Karla Arellano
• Jose Jonathan Flores
• Sanchez Pacheco Javier
• Diego Toledo
Probabilidad aplicada a los negocios

No se puede gestionar lo que no se mide. Las mediciones son la clave. Si usted no


puede medirlo, no puede controlarlo. Si no puede controlarlo, no puede gestionarlo.
Si no puede gestionarlo, no puede mejorarlo. La falta sistemática o ausencia
estructural de estadísticas en las organizaciones impide una administración científica
de las mismas.
Dirigir sólo en base a datos financieros del pasado, realizar predicciones basadas más
en la intuición o en simples extrapolaciones, y tomar decisiones desconociendo las
probabilidades de éxito u ocurrencia, son sólo algunos de los problemas o
inconvenientes más comunes hallados en las empresas.
Carecer de datos estadísticos en cuanto a lo que acontece tanto interna como
externamente, impide decidir sobre bases racionales, y adoptar las medidas
preventivas y correctivas con el suficiente tiempo para evitar daños, en muchos casos
irreparables, para la organización.
Pero hoy se cuenta con computadoras cada día más veloces y económicas, al tiempo que se
dispone de programas más potentes y flexibles, por lo cual las empresas que utilicen dicho
potencial obtendrán una fuerte diferencia competitiva en relación a sus adversarios, pero más
aún podrán mejorar continuamente la performance en los diversos ratios y mediciones que
hacen a los procesos y actividades de la empresa.
Las empresas que no hagan uso de estas nuevas potencialidades y afronten debidamente
éstas nuevas exigencias, no sólo perderán capacidad competitiva, sino que quedarán
desacoplados ante los continuos cambios del entorno, poniendo en serio riesgo su propia
continuidad.
En otras épocas con lentos procesos de cambios, los cuales resultaban casi imperceptibles en
el tiempo, se podía administrar una empresa con pocos datos estadísticos. Hoy en un mundo
de profundos y veloces cambios en todos los órdenes ya no es posible actuar con displicencia.
Hoy un empresario necesita predecir a tiempo los niveles de demanda de sus productos,
necesita reconocer a tiempo los cambios de tendencia, debe no sólo saber en qué se gasto,
sino como se gasto en el tiempo y en que conceptos.
Para negociar, para tomar decisiones, para corregir problemas de calidad, para aumentar la
productividad, para fijar precios, para mejorar el mantenimiento y disponibilidad de las
máquinas e instalaciones, para mejorar la concesión y cobranza de los créditos se requiere sí o
Distribución probabilística binomial

Distribución binomial La distribución binomial aparece cuando estamos


interesados en el número de veces que un suceso A ocurre (éxitos) en n
intentos independientes de un experimento. P. ej.: # de caras en n
lanzamientos de una moneda.

Si A tiene probabilidad “p” (probabilidad de éxito) en un intento, entonces


1-p es la probabilidad de que A no ocurra (probabilidad de fracaso).
Experimento aleatorio: n = 3 lanzamientos de una moneda. Probabilidad
de éxito en cada lanzamiento (cara) = p. Probabilidad de fracaso en cada
lanzamiento (cruz) = 1- p = q.
Supongamos que el experimento consta de n intentos y definamos la variable
aleatoria:
X = Número de veces que ocurre A.

En nuestro ejemplo:
X = Número de veces que sale cara.

Entonces X puede tomar los valores 0, 1, 2, ... n. Si consideramos uno de estos


valores, digamos el valor x , i.e. en x de los n intentos ocurre A y en n - x no.
Entonces la probabilidad de cada posible ordenación es 𝑝 𝑥 ∗ 𝑞𝑛−𝑥 y existen
𝑛
idénticas ordenaciones.
𝑥
La función de probabilidad P(X = x) será la distribución binomial:

Distribución binomial para n = 5 y


distintos valores de p, B(5, p)
Distribución de Bernoulli

Experimento de Bernoulli: Solo son posibles dos resultados: éxito o


fracaso. Podemos definir una variable aleatoria discreta X tal que:

éxito → 1 fracaso → 0

Si la probabilidad de éxito es “p” y la de fracaso 1 - p, podemos


construir una función de probabilidad:
Un típico experimento de Bernoulli es el lanzamiento de una moneda
con probabilidad p para cara y (1-p) para cruz.
Muestreo de aceptación
El muestreo de aceptación es un componente principal de control
de calidad y es útil cuando el costo de la prueba es alto
comparado con el costo de pasar un elemento defectuoso o
cuando la prueba destruye la muestra. Es un compromiso entre
realizar el 100% de la inspección y no inspeccionar. En particular,
en casos en que se desconoce la calidad del proceso de un
proveedor, un muestreo de aceptación podría ser una buena
opción en lugar de una inspección de 100% de los elementos. El
muestreo de aceptación se puede realizar en atributos o
mediciones del producto.
Puede utilizar el muestreo de aceptación para desarrollar planes
de inspección que le permitan aceptar o rechazar un lote en
particular de material entrante con base en los datos de una
muestra representativa.
Ejemplo de plan de muestreo de aceptación por
atributos
Por ejemplo, usted recibe un envío de 10,000 microchips. Usted
no puede o no desea inspeccionar todo el envío. Un plan de
muestreo por atributos le permite determinar cuántos
microchips necesita examinar (tamaño de la muestra) y cuántos
defectos son permitidos en esa muestra (número de aceptación).
En este caso, supongamos que el nivel de calidad aceptable
(AQL) es de 1.5% y el nivel de calidad rechazable (RQL) es de
5.0% y que alfa = 0.05 y beta = 0.1. Se genera un plan de
muestreo que indica que usted debe inspeccionar 209 chips. Si 6
o menos de los 206 microchips inspeccionados están
defectuosos, se aceptará todo el envío. Si 7 o más están
defectuosos, se rechazará todo el envío.
Naturaleza de la distribución normal

Al hacer mediciones de cualquier tipo y distribuir nuestros resultados


bajo algún criterio, es muy común encontrar que los datos se agrupen
de manera muy característica. En muchos de estos casos veremos que
dichas distribuciones siguen una forma muy particular en la que
tenemos un mayor número de observaciones para cierto valor,
disminuyendo la cantidad de observaciones a ambos lados de la
observación más frecuente.
Un ejemplo es al dejar caer canicas por entre una serie clavos como
lo muestra la figura, al final del experimento con muchas canicas
tendremos que las canicas se han agrupado como se ve en la figura
A este tipo de distribución se le conoce como Distribución Gaussiana ,
ya que el matemático alemán Karl F. Gauss (1799-1830) fue quien la
describió de manera analítica. La función es parecida a la de una
campana, por eso también se conoce como “campana de Gauss”.
Los parámetros que caracterizan esta distribución son su media (µ) y su
desviación estándar (σ) que es una medida de qué tan ancha es la
curva.
Es tan común encontrar esta distribución en tan diversas ramas del
conocimiento, que también se le da el nombre de Distribución Normal .
La aportación de Gauss se honraba en los billetes de los marcos
alemanes (antes de los Euros) como uno de sus descubrimientos más
trascendentales.
La distribución Gaussiana se aplica a una gran gama de observaciones
en ramas como la biología, la geografía, la astronomía y por supuesto la
economía. Muchos ejemplos de la naturaleza se pueden aproximar con
una distribución normal. En general esto se puede pensar como
resultado de la interacción de muchos (o un gran número) efectos
aleatorios en la variable que se estudia.
Por ejemplo, si medimos el tamaño de las hojas de un árbol, veremos
que tienden a distribuirse en forma gaussiana.
La distribucion normal

Una distribución normal también llamada distribución


de ‘campana’, es un tipo específico de distribución
continua. Una distribución normal es simétrica,
exactamente como el perfil de una ‘campana’ y, por lo
tanto, susceptible de propiedades que permiten
sofisticados análisis matemáticos.
Propiedades
Algunas propiedades de la distribución normal son las siguientes:
1. Es simétrica respecto de su media, ;

Distribución de probabilidad alrededor de la media en una distribución N(μ, σ2).


2.La moda y la mediana son ambas iguales a la media, ;
3.Los puntos de inflexión de la curva se dan para y .
4.Distribución de probabilidad en un entorno de la media:

1.en el intervalo se encuentra comprendida, aproximadamente, el 68,26% de


la distribución;

2.en el intervalo se encuentra, aproximadamente, el 95,44% de la


distribución;

3.por su parte, en el intervalo se encuentra comprendida, aproximadamente,


el 99,74% de la distribución. Estas propiedades son de gran utilidad para el
establecimiento de intervalos de confianza. Por otra parte, el hecho de que
prácticamente la totalidad de la distribución se encuentre a tres desviaciones
típicas de la media justifica los límites de las tablas empleadas habitualmente
en la normal estándar.
5.Si “e”rocamente, si dos variables aleatorias independientes tienen una suma
normalmente distribuida, deben ser normales (Teorema de Crámer).
•Su diferencia está normalmente distribuida con .
•Si las varianzas de X e Y son iguales, entonces U y V son independientes
entre sí.
•La divergencia de Kullback-Leibler,
6 Si e son variables aleatorias independientes normalmente
distribuidas, entonces:
•Su producto sigue una distribución con densidad dada por
donde es una función de Bessel modificada de segundo tipo.
•Su cociente sigue una distribución de Cauchy con . De este modo la
distribución de Cauchy es un tipo especial de distribución cociente.

7.Si son variables normales estándar independientes, entonces sigue


una distribución χ²con n grados de libertad.

8.Si son variables normales estándar independientes, entonces la


media muestral y la varianza muestral son independientes. Esta
propiedad caracteriza a las distribuciones normales y contribuye a
explicar por qué el test-F no es robusto respecto a la no-normalidad).
Distribución Normal Estándar o tipificada. Calificación Z. Una de las consecuencias del Teorema del Límite
Central es que dada una población con media µ y para n lo bastante grande, la distribución de la variable.

Es una distribución normal, a esta se le llama la distribución normal estándar o tipificada.


donde:
Xi : es la observación que estamos queriendo analizar
µ : es el valor de la media de la población (puede ser estimada de la muestra)
σ : es el valor de la desviación estándar de la población (puede ser estimada de la muestra si n es muy
grande)

Si nos fijamos en la fórmula el valor de Z es la distancia de la observación a la media en unidades de


desviación estándar, es decir, a cuántas desviaciones estándar está alejada nuestra observación de la media.

Você também pode gostar