Você está na página 1de 16

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN UNIVERSITARIA


CIENCIA Y TECNOLOGÍA
UNIVERSIDAD POLITÉCNICA TERRITORIAL DE PARIA “LUIS MARIANO
RIVERA”
PROGRAMA NACIONAL DE FORMACIÓN EN ADMINISTRACIÓN
SABER: HABILIDADES DIRECTIVAS
CARÚPANO – ESTADO SUCRE

Informe de dirección en valores

Facilitador: Participantes:
Jesús Martínez Tineo Gleidys C.I 26.119.389
Marcano Pastor C.I: 25.622.451
Vizaes Yansi C.I: 25.557.662
Pérez Francimar C.I: 25.098.899
Toussaintt Taisbel C.I: 25.658.933

Sección Nº 319

Marzo, 2017
INTRODUCCIÓN

La estadística es una ciencia formal que estudia la recolección, análisis e interpretación


de datos de una muestra representativa, ya sea para ayudar en la toma de decisiones o para
explicar con elisiones regulares o irregulares de algún fenómeno o estudio aplicado. La
misma puede ser utilizada en varias disciplinas que les sea de gran ayuda a profesionales a
ingeniería, y licenciados de distintas ramas, solo que se presenta de una manera diferente, y
con aplicaciones sencillas dependiendo del caso.

En este trabajo se hace el estudio sobre la distribución bivariante de la probabilidad


conjunta y la distribución marginal que no es más que el resultado de considerar todas las
maneras posibles que se puedan extraer, de una población, el estudio de esta permite
calcular la probabilidad que se tiene, al obtener una sola muestra al hacerse el parámetro de
la población.

Mediante la distribución muestral se entorna el error para un tamaño de muestra dado. El


objetivo de la estadística es saber el área del comportamiento de parámetros poblacionales
tales como: la media, la varianza o la preparación para ello, se extrae una muestra aleatoria
de la población y se realiza el cálculo de un valor estadístico correspondiente.

En cuanto al modelo probabilístico o estadístico, este se trata de tomar un conjunto de datos


que se obtiene atreves de muestras de datos aleatorios, es un tipo de modelo matemático
que usa la probabilidad que incluye un conjunto de asunciones sobre la generación de
algunos datos muéstrales, de manera que se asemejen los datos de una mejor población. Su
aplicación es de gran relevancia ya que permite modelar numerosos fenómenos naturales,
sociales y psicológicos, también es importante por su relación con la estimación por
mínimos cuadrados, siendo uno de sus métodos de estimación más simples y antiguos. En
fin la estadística, la distribución y probabilidades suelen ser campos distintos como sea
todos ellos están relacionados entre sí.
DISTRIBUCIONES BIVARIADAS

Muchos de los fenómenos que aparecen en la naturaleza y en la vida diaria,


involucran diferentes y diversos factores. Cada factor puede ser identificado por medio de
una variable. En éste sentido un fenómeno de interés estará regido por el comportamiento
conjunto de muchas variables.

Si XyY son variables aleatorias (discretas o continuas), la distribución que rige el


comportamiento conjunto de ambas variable se conoce como distribución Bivariable o
Conjunta. Si se tienen más de dos variables le llamaremos distribución multivariable
(Multivariada).

Ejemplo: De un gran lote de impresoras descompuestas se escogen al azar cuatro. Se


clasifica cada impresora según el daño, leve o severo. Sea X el número de impresoras con
daño leve y sea sea Y el número de impresoras con daño severo. Es claro que X ~ bin (4 ,
p), x = 0, 1, 2, 3, 4 y

De manera natural el espacio de las variables aleatorias X e Y estará conformado por el


conjunto de pares (x,y) tal que x + y=4

El par ( x , y ) será llamado vector aleatorio.

Caso discreto: Sean X e Y variables aleatorias. La distribución de probabilidad conjunta de


X e Y, la cual denotaremos fxy, está dada por fxy ( x , y ) = P ( X= x, Y = y).
DISTRIBUCIONES CONDICIONALES

Es la probabilidad de que ocurra un evento A, sabiendo que también sucede otro


evento B. La probabilidad condicional se escribe P (A|B), y se lee «la probabilidad de A
dado B».

No tiene por qué haber una relación causal o temporal entre A y B. A puede
preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B,
viceversa o pueden no tener relación causal. Las relaciones causales o temporales son
nociones que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no
dependiendo de la interpretación que se le dé a los eventos.

Un ejemplo clásico es el lanzamiento de una moneda para luego lanzar un dado.


¿Cuál es la probabilidad que en el dado salga un 6 dado que ya que haya salido una cara en
la moneda? Esta probabilidad se denota de esta manera: P(6|C).

Dado un espacio de probabilidad y dos eventos (o sucesos) con ,


la probabilidad condicional de A dado B está definida como:

INDEPENDENCIA DE VARIABLES ALEATORIAS

De manera intuitiva podemos decir que dos variables aleatorias son independientes
si los valores que toma una de ellas no afectan a los de la otra ni a sus probabilidades.

En muchas ocasiones la independencia será evidente a partir del experimento, por


ejemplo, es independiente el resultado del lanzamiento de un dado y el de una moneda, por
tanto las variables Puntuación obtenida con el dado y Número de caras obtenidas al lanzar
la moneda una vez serán variables independientes.

En otras ocasiones tenemos una dependencia clara, por ejemplo, al lanzar un dado
consideremos las variables
X = puntuación del dado

Y = variable indicadora de puntuación par

Es evidente que existe una clara dependencia, si sabemos que Y = 1, la


variable X sólo puede tomar los valores 2, 4 o 6; si sabemos que X = 3, entonces, Y = 0
forzosamente.

Algunas veces podemos suponer la existencia de una cierta relación entre variables,
aunque sea en forma algo abstracta y sin concretar. Por ejemplo si realizamos unas
mediciones sobre unos individuos, las variables altura en cm y peso en Kg probablemente
estarán relacionadas, los valores de una influirán en los valores de la otra. Intentar
determinar la naturaleza exacta de la relación entre ambas es lo que en estadística
conocemos como un problema de regresión.

Si queremos una definición algo más formal, basta con que recordemos que dos
sucesos son independientes si la probabilidad de la intersección es igual al producto de
probabilidades, aplicando esta definición a sucesos del tipo X ≤ a tenemos la definición
siguiente:

Diremos que dos variables aleatorias X e Y son independientes si y sólo si

P(X ≤ a ∩ Y ≤ b) = P(X ≤ a) · P(Y ≤ b) = FX(a) · FY(b)

A la función F(x, y) = P(X ≤ a ∩ Y ≤ b) se la conoce como la función de distribución


conjunta de X e Y.

Como consecuencia inmediata de la independencia de X e Y, se cumple lo siguiente:

P(a < X ≤ c ∩ b < Y ≤ d) = P(a < X ≤ c) · P(b < Y ≤ d)

VALOR ESPERADO

El valor esperado o esperanza de una variable aleatoria tiene su origen en los juegos de
azar, debido a que los jugadores deseaban saber cuál era su esperanza de ganar o perder con
un juego determinado. Como a cada resultado particular del juego le corresponde una
probabilidad determinada, esto equivale a una función de probabilidad de una variable
aleatoria y el conjunto de todos los resultados posibles del juego estará representado por la
distribución de probabilidad de la variable aleatoria. El valor esperado o esperanza es muy
importante, ya que es uno de los parámetros que describen una variable aleatoria.

Sea X una variable aleatoria discreta con función de probabilidades f(x). Entonces, el
valor esperado de la variable aleatoria X, el cual se representa por E(X), está definido por:
E(X) = å xi f(xi)

Lo anterior significa, que para calcular E(X) se multiplica cada valor que puede tomar
la variable aleatoria por la probabilidad que le corresponde y después se suman esos
productos.

VARIANCIA

Existen dos aspectos que caracterizan de forma simple el comportamiento de la


distribución de probabilidad, porque proporcionan una descripción completa de la forma en
que se comporta: la medida de tendencia central y la de dispersión.

La primera está representada por la media o valor esperado, ya vista en el punto


anterior, y la segunda por la variancia o por la desviación estándar, que evalúan la
dispersión de la distribución de probabilidad o grado en que se separan del promedio los
valores de la variable aleatoria X.

COVARIANZA

En probabilidad y estadística, la covarianza es un valor que indica el grado de variación


conjunta de dos variables aleatorias. Es el dato básico para determinar si existe una
dependencia entre ambas variables y además es el dato necesario para estimar otros
parámetros básicos, como el coeficiente de correlación lineal o la recta de regresión.

COEFICIENTE DE CORRELACIÓN

En estadística, el coeficiente de correlación de Pearson es una medida de la relación


lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la
correlación de Pearson es independiente de la escala de medida de las variables.

De manera menos formal, podemos definir el coeficiente de correlación de Pearson


como un índice que puede utilizarse para medir el grado de relación de dos variables
siempre y cuando ambas sean cuantitativas.

Ejemplo 1 (Máxima covariación positiva)


Observa que los datos tipificados (expresados como puntuaciones z) en las dos
columnas de la derecha tienen los mismos valores en ambas variables, dado que las
posiciones relativas son las mismas en las variables X e Y.

MODELO PROBABILÍSTICO

Modelo probabilístico o estadístico es la forma que pueden tomar un conjunto de datos


obtenidos de muestreos de datos con comportamiento que se supone aleatorio.

Un modelo estadístico es un tipo de modelo matemático que usa la probabilidad, y que


incluye un conjunto de asunciones sobre la generación de algunos datos muestrales, de tal
manera que asemejen a los datos de una población mayor.

Las asunciones o hipótesis de un modelo estadístico describen un conjunto de


distribuciones de probabilidad, que son capaces de aproximar de manera adecuada un
conjunto de datos. Las distribuciones de probabilidad inherentes de los modelos
estadísticos son lo que distinguen a los modelos de otros modelos matemáticos
deterministas.

Un modelo estadístico queda especificado por un conjunto de ecuaciones que relacionan


diversas variables aleatorias, y en las que pueden aparecer otras variables no aleatorias.
Como tal "un modelo es una representación formal de una teoría.

El objetivo del modelo probabilístico es tomar la consulta del usuario para ser refinada
sucesivamente hasta obtener el conjunto de respuesta ideal, mediante la reformulación
sucesiva de los términos de su consulta, empleando para ello la ponderación de los
términos.

Esto significa que se modifican los valores 1 (presencia) por un número (peso) que
permita acercar la consulta imperfecta a una consulta ideal. El proceso de ponderación de
los términos de la consulta es el cálculo de probabilidad de que exista dicho término en el
conjunto de los documentos relevantes y la probabilidad de que se encuentre presente en el
conjunto de los documentos irrelevantes.
MODELOS DISCRETOS

Pueden ser modelos probabilísticos discretos o continuos. Los primeros, en su


mayoría se basan en repeticiones de pruebas de Bernoulli. Los más utilizados son:

 Distribución dicotómica (Bernouilli).

El campo de variación de la variable es : {0,1}. y la función de cuantía es :

P(X=0) = q = 1-p

P(X=1)= p .

Si una variable aleatoria X sigue o tiene una distribución dicotómica de parámetro p se


expresa como X ~ D(p).

Modeliza situaciones en las que:

· Se realiza una prueba

· Que sólo puede dar dos resultados posibles: A y A

· La probabilidad del resultado A es P(A) = p y la del resultado A es P(A)= q=1-p.

· En estas circunstancias la variable aleatoria X significa "nº de resultados A que se


obtienen.
La media de la distribución será: m = å x P(x) = 0.q + 1.p = p

La varianza de la distribución: s2 = a2- m2

con : a2 = S x2.P(x) = 0.q +1.p= p

s2 = a2- m2 = p - p2 = p (1-p) = p.q

Y la F.G.M.:

f (t) = E(etx) = S etx P(x) = e0 q + et p = (pet +q)

Es fácil comprobar que todos los momentos ordinarios de orden mayor o igual a 1 son
iguales a p.

 Distribución Binomial

El campo de variación de la variable es {0,1,2,3,..., n} y la función de cuantía es:

Para valores de x= 0,1,2,...n siendo nÎ N , p Î [0,1] y q=1-p

Si una variable aleatoria, X, sigue una distribución binomial de parámetros n y p se expresa


como: X ~ B(n,p).

Situaciones que modeliza:

· Se realiza un número n de pruebas (separadas o separables).

· Cada prueba puede dar dos únicos resultados A y Ã


· La probabilidad de obtener un resultado A es p y la de obtener un resultado à es q, con q=
1-p, en todas las pruebas. Esto implica que las pruebas se realizan exactamente en las
mismas condiciones. Si se trata de extracciones, (muestreo), las extracciones deberán ser
con devolución (reemplazamiento) (M.A.S).

· En estas circunstancias se aleatoriza de forma que variable aleatoria signifique:

X = nº de resultados A que se obtienen en las n pruebas

Es fácil comprobar que considerando estas condiciones la función de cuantía de la variable


es precisamente la que se ha especificado arriba.

 Distribución Hipergeométrica

Dada la siguiente situación:

 Una población constituida por N individuos en total.


 De los cuales Np individuos son del tipo A , y Nq individuos son del tipo Ã.

De forma que la proporción de individuos A que hay en la población es p, y la proporción


de individuos de tipo à , es q (p+q=1).

 Se realizan n (pruebas) extracciones sin reemplazamiento

De forma que la probabilidad de extraer un individuo A ( Ã) en una de las extracciones


depende de los resultados de las pruebas anteriores.

 Si consideramos la variable aleatoria X = nº de resultados A obtenidos en las n


extracciones , X seguirá una distribución hipergeométrica. X~H(N,n,p)

Puede comprobarse que la función de cuantía es, entonces:

MODELOS CONTINUOS
Los modelos continuos, son modelos de probabilidad de variable aleatoria continua.
Los más importantes son

 Distribución Uniforme (De V.Continua)

Dada una variable aleatoria continua, X , definida en el intervalo [a,b] de la recta real,
diremos que X tiene una distribución uniforme en el intervalo [a,b] cuando su función de
densidad sea: X ~ U([a,b])

f(x)= 1/(b-a) para x Î [a,b].

De manera que la función de distribución resultará:

0 para x < a

1 para x ³ b

Es fácil comprobar que m =(b+a)/2 y que s2 = (b-a)2/12


 Distribución Exponencial

Dada una variable aleatoria continua, X , definida para valores reales positivos.

Diremos que X tiene una distribución exponencial de parámetro a cuando su función de


densidad sea: f(x) = a e-a x para x ³ 0 ( siendo el parámetro a positivo)

La función de distribución será

=0 para x < 0
F(x) = {

F.G.M.

Si derivamos la F.G.M. en el punto t=0 obtendremos que m = 1/a

Y derivando por segunda vez en t= 0 obtendremos el momento ordinario de segundo orden,


y a partir de él la varianza: s 2= 1 /a2 la moda es 0 y la mediana ln2/a
 Distribución Normal

La distribución normal es la más importante de todas las distribuciones de probabilidad.


Es una distribución de variable continua con campo de variación [-¥ ,¥ ], que queda
especificada a través de dos parámetros ( que acaban siendo la media y la desviación
típica de la distribución).

Una variable aleatoria continua, X, definida en [-¥ ,¥ ] seguirá una distribución normal de
parámetros m y s , ( X ~ N(m ; s ) ) , si su función de densidad es :

para x Î [-¥ ,¥ ]

Cuya representación gráfica es:

DISTRIBUCIÓN MUESTRAL

En estadística, la distribución muestral es lo que resulta de considerar todas las


muestras posibles que pueden ser tomadas de una población. Su estudio permite calcular la
probabilidad que se tiene, dada una sola muestra, de acercarse al parámetro de la población.
Mediante la distribución muestral se puede estimar el error para un tamaño de muestra
dado.

Las dos medidas fundamentales de esta distribución son la media y la desviación


típica, también denominada error típico.
Hay que hacer notar que si el tamaño de la muestra es lo suficientemente grande las
distribuciones muestrales son normales y en esto se basarán todos los resultados que
alcancemos.

 Distribución Muestral De Medias

Cada muestra de tamaño n que podemos extraer de una población proporciona una
media. Si consideramos cada una de estas medias como valores de una variable aleatoria
podemos estudiar su distribución que llamaremos distribución muestral de medias.

Si tenemos una población normal N(m,s) y extraemos de ella muestras de tamaño n,


la distribución muestral de medias sigue también una distribución normal

Si la población no sigue una distribución normal pero n>30, aplicando el llamado


Teorema central del límite la distribución muestral de medias se aproxima también a la
normal anterior.

 Distribución Muestral De Proporciones

En numerosas ocasiones se plantea estimar una proporción o porcentaje. En estos casos


la variable aleatoria toma solamente dos valores diferentes (éxito o fracaso), es decir sigue
una distribución binomial y cuando la extensión de la población es grande la
distribución binomial B(n,p) se aproxima a la normal .

 Para muestras de tamaño n>30, la distribución muestral de proporciones sigue una


distribución normal

Donde p es la proporción de uno de los valores que presenta la variable estadística en la


población y q=1-p.
CONCLUSIÓN

Siendo muchos de los fenómenos que aparecen en la naturaleza y en la vida diaria,


involucran diferentes y diversos factores llegando hacer que cada factor puede
ser identificado por medio de una variable, en éste sentido un fenómeno de interés estará
regido por el comportamiento conjunto de muchas variables por otro lado las relaciones
causales o temporales son nociones que no pertenecen al ámbito de la probabilidad, pueden
desempeñar un papel o no dependiendo de la interpretación que se le dé a los eventos

Así se puede concretar que la independencia de variables aleatorias de manera intuitiva


podemos decir que dos variables aleatorias son independientes si los valores que toma una
de ellas no afectan a los de la otra ni a sus probabilidades, siendo el valor esperado o
esperanza es muy importante, ya que es uno de los parámetros que describen una variable
aleatoria.

Por otro término que de manera menos formal, podemos definir el coeficiente de
correlación de Pearson como un índice que puede utilizarse para medir el grado de relación
de dos variables siempre y cuando ambas sean cuantitativas, determinándose así que La
distribución normal es la más importante de todas las distribuciones de probabilidad, es una
distribución de variable continua con campo de variación [-¥ ,¥ ], que queda especificada a través
de dos parámetros que acaban siendo la media y la desviación típica de la distribución; en
numerosas ocasiones se plantea estimar una proporción o porcentaje, en estos casos la variable
aleatoria toma solamente dos valores diferentes éxito o fracaso, es decir sigue una distribución
binomial y cuando la extensión de la población es grande la distribución binomial B(n,p) se

aproxima a la normal .