Você está na página 1de 90

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica

Manual de Probabilidad y Estadstica


1/90
PROBABILIDAD Y ESTADSTICA


INTRODUCCION

Como dijera David Huntsberger: La palabra estadstica a menudo nos trae a la mente imgenes de
nmeros apilados en grandes arreglos y tablas, de volmenes de cifras relativas a nacimientos,
muertes, impuestos, poblaciones, ingresos, deudas, crditos y as sucesivamente. David tiene razn
pues al instante de escuchar esta palabra estas son las imgenes que llegan a nuestra cabeza.

La Estadstica es mucho ms que slo nmeros apilados y grficas bonitas. Es una ciencia con tanta
antigedad como la escritura, y es por s misma auxiliar de todas las dems ciencias. Los mercados,
la medicina, la ingeniera, los gobiernos, etc. Se nombran entre los ms destacados clientes de sta.

La ausencia de sta conllevara a un caos generalizado, dejando a los administradores y ejecutivos
sin informacin vital a la hora de tomar decisiones en tiempos de incertidumbre.

La Estadstica que conocemos hoy en da debe gran parte de su realizacin a los trabajos
matemticos de aquellos hombres que desarrollaron la teora de las probabilidades, con la cual se
adhiri a la Estadstica a las ciencias formales.

En este breve material se expone los conceptos, la historia, la divisin as como algunos errores
bsicos cometidos al momento de analizar datos Estadsticos.

Definicin de Estadstica

La Estadstica es la ciencia cuyo objetivo es reunir una informacin cuantitativa concerniente a
individuos, grupos, series de hechos, etc. y deducir de ello gracias al anlisis de estos datos unos
significados precisos o unas previsiones para el futuro
1[1]
.

La estadstica, en general, es la ciencia que trata de la recopilacin, organizacin presentacin,
anlisis e interpretacin de datos numricos con e fin de realizar una toma de decisin ms efectiva.

Otros autores tienen definiciones de la Estadstica semejantes a las anteriores, y algunos otros no tan
semejantes. Para Chacn esta se define como la ciencia que tiene por objeto el estudio cuantitativo
de los colectivos; otros la definen como la expresin cuantitativa del conocimiento dispuesta en forma
adecuada para el escrutinio y anlisis. La ms aceptada, sin embargo, es la de Minguez, que define
la Estadstica como La ciencia que tiene por objeto aplicar las leyes de la cantidad a los hechos
sociales para medir su intensidad, deducir las leyes que los rigen y hacer su prediccin prxima.

Los estudiantes confunden comnmente los dems trminos asociados con las Estadsticas, una
confusin que es conveniente aclarar debido a que esta palabra tiene tres significados: la palabra
estadstica, en primer trmino se usa para referirse a la informacin estadstica; tambin se utiliza
para referirse al conjunto de tcnicas y mtodos que se utilizan para analizar la informacin
estadstica; y el trmino estadstico
2[2]
, en singular y en masculino, se refiere a una medida derivada
de una muestra.

Utilidad e Importancia

Los mtodos estadsticos tradicionalmente se utilizan para propsitos descriptivos, para organizar y
resumir datos numricos. La estadstica descriptiva, por ejemplo trata de la tabulacin de datos, su
presentacin en forma grfica o ilustrativa y el clculo de medidas descriptivas.

1[1]
Pequeo Larousse Ilustrado, 1ra. Edicin. Pg. 418. 1996
2[2]
El trmino estadstico tambin se aplica al profesional que analiza la informacin estadstica,
aunque en algunos pases a este se le denomina estadgrafo.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
2/90

Ahora bien, las tcnicas estadsticas se aplican de manera amplia en mercadotecnia, contabilidad,
control de calidad y en otras actividades; estudios de consumidores; anlisis de resultados en
deportes; administradores de instituciones; en la educacin; organismos polticos; mdicos; y por
otras personas que intervienen en la toma de decisiones.

Historia de la Estadstica

Los comienzos de la estadstica pueden ser hallados en el antiguo Egipto, cuyos faraones lograron
recopilar, hacia el ao 3050 antes de Cristo, prolijos datos relativos a la poblacin y la riqueza del
pas. De acuerdo al historiador griego Herodoto, dicho registro de riqueza y poblacin se hizo con el
objetivo de preparar la construccin de las pirmides. En el mismo Egipto, Ramss II hizo un censo
de las tierras con el objeto de verificar un nuevo reparto.

En el antiguo Israel la Biblia da referencias, en el libro de los Nmeros, de los datos estadsticos
obtenidos en dos recuentos de la poblacin hebrea. El rey David por otra parte, orden a Joab,
general del ejrcito hacer un censo de Israel con la finalidad de conocer el nmero de la poblacin
3[3]
.

Tambin los chinos efectuaron censos hace ms de cuarenta siglos. Los griegos efectuaron censos
peridicamente con fines tributarios, sociales (divisin de tierras) y militares (clculo de recursos y
hombres disponibles). La investigacin histrica revela que se realizaron 69 censos para calcular los
impuestos, determinar los derechos de voto y ponderar la potencia guerrera.

Pero fueron los romanos, maestros de la organizacin poltica, quienes mejor supieron emplear los
recursos de la estadstica. Cada cinco aos realizaban un censo de la poblacin y sus funcionarios
pblicos tenan la obligacin de anotar nacimientos, defunciones y matrimonios, sin olvidar los
recuentos peridicos del ganado y de las riquezas contenidas en las tierras conquistadas. Para el
nacimiento de Cristo suceda uno de estos empadronamientos de la poblacin bajo la autoridad del
imperio
4[4]
.

Durante los mil aos siguientes a la cada del imperio Romano se realizaron muy pocas operaciones
Estadsticas, con la notable excepcin de las relaciones de tierras pertenecientes a la Iglesia,
compiladas por Pipino el Breve en el 758 y por Carlomagno en el 762 DC. Durante el siglo IX se
realizaron en Francia algunos censos parciales de siervos. En Inglaterra, Guillermo el Conquistador
recopil el Domesday Book o libro del Gran Catastro para el ao 1086, un documento de la
propiedad, extensin y valor de las tierras de Inglaterra. Esa obra fue el primer compendio estadstico
de Inglaterra
5[5]
.

Aunque Carlomagno, en Francia; y Guillermo el Conquistador, en Inglaterra, trataron de revivir la
tcnica romana, los mtodos estadsticos permanecieron casi olvidados durantes la Edad Media.
Durante los siglos XV, XVI, y XVII, hombres como Leonardo de Vinci, Nicols Coprnico, Galileo,
Neper, William Harvey, Sir Francis Bacon y Ren Descartes, hicieron grandes operaciones al mtodo
cientfico, de tal forma que cuando se crearon los Estados Nacionales y surgi como fuerza el
comercio internacional exista ya un mtodo capaz de aplicarse a los datos econmicos.

Para el ao 1532 empezaron a registrarse en Inglaterra las defunciones debido al temor que Enrique
VII tena por la peste. Ms o menos por la misma poca, en Francia la ley exigi a los clrigos
registrar los bautismos, fallecimientos y matrimonios. Durante un brote de peste que apareci a fines
de la dcada de 1500, el gobierno ingls
comenz a publicar estadstica semanales de los decesos. Esa costumbre continu muchos aos, y
en 1632 estos Bills of Mortality (Cuentas de Mortalidad) contenan los nacimientos y fallecimientos por
sexo. En 1662, el capitn John Graunt us documentos que abarcaban treinta aos y efectu

3[3]
La Biblia, Libro 2do. de Samuel, Captulo 24
4[4]
dem, Libro Evangelio de San Lucas, Captulo 2
5[5]
Richard I. Levin, Estadstica para Administradores, 2da. Edicin 1988. Pg. 6
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
3/90
predicciones sobre el nmero de personas que moriran de varias enfermedades y sobre las
proporciones de nacimientos de varones y mujeres que caba esperar. El trabajo de Graunt,
condensado en su obra Natural and Political Observations...Made upon the Bills of Mortality
(Observaciones Polticas y Naturales ... Hechas a partir de las Cuentas de Mortalidad), fue un
esfuerzo innovador en el anlisis estadstico.

Por el ao 1540 el alemn Sebastin Muster realiz una compilacin estadstica de los recursos
nacionales, comprensiva de datos sobre organizacin poltica, instrucciones sociales, comercio y
podero militar. Durante el siglo XVII aport indicaciones ms concretas de mtodos de observacin y
anlisis cuantitativo y ampli los campos de la inferencia y la teora Estadstica.

Los eruditos del siglo XVII demostraron especial inters por la Estadstica Demogrfica como
resultado de la especulacin sobre si la poblacin aumentaba, decreca o permaneca esttica.

En los tiempos modernos tales mtodos fueron resucitados por algunos reyes que necesitaban
conocer las riquezas monetarias y el potencial humano de sus respectivos pases. El primer empleo
de los datos estadsticos para fines ajenos a la poltica tuvo lugar en 1691 y estuvo a cargo de Gaspar
Neumann, un profesor alemn que viva en Breslau. Este investigador se propuso destruir la antigua
creencia popular de que en los aos terminados en siete mora ms gente que en los restantes, y
para lograrlo hurg pacientemente en los archivos parroquiales de la ciudad. Despus de revisar
miles de partidas de defuncin pudo demostrar que en tales aos no fallecan ms personas que en
los dems. Los procedimientos de Neumann fueron conocidos por el astrnomo ingls Halley,
descubridor del cometa que lleva su nombre, quien los aplic al estudio de la vida humana. Sus
clculos sirvieron de base para las tablas de mortalidad que hoy utilizan todas las compaas de
seguros.

Durante el siglo XVII y principios del XVIII, matemticos como Bernoulli, Francis Maseres, Lagrange y
Laplace desarrollaron la teora de probabilidades. No obstante durante cierto tiempo, la teora de las
probabilidades limit su aplicacin a los juegos de azar y hasta el siglo XVIII no comenz a aplicarse
a los grandes problemas cientficos.

Godofredo Achenwall, profesor de la Universidad de Gotinga, acu en 1760 la palabra estadstica,
que extrajo del trmino italiano statista (estadista). Crea, y con sobrada razn, que los datos de la
nueva ciencia seran el aliado ms eficaz del gobernante consciente. La raz remota de la palabra se
halla, por otra parte, en el trmino latino status, que significa estado o situacin; Esta etimologa
aumenta el valor intrnseco de la palabra, por cuanto la estadstica revela el sentido cuantitativo de las
ms variadas situaciones.

Jacques Qutelect es quien aplica las Estadsticas a las ciencias sociales. Este interpret la teora de
la probabilidad para su uso en las ciencias sociales y resolver la aplicacin del principio de promedios
y de la variabilidad a los fenmenos sociales. Qutelect fue el primero en realizar la aplicacin
prctica de todo el mtodo Estadstico, entonces conocido, a las diversas ramas de la ciencia.

Entretanto, en el perodo del 1800 al 1820 se desarrollaron dos conceptos matemticos
fundamentales para la teora Estadstica; la teora de los errores de observacin, aportada por
Laplace y Gauss; y la teora de los mnimos cuadrados desarrollada por Laplace, Gauss y Legendre.
A finales del siglo XIX, Sir Francis Gaston ide el mtodo conocido por Correlacin, que tena por
objeto medir la influencia relativa de los factores sobre las variables. De aqu parti el desarrollo del
coeficiente de correlacin creado por Karl Pearson y otros cultivadores de la ciencia biomtrica como
J. Pease Norton, R. H. Hooker y G. Udny Yule, que efectuaron amplios estudios sobre la medida de
las relaciones.

Los progresos ms recientes en el campo de la Estadstica se refieren al ulterior desarrollo del clculo
de probabilidades, particularmente en la rama denominada indeterminismo o relatividad, se ha
demostrado que el determinismo fue reconocido en la Fsica como resultado de las investigaciones
atmicas y que este principio se juzga aplicable tanto a las ciencias sociales como a las fsicas.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
4/90
Etapas de Desarrollo de la Estadstica

La historia de la estadstica est resumida en tres grandes etapas o fases.

1.- Primera Fase: Los Censos: Desde el momento en que se constituye una autoridad poltica, la
idea de inventariar de una forma ms o menos regular la poblacin y las riquezas existentes en el
territorio est ligada a la conciencia de soberana y a los primeros esfuerzos administrativos.

2.- Segunda Fase: De la Descripcin de los Conjuntos a la Aritmtica Poltica: Las ideas
mercantilistas extraan una intensificacin de este tipo de investigacin. Colbert multiplica las
encuestas sobre artculos manufacturados, el comercio y la poblacin: los intendentes del Reino
envan a Pars sus memorias. Vauban, ms conocido por sus fortificaciones o su Dime Royale, que
es la primera propuesta de un impuesto sobre los ingresos, se seala como el verdadero precursor de
los sondeos. Ms tarde, Bufn se preocupa de esos problemas antes de dedicarse a la historia
natural.

La escuela inglesa proporciona un nuevo progreso al superar la fase puramente descriptiva. Sus tres
principales representantes son Graunt, Petty y Halley. El penltimo es autor de la famosa Aritmtica
Poltica.

Chaptal, ministro del interior francs, publica en 1801 el primer censo general de poblacin, desarrolla
los estudios industriales, de las producciones y los cambios, hacindose sistemticos durantes las
dos terceras partes del siglo XIX.

3.- Tercera Fase: Estadstica y Clculo de Probabilidades: El clculo de probabilidades se
incorpora rpidamente como un instrumento de anlisis extremadamente poderoso para el estudio de
los fenmenos econmicos y sociales y en general para el estudio de fenmenos cuyas causas son
demasiados complejas para conocerlos totalmente y hacer posible su anlisis.

Divisin de la Estadstica

La Estadstica para su mejor estudio se ha dividido en dos grandes ramas: la Estadstica Descriptiva y
la Inferencial.

Estadstica Descriptiva: consiste sobre todo en la presentacin de datos en forma de tablas y grficas.
Esta comprende cualquier actividad relacionada con los datos y est diseada para resumir o
describir los mismos sin factores pertinentes adicionales; esto es, sin intentar inferir nada que vaya
ms all de los datos, como tales.

Estadstica Inferencial: se deriva de muestras, de observaciones hechas slo acerca de una parte de
un conjunto numeroso de elementos y esto implica que su anlisis requiere de generalizaciones que
van ms all de los datos. Como consecuencia, la caracterstica ms importante del reciente
crecimiento de la estadstica ha sido un cambio en el nfasis de los mtodos que describen a
mtodos que sirven para hacer generalizaciones. La Estadstica Inferencial investiga o analiza una
poblacin partiendo de una muestra tomada.

Mtodo Estadstico

El conjunto de los mtodos que se utilizan para medir las caractersticas de la informacin, para
resumir los valores individuales, y para analizar los datos a fin de extraerles el mximo de
informacin, es lo que se llama mtodos estadsticos. Los mtodos de anlisis para la informacin
cuantitativa se pueden dividir en los siguientes seis pasos:

1. Definicin del problema.
2. Recopilacin de la informacin existente.
3. Obtencin de informacin original.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
5/90
4. Clasificacin.
5. Presentacin.
6. Anlisis.

Errores Estadsticos Comunes

Al momento de recopilar los datos que sern procesados se es susceptible de cometer errores as
como durante los cmputos de los mismos. No obstante, hay otros errores que no tienen nada que
ver con la digitacin y que no son tan fcilmente identificables. Algunos de stos errores son:

Sesgo: Es imposible ser completamente objetivo o no tener ideas preconcebidas antes de comenzar
a estudiar un problema, y existen muchas maneras en que una perspectiva o estado mental pueda
influir en la recopilacin y en el anlisis de la informacin. En estos casos se dice que hay un sesgo
cuando el individuo da mayor peso a los datos que apoyan su opinin que a aquellos que la
contradicen. Un caso extremo de sesgo sera la situacin donde primero se toma una decisin y
despus se utiliza el anlisis estadstico para justificar la decisin ya tomada.

Datos no comparables: el establecer comparaciones es una de las partes ms importantes del
anlisis estadstico, pero es extremadamente importante que tales comparaciones se hagan entre
datos que sean comparables.

Proyeccin descuidada de tendencias: la proyeccin simplista de tendencias pasadas hacia el futuro
es uno de los errores que ms ha desacreditado el uso del anlisis estadstico.

Muestreo Incorrecto: en la mayora de los estudios sucede que el volumen de informacin disponible
es tan inmenso que se hace necesario estudiar muestras, para derivar conclusiones acerca de la
poblacin a que pertenece la muestra. Si la muestra se selecciona correctamente, tendr
bsicamente las mismas propiedades que la poblacin de la cual fue extrada; pero si el muestreo se
realiza incorrectamente, entonces puede suceder que los resultados no signifiquen nada
6[6]
.

Conclusin

La Estadstica es la ciencia que ms aporta en la toma de decisiones en todos los mbitos
gerenciales. Desde el poder ejecutivo hasta los drafts deportivos, la Estadstica juega su papel a la
hora de hacer cualquier movimiento.

Las Estadstica, por otro lado, si no se sabe manejar con cautela puede generar resultados falaces
que podran a su vez llevar a la toma de decisiones erradas. Por consiguiente se recomienda un
estudio pleno y cientfico de la materia a fin de que quien utilice sus servicios pueda hacerlo de
manera objetiva y con resultados satisfactorios.

Hoy en da es imposible pensar en instituciones que manejan cierto volmenes de datos e
informaciones y que no utilicen sus herramientas para verificacin, planeacin y seguimiento de
polticas, estudios de factibilidades, etc.

6[6]
Cao Garca, Mtodos Estadsticos, Teora y Prctica, 1ra. Edicin
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
6/90

Estadstica Descriptiva

La estadstica descriptiva es una ciencia que analiza series de datos (por ejemplo, edad de una
poblacin, altura de los estudiantes de una escuela, temperatura en los meses de verano, etc) y trata
de extraer conclusiones sobre el comportamiento de estas variables.
Las variables pueden ser de dos tipos:
Variables cualitativas o atributos: no se pueden medir numricamente (por ejemplo: nacionalidad,
color de la piel, sexo).
Variables cuantitativas: tienen valor numrico (edad, precio de un producto, ingresos anuales).
Las variables tambin se pueden clasificar en:
Variables unidimensionales: slo recogen informacin sobre una caracterstica (por ejemplo: edad
de los alumnos de una clase).
Variables bidimensionales: recogen informacin sobre dos caractersticas de la poblacin (por
ejemplo: edad y altura de los alumnos de una clase).
Variables pluridimensionales: recogen informacin sobre tres o ms caractersticas (por ejemplo:
edad, altura y peso de los alumnos de una clase).
Por su parte, las variables cuantitativas se pueden clasificar en discretas y continuas:
Discretas: slo pueden tomar valores enteros (1, 2, 8, -4, etc.). Por ejemplo: nmero de hermanos
(puede ser 1, 2, 3....,etc, pero, por ejemplo, nunca podr ser 3,45).
Continuas: pueden tomar cualquier valor real dentro de un intervalo. Por ejemplo, la velocidad de un
vehculo puede ser 80,3 km/h, 94,57 km/h...etc.
Cuando se estudia el comportamiento de una variable hay que distinguir los siguientes conceptos:
Individuo: cualquier elemento que porte informacin sobre el fenmeno que se estudia. As, si
estudiamos la altura de los nios de una clase, cada alumno es un individuo; si estudiamos el precio
de la vivienda, cada vivienda es un individuo.
Poblacin: conjunto de todos los individuos (personas, objetos, animales, etc.) que porten
informacin sobre el fenmeno que se estudia. Por ejemplo, si estudiamos el precio de la vivienda en
una ciudad, la poblacin ser el total de las viviendas de dicha ciudad.
Muestra: subconjunto que seleccionamos de la poblacin. As, si se estudia el precio de la vivienda
de una ciudad, lo normal ser no recoger informacin sobre todas las viviendas de la ciudad (sera
una labor muy compleja), sino que se suele seleccionar un subgrupo (muestra) que se entienda que
es suficientemente representativo.
Distribucin de frecuencia
La distribucin de frecuencia es la representacin estructurada, en forma de tabla, de toda la
informacin que se ha recogido sobre la variable que se estudia.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
7/90
Variable Frecuencias absolutas Frecuencias relativas
(Valor) Simple Acumulada Simple Acumulada
X1 n1 n1 f1 = n1 / n f1
X2 n2 n1 + n2 f2 = n2 / n f1 + f2
... ... ... ... ...
Xn-1 nn-1 n1 + n2 +..+ nn-1 fn-1 = nn-1 / n f1 + f2 +..+fn-1
Xn nn n fn = nn / n f
Siendo X los distintos valores que puede tomar la variable.
Siendo n el nmero de veces que se repite cada valor.
Siendo f el porcentaje que la repeticin de cada valor supone sobre el total
Veamos un ejemplo:
Medimos la altura de los nios de una clase y obtenemos los siguientes resultados (cm):
Alumno Estatura Alumno Estatura Alumno Estatura
Alumno 1 1,25 Alumno 11 1,23 Alumno 21 1,21
Alumno 2 1,28 Alumno 12 1,26 Alumno 22 1,29
Alumno 3 1,27 Alumno 13 1,30 Alumno 23 1,26
Alumno 4 1,21 Alumno 14 1,21 Alumno 24 1,22
Alumno 5 1,22 Alumno 15 1,28 Alumno 25 1,28
Alumno 6 1,29 Alumno 16 1,30 Alumno 26 1,27
Alumno 7 1,30 Alumno 17 1,22 Alumno 27 1,26
Alumno 8 1,24 Alumno 18 1,25 Alumno 28 1,23
Alumno 9 1,27 Alumno 19 1,20 Alumno 29 1,22
Alumno 10 1,29 Alumno 20 1,28 Alumno 30 1,21
Si presentamos esta informacin estructurada obtendramos la siguiente tabla de frecuencia:
Variable Frecuencias absolutas Frecuencias relativas
(Valor) Simple Acumulada Simple Acumulada
1,20 1 1 3,3% 3,3%
1,21 4 5 13,3% 16,6%
1,22 4 9 13,3% 30,0%
1,23 2 11 6,6% 36,6%
1,24 1 12 3,3% 40,0%
1,25 2 14 6,6% 46,6%
1,26 3 17 10,0% 56,6%
1,27 3 20 10,0% 66,6%
1,28 4 24 13,3% 80,0%
1,29 3 27 10,0% 90,0%
1,30 3 30 10,0% 100,0%
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
8/90
Si los valores que toma la variable son muy diversos y cada uno de ellos se repite muy pocas veces,
entonces conviene agruparlos por intervalos, ya que de otra manera obtendramos una tabla de
frecuencia muy extensa que aportara muy poco valor a efectos de sntesis. (tal como se ver en la
siguiente leccin).
Distribuciones de frecuencia agrupada
Supongamos que medimos la estatura de los habitantes de una vivienda y obtenemos los siguientes
resultados (cm):
Habitante Estatura Habitante Estatura Habitante Estatura
Habitante 1 1,15 Habitante 11 1,53 Habitante 21 1,21
Habitante 2 1,48 Habitante 12 1,16 Habitante 22 1,59
Habitante 3 1,57 Habitante 13 1,60 Habitante 23 1,86
Habitante 4 1,71 Habitante 14 1,81 Habitante 24 1,52
Habitante 5 1,92 Habitante 15 1,98 Habitante 25 1,48
Habitante 6 1,39 Habitante 16 1,20 Habitante 26 1,37
Habitante 7 1,40 Habitante 17 1,42 Habitante 27 1,16
Habitante 8 1,64 Habitante 18 1,45 Habitante 28 1,73
Habitante 9 1,77 Habitante 19 1,20 Habitante 29 1,62
Habitante 10 1,49 Habitante 20 1,98 Habitante 30 1,01
Si presentramos esta informacin en una tabla de frecuencia para obtener una tabla de 30 lneas
(una para cada valor), cada uno de ellos con una frecuencia absoluta de 1 y con una frecuencia
relativa del 3,3%. Esta tabla nos aportara escasa informacin
En lugar de ello, preferimos agrupar los datos por intervalos, con lo que la informacin queda ms
resumida (se pierde, por tanto, algo de informacin), pero es ms manejable e informativa:
Estatura Frecuencias absolutas Frecuencias relativas
Cm Simple Acumulada Simple Acumulada
1,01 - 1,10 1 1 3,3% 3,3%
1,11 - 1,20 3 4 10,0% 13,3%
1,21 - 1,30 3 7 10,0% 23,3%
1,31 - 1,40 2 9 6,6% 30,0%
1,41 - 1,50 6 15 20,0% 50,0%
1,51 - 1,60 4 19 13,3% 63,3%
1,61 - 1,70 3 22 10,0% 73,3%
1,71 - 1,80 3 25 10,0% 83,3%
1,81 - 1,90 2 27 6,6% 90,0%
1,91 - 2,00 3 30 10,0% 100,0%
El nmero de tramos en los que se agrupa la informacin es una decisin que debe tomar el analista:
la regla es que mientras ms tramos se utilicen menos informacin se pierde, pero puede que menos
representativa e informativa sea la tabla.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
9/90
Medidas de posicin central

Las medidas de posicin nos facilitan informacin sobre la serie de datos que estamos analizando.
Estas medidas permiten conocer diversas caractersticas de esta serie de datos.
Las medidas de posicin son de dos tipos:
Medidas de posicin central: informan sobre los valores medios de la serie de datos.
Medidas de posicin no centrales: informan de como se distribuye el resto de los
valores de la serie.
Medidas de posicin central

Las principales medidas de posicin central son las siguientes:
Media: es el valor medio ponderado de la serie de datos. Se pueden calcular diversos tipos de
media, siendo las ms utilizadas:
Media aritmtica: se calcula multiplicando cada valor por el nmero de veces que se repite. La suma
de todos estos productos se divide por el total de datos de la muestra:
(X1 * n1) + (X2 * n2) + (X3 * n3) + .....+ (Xn-1 * nn-1) + (Xn * nn)
---------------------------------------------------------------------------------------
Xm =
n
Media geomtrica: se eleva cada valor al nmero de veces que se ha repetido. Se multiplican todo
estos resultados y al producto fiinal se le calcula la raz "n" (siendo "n" el total de datos de la
muestra).

Segn el tipo de datos que se analice ser ms apropiado utilizar la media aritmtica o la media
geomtrica.
La media geomtrica se suele utilizar en series de datos como tipos de inters anuales, inflacin,
etc., donde el valor de cada ao tiene un efecto multiplicativo sobre el de los aos anteriores. En todo
caso, la media aritmtica es la medida de posicin central ms utilizada.
Lo ms positivo de la media es que en su clculo se utilizan todos los valores de la serie, por lo que
no se pierde ninguna informacin.
Sin embargo, presenta el problema de que su valor (tanto en el caso de la media aritmtica como
geomtrica) se puede ver muy influido por valores extremos, que se aparten en exceso del resto de
la serie. Estos valores anmalos podran condicionar en gran medida el valor de la media, perdiendo
sta representatividad.
Mediana: es el valor de la serie de datos que se sita justamente en el centro de la muestra (un 50%
de valores son inferiores y otro 50% son superiores).
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
10/90
No presentan el problema de estar influido por los valores extremos, pero en cambio no utiliza en su
clculo toda la informacin de la serie de datos (no pondera cada valor por el nmero de veces que
se ha repetido).
Moda: es el valor que ms se repite en la muestra.
Ejemplo: vamos a utilizar la tabla de distribucin de frecuencias con los datos de la estatura de los
alumnos que vimos en la leccin 2.

Variable Frecuencias absolutas Frecuencias relativas
(Valor) Simple Acumulada Simple Acumulada
1,20 1 1 3,3% 3,3%
1,21 4 5 13,3% 16,6%
1,22 4 9 13,3% 30,0%
1,23 2 11 6,6% 36,6%
1,24 1 12 3,3% 40,0%
1,25 2 14 6,6% 46,6%
1,26 3 17 10,0% 56,6%
1,27 3 20 10,0% 66,6%
1,28 4 24 13,3% 80,0%
1,29 3 27 10,0% 90,0%
1,30 3 30 10,0% 100,0%

Vamos a calcular los valores de las distintas posiciones centrales:
Media aritmtica:
(1,20*1) + (1,21*4) + (1,22 * 4) + (1,23 * 2) + ......... + (1,29 * 3) + (1,30 * 3)
--------------------------------------------------------------------------------------------------
Xm =
30
Luego: Xm = 1,253
Por lo tanto, la estatura media de este grupo de alumnos es de 1,253 cm.
Media geomtrica:
X = ((1,20^ 1) * (1,21^4) * (1,22^ 4) * .....* (1,29^3)* (1,30^3)) ^ (1/30)
Luego: Xm = 1,253
En este ejemplo la media aritmtica y la media geomtrica coinciden, pero no tiene siempre por qu
ser as.
Mediana:
La mediana de esta muestra es 1,26 cm, ya que por debajo est el 50% de los valores y por arriba el
otro 50%. Esto se puede ver al analizar la columna de frecuencias relativas acumuladas.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
11/90
En este ejemplo, como el valor 1,26 se repite en 3 ocasiones, la media se situara exactamente entre
el primer y el segundo valor de este grupo, ya que entre estos dos valores se encuentra la divisin
entre el 50% inferior y el 50% superior.
Moda:
Hay 3 valores que se repiten en 4 ocasiones: el 1,21, el 1,22 y el 1,28, por lo tanto esta seria cuenta
con 3 modas.
Medidas de Posicin No Central
Las medidas de posicin no centrales permiten conocer otros puntos caractersticos de la distribucin
que no son los valores centrales. Entre otros indicadores, se suelen utilizar una serie de valores que
dividen la muestra en tramos iguales:
Cuartiles: son 3 valores que distribuyen la serie de datos, ordenada de forma creciente o
decreciente, en cuatro tramos iguales, en los que cada uno de ellos concentra el 25% de
los resultados.
Deciles: son 9 valores que distribuyen la serie de datos, ordenada de forma creciente o
decreciente, en diez tramos iguales, en los que cada uno de ellos concentra el 10% de
los resultados.
Percentiles: son 99 valores que distribuyen la serie de datos, ordenada de forma
creciente o decreciente, en cien tramos iguales, en los que cada uno de ellos concentra
el 1% de los resultados.
Ejemplo: Vamos a calcular los cuartiles de la serie de datos referidos a la estatura de un grupo de
alumnos (leccin 2). Los deciles y centiles se calculan de igual manera, aunque hara falta
distribuciones con mayor nmero de datos.

Variable Frecuencias absolutas Frecuencias relativas
(Valor) Simple Acumulada Simple Acumulada
1,20 1 1 3,3% 3,3%
1,21 4 5 13,3% 16,6%
1,22 4 9 13,3% 30,0%
1,23 2 11 6,6% 36,6%
1,24 1 12 3,3% 40,0%
1,25 2 14 6,6% 46,6%
1,26 3 17 10,0% 56,6%
1,27 3 20 10,0% 66,6%
1,28 4 24 13,3% 80,0%
1,29 3 27 10,0% 90,0%
1,30 3 30 10,0% 100,0%
1 cuartil: es el valor 1,22 cm, ya que por debajo suya se sita el 25% de la frecuencia (tal como se
puede ver en la columna de la frecuencia relativa acumulada).
2 cuartil: es el valor 1,26 cm, ya que entre este valor y el 1 cuartil se sita otro 25% de la
frecuencia.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
12/90
3 cuartil: es el valor 1,28 cm, ya que entre este valor y el 2 cuartil se sita otro 25% de la
frecuencia. Adems, por encima suya queda el restante 25% de la frecuencia.
Cuando un cuartil recae en un valor que se ha repetido ms de una vez (como ocurre en el ejemplo
en los tres cuartiles) la medida de posicin no central sera realmente una de las repeticiones.

Medidas de Dispersin
Estudia la distribucin de los valores de la serie, analizando si estos se encuentran ms o menos
concentrados, o ms o menos dispersos. Existen diversas medidas de dispersin, entre las ms
utilizadas podemos destacar las siguientes:
Rango: mide la amplitud de los valores de la muestra y se calcula por diferencia entre el valor ms
elevado y el valor ms bajo.
Varianza: Mide la distancia existente entre los valores de la serie y la media. Se calcula como
sumatoria de las diferencias al cuadrado entre cada valor y la media, multiplicadas por el nmero de
veces que se ha repetido cada valor. La sumatoria obtenido se divide por el tamao de la muestra.

La varianza siempre ser mayor que cero. Mientras ms se aproxima a cero, ms concentrados
estn los valores de la serie alrededor de la media. Por el contrario, mientras mayor sea la varianza,
ms dispersos estn.
Desviacin tpica: Se calcula como raz cuadrada de la varianza.
Coeficiente de variacin de Pearson: se calcula como cociente entre la desviacin tpica y la
media.
Variable Frecuencias absolutas Frecuencias relativas
(Valor) Simple Acumulada Simple Acumulada
1,20 1 1 3,3% 3,3%
1,21 4 5 13,3% 16,6%
1,22 4 9 13,3% 30,0%
1,23 2 11 6,6% 36,6%
1,24 1 12 3,3% 40,0%
1,25 2 14 6,6% 46,6%
1,26 3 17 10,0% 56,6%
1,27 3 20 10,0% 66,6%
1,28 4 24 13,3% 80,0%
1,29 3 27 10,0% 90,0%
1,30 3 30 10,0% 100,0%

Rango: Diferencia entre el mayor valor de la muestra (1,30) y el menor valor (1,20). Luego el rango
de esta muestra es 10 cm.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
13/90
Varianza: recordemos que la media de esta muestra es 1,253. Luego, aplicamos la frmula:

Por lo tanto, la varianza es 0,0010
Desviacin tpica: es la raz cuadrada de la varianza.

Luego:
Coeficiente de variacin de Pearson: se calcula como cociente entre la desviacin tpica y la media
de la muestra.
Cv = 0,0320 / 1,253

Cv = 0,0320 / 1,253
El inters del coeficiente de variacin es que al ser un porcentaje permite comparar el nivel de
dispersin de dos muestras. Esto no ocurre con la desviacin tpica, ya que viene expresada en las
mismas unidas que los datos de la serie.
Por ejemplo, para comparar el nivel de dispersin de una serie de datos de la altura de los alumnos
de una clase y otra serie con el peso de dichos alumnos, no se puede utilizar las desviaciones tpicas
(una viene vienes expresada en cm y la otra en kg). En cambio, sus coeficientes de variacin son
ambos porcentajes, por lo que s se pueden comparar.
Medidas de forma: Grado de concentracin
Las medidas de forma permiten conocer que forma tiene la curva que representa la serie de datos
de la muestra. En concreto, podemos estudiar las siguientes caractersticas de la curva:
a) Concentracin: mide si los valores de la variable estn ms o menos uniformemente repartidos a
lo largo de la muestra.
b) Asimetra: mide si la curva tiene una forma simtrica, es decir, si respecto al centro de la misma
(centro de simetra) los segmentos de curva que quedan a derecha e izquierda son similares.
c) Curtosis: mide si los valores de la distribucin estn ms o menos concentrados alrededor de los
valores medios de la muestra.
Concentracin

Para medir el nivel de concentracin de una distribucin de frecuencia se pueden utilizar distintos
indicadores, entre ellos el Indice de Gini.


UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
14/90
Este ndice se calcula aplicando la siguiente frmula:

Z (pi - qi)
----------------------------
IG =
Z pi
(i toma valores entre 1 y n-1)

En donde pi mide el porcentaje de individuos de la muestra que presentan un valor igual o inferior al
de xi.
n1 + n2 + n3 + ... + ni
---------------------------- x 100
pi =
N
Mientras que qi se calcula aplicando la siguiente frmula:

(X1*n1) + (X2*n2) + ... + (Xi*ni)
----------------------------------------------------- x 100
qi =
(X1*n1) + (X2*n2) + ... + (Xn*nn)

El Indice Gini (IG) puede tomar valores entre 0 y 1:
IG = 0 : concentracin mnima. La muestra est unifomemente repartida a lo largo de todo su rango.
IG = 1 : concentracin mxima. Un slo valor de la muestra acumula el 100% de los resultados.
Ejemplo: vamos a calcular el Indice Gini de una serie de datos con los sueldos de los empleados de
una empresa (millones pesetas).

Sueldos
Empleados (Frecuencias
absolutas)
Frecuencias relativas
(Millones) Simple Acumulada Simple Acumulada
3,5 10 10 25,0% 25,0%
4,5 12 22 30,0% 55,0%
6,0 8 30 20,0% 75,0%
8,0 5 35 12,5% 87,5%
10,0 3 38 7,5% 95,0%
15,0 1 39 2,5% 97,5%
20,0 1 40 2,5% 100,0%

Calculamos los valores que necesitamos para aplicar la frmula del Indice de Gini:



Xi ni ni pi Xi * ni Xi * ni qi pi - qi
3,5 10 10 25,0 35,0 35,0 13,6 10,83
4,5 12 22 55,0 54,0 89,0 34,6 18,97
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
15/90
6,0 8 30 75,0 48,0 147,0 57,2 19,53
8,0 5 35 87,5 40,0 187,0 72,8 15,84
10,0 3 38 95,0 30,0 217,0 84,4 11,19
15,0 1 39 97,5 15,0 232,0 90,3 7,62
25,0 1 40 100,0 25,0 257,0 100,0 0
Z pi (entre 1 y n-1) = 435,0 x Z (pi - qi) (entre 1 y n-1 ) = 83,99
Por lo tanto: IG = 83,99 / 435,0 = 0,19

Un Indice Gini de 0,19 indica que la muestra est bastante uniformemente repartida, es decir, su
nivel de concentracin no es excesivamente alto.

Ejemplo: Ahora vamos a analizar nuevamente la muestra anterior, pero considerando que hay ms
personal de la empresa que cobra el sueldo mximo, lo que conlleva mayor concentracin de renta en
unas pocas personas.

Sueldos
Empleados (Frecuencias
absolutas)
Frecuencias relativas
(Millones) Simple Acumulada Simple Acumulada
3,5 10 10 25,0% 25,0%
4,5 10 20 25,0% 50,0%
6,0 8 28 20,0% 70,0%
8,0 5 33 12,5% 82,5%
10,0 3 36 7,5% 90,0%
15,0 0 36 0,0% 90,0%
20,0 4 40 10,0% 100,0%

En este caso obtendramos los siguientes datos:

Xi ni Z ni pi Xi * ni Z Xi * ni qi pi - qi
3,5 10 10 25,0 35 35 11,7 13,26
4,5 10 20 50,0 45 80 26,8 23,15
6,0 8 28 70,0 48 128 43,0 27,05
8,0 5 33 82,5 40 168 56,4 26,12
10,0 3 36 90,0 30 198 66,4 23,56
15,0 0 36 90,0 0 198 66,4 23,56
25,0 4 40 100,0 100 298 100,0 0,00
Z pi (entre 1 y n-1) = 407,5 x Z (pi - qi) (entre 1 y n-1 ) = 136,69

El Indice Gini sera:
IG = 136,69 / 407,5 = 0,34

El Indice Gini se ha elevado considerablemente, reflejando la mayor concentracin de rentas que
hemos comentado.

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
16/90
Medidas de forma: Coeficiente de Asimetra

Asimetra
Hemos comentado que el concepto de asimetra se refiere a si la curva que forman los valores de la
serie presenta la misma forma a izquierda y derecha de un valor central (media aritmtica)

Para medir el nivel de asimetra se utiliza el llamado Coeficiente de Asimetra de Fisher, que viene
definido:

Los resultados pueden ser los siguientes:
g1 = 0 (distribucin simtrica; existe la misma concentracin de valores a la derecha y a la izquierda
de la media)
g1 > 0 (distribucin asimtrica positiva; existe mayor concentracin de valores a la derecha de la
media que a su izquierda)
g1 < 0 (distribucin asimtrica negativa; existe mayor concentracin de valores a la izquierda de la
media que a su derecha)
Ejemplo: Vamos a calcular el Coefiente de Asimetra de Fisher de la serie de datos referidos a la
estatura de un grupo de alumnos (leccin 2):


Variable Frecuencias absolutas Frecuencias relativas
(Valor) Simple Acumulada Simple Acumulada
1,20 1 1 3,3% 3,3%
1,21 4 5 13,3% 16,6%
1,22 4 9 13,3% 30,0%
1,23 2 11 6,6% 36,6%
1,24 1 12 3,3% 40,0%
1,25 2 14 6,6% 46,6%
1,26 3 17 10,0% 56,6%
1,27 3 20 10,0% 66,6%
1,28 4 24 13,3% 80,0%
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
17/90
1,29 3 27 10,0% 90,0%
1,30 3 30 10,0% 100,0%

Recordemos que la media de esta muestra es 1,253

((xi - x)^3)*ni ((xi - x)^2)*ni
0,000110 0,030467
Luego: (1/30) * 0,000110
g1 = -------------------------------------------- = -0,1586
(1/30) * (0,030467)^(3/2)
Por lo tanto el Coeficiente de Fisher de Simetra de esta muestra es -0,1586, lo que quiere decir
que presenta una distribucin asimtrica negativa (se concentran ms valores a la izquierda de la
media que a su derecha).

Medidas de forma: Coeficiente de Curtosis

Curtosis
El Coeficiente de Curtosis analiza el grado de concentracin que presentan los valores alrededor de
la zona central de la distribucin.
Se definen 3 tipos de distribuciones segn su grado de curtosis:
Distribucin mesocrtica: presenta un grado de concentracin medio alrededor de los valores
centrales de la variable (el mismo que presenta una distribucin normal).
Distribucin leptocrtica: presenta un elevado grado de concentracin alrededor de los valores
centrales de la variable.
Distribucin platicrtica: presenta un reducido grado de concentracin alrededor de los valores
centrales de la variable.

El Coeficiente de Curtosis viene definido por la siguiente frmula:


Los resultados pueden ser los siguientes:
g2 = 0 (distribucin mesocrtica).
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
18/90
g2 > 0 (distribucin leptocrtica).
g2 < 0 (distribucin platicrtica).
Ejemplo: Vamos a calcular el Coefiente de Curtosis de la serie de datos referidos a la estatura de un
grupo de alumnos (leccin 2):

Variable Frecuencias absolutas Frecuencias relativas
(Valor) Simple Acumulada Simple Acumulada
1,20 1 1 3,3% 3,3%
1,21 4 5 13,3% 16,6%
1,22 4 9 13,3% 30,0%
1,23 2 11 6,6% 36,6%
1,24 1 12 3,3% 40,0%
1,25 2 14 6,6% 46,6%
1,26 3 17 10,0% 56,6%
1,27 3 20 10,0% 66,6%
1,28 4 24 13,3% 80,0%
1,29 3 27 10,0% 90,0%
1,30 3 30 10,0% 100,0%

Recordemos que la media de esta muestra es 1,253

((xi - xm)^4)*ni ((xi - xm)^2)*ni
0,00004967 0,03046667

Luego:
(1/30) * 0,00004967
g2 = ------------------------------------------- - 3 = -1,39
((1/30) * (0,03046667))^2

Por lo tanto, el Coeficiente de Curtosis de esta muestra es -1,39, lo que quiere decir que se trata de
una distribucin platicrtica, es decir, con una reducida concentracin alrededor de los valores
centrales de la distribucin.

Distribuciones bidimensionales
Las distribuciones bidimensionales son aquellas en las que se estudian al mismo tiempo dos variables
de cada elemento de la poblacin: por ejemplo: peso y altura de un grupo de estudiantes; superficie y
precio de las viviendas de una ciudad; potencia y velocidad de una gama de coches deportivos. Para
representar los datos obtenidos se utiliza una tabla de correlacin:
X / Y y1 y2 ..... ym-1 ym
X1 n1,1 n1,2 x n1,m-1 n1,m
X2 n2,1 n2,2 x n2,m-1 n2,m
..... x x x x x
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
19/90
xn-1 nn-1,1 nn-1,2 x nn-1,m-1 nn-1,m
xn nn,1 nn,2 x nn,m-1 nn,m
Las "x" representan una de las variables y las "y" la otra variable. En cada interseccin de una valor
de "x" y un valor de "y" se recoge el nmero de veces que dicho par de valores se ha presentado
conjuntamente.
Ejemplo: Medimos el peso y la estatura de los alumnos de una clase y obtenemos los siguientes
resultados:
Alumno Estatura Peso Alumno Estatura Peso Alumno Estatura Peso
Alumno 1 1,25 32 Alumno 11 1,25 31 Alumno 21 1,25 33
Alumno 2 1,28 33 Alumno 12 1,28 35 Alumno 22 1,28 32
Alumno 3 1,27 31 Alumno 13 1,27 34 Alumno 23 1,27 34
Alumno 4 1,21 34 Alumno 14 1,21 33 Alumno 24 1,21 34
Alumno 5 1,22 32 Alumno 15 1,22 33 Alumno 25 1,22 35
Alumno 6 1,29 31 Alumno 16 1,29 31 Alumno 26 1,29 31
Alumno 7 1,30 34 Alumno 17 1,30 35 Alumno 27 1,30 34
Alumno 8 1,24 32 Alumno 18 1,24 32 Alumno 28 1,24 33
Alumno 9 1,27 32 Alumno 19 1,27 31 Alumno 29 1,27 35
Alumno 10 1,29 35 Alumno 20 1,29 33 Alumno 30 1,29 34
Esta informacin se puede representar de un modo ms organizado en la siguiente tabla de
correlacin:
Estatura / Peso 31 kg 32 kg 33 kg 34 kg 35 kg
1,21 cm 0 0 1 2 0
1,22 cm 0 1 1 0 1
1,23 cm 0 0 0 0 0
1,24 cm 0 2 1 0 0
1,25 cm 1 1 1 0 0
1,26 cm 0 0 0 0 0
1,27 cm 2 1 0 2 1
1,28 cm 0 1 1 0 1
1,29 cm 3 0 1 1 1
1,30 cm 0 0 0 2 1
Tal como se puede ver, en cada casilla se recoge el nmero de veces que se presenta
conjuntamente cada par de valores (x,y).
Tal como vimos en las distribuciones unidimensionales si una de las variables (o las dos) presentan
gran nmero de valores diferentes, y cada uno de ellos se repite en muy pocas ocasiones, puede
convenir agrupar los valores de dicha variable (o de las dos) en tramos.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
20/90
Distribuciones marginales
Al analizar una distribucin bidimensional, uno puede centrar su estudio en el comportamiento de una
de las variables, con independencia de como se comporta la otra. Estaramos as en el anlisis de
una distribucin marginal.
De cada distribucin bidimensional se pueden deducir dos distribuciones marginales: una
correspondiente a la variable x, y otra correspondiente a la variable y.
Distribucin marginal de X
X ni.
x1 n1.
x2 n2.
..... ...
xn-1 nn-1.
xn nn.
Distribucin marginal de Y
Y n.j
y1 n.1
y2 n.2
..... ...
ym-1 n.m-1
ym n.m
Ejemplo: a partir del ejemplo que vimos en la leccin anterior (serie con los pesos y medidas de los
alumnos de una clase) vamos a estudiar sus distribuciones marginales.
Estatura / Peso 31 kg 32 kg 33 kg 34 kg 35 kg
1,21 cm 0 0 1 2 0
1,22 cm 0 1 1 0 1
1,23 cm 0 0 0 0 0
1,24 cm 0 2 1 0 0
1,25 cm 1 1 1 0 0
1,26 cm 0 0 0 0 0
1,27 cm 2 1 0 2 1
1,28 cm 0 1 1 0 1
1,29 cm 3 0 1 1 1
1,30 cm 0 0 0 2 1
Las variables marginales se comportan como variables unidimensionales, por lo que pueden ser
representadas en tablas de frecuencias.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
21/90
a) Distribucin marginal de la variable X (estatura)
Obtenemos la siguiente tabla de frecuencia:
Variable Frecuencias absolutas Frecuencias relativas
(Estatura) Simple Acumulada Simple Acumulada
1,21 3 3 10,0% 10,0%
1,22 3 6 10,0% 20,0%
1,23 0 6 0,0% 20,0%
1,24 3 9 10,0% 30,0%
1,25 3 12 10,0% 40,0%
1,26 0 12 0,0% 40,0%
1,27 6 18 20,0% 60,0%
1,28 3 21 10,0% 70,0%
1,29 6 27 20,0% 90,0%
1,30 3 30 10,0% 100,0%

b) Distribucin marginal de la variable Y (peso)
Obtenemos la siguiente tabla de frecuencia:
Variable Frecuencias absolutas Frecuencias relativas
(Peso) Simple Acumulada Simple Acumulada
31 6 6 20,0% 20,0%
32 6 12 20,0% 40,0%
33 6 18 20,0% 60,0%
34 7 25 23,3% 83,3%
35 5 30 16,6% 100,0%
Coeficiente de Correlacin Lineal
En una distribucin bidimensional puede ocurrir que las dos variables guarden algn tipo de relacin
entre si.
Por ejemplo, si se analiza la estatura y el peso de los alumnos de una clase es muy posible que
exista relacin entre ambas variables: mientras ms alto sea el alumno, mayor ser su peso.
El coeficiente de correlacin lineal mide el grado de intensidad de esta posible relacin entre las
variables. Este coeficiente se aplica cuando la relacin que puede existir entre las variables es lineal
(es decir, si representamos en un grfico los pares de valores de las dos variables la nube de puntos
se aproximara a una recta).

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
22/90


No obstante, puede que exista una relacin que no sea lineal, sino exponencial, parablica, etc. En
estos casos, el coeficiente de correlacin lineal medira mal la intensidad de la relacin las variables,
por lo que convendra utilizar otro tipo de coeficiente ms apropiado.

Para ver, por tanto, si se puede utilizar el coeficiente de correlacin lineal, lo mejor es representar los
pares de valores en un grfico y ver que forma describen.

El coeficiente de correlacin lineal se calcula aplicando la siguiente frmula:

Es decir:
Numerador: se denomina covarianza y se calcula de la siguiente manera: en cada par de valores
(x,y) se multiplica la "x" menos su media, por la "y" menos su media. Se suma el resultado obtenido
de todos los pares de valores y este resultado se divide por el tamao de la muestra.
Denominador se calcula el producto de las varianzas de "x" y de "y", y a este producto se le calcula
la raz cuadrada.
Los valores que puede tomar el coeficiente de correlacin "r" son: -1 < r < 1
Si "r" > 0, la correlacin lineal es positiva (si sube el valor de una variable sube el de la otra). La
correlacin es tanto ms fuerte cuanto ms se aproxime a 1.
Por ejemplo: altura y peso: los alumnos ms altos suelen pesar ms.
Si "r" < 0, la correlacin lineal es negativa (si sube el valor de una variable disminuye el de la otra).
La correlacin negativa es tanto ms fuerte cuanto ms se aproxime a -1.
Por ejemplo: peso y velocidad: los alumnos ms gordos suelen correr menos.
Si "r" = 0, no existe correlacin lineal entre las variables. Aunque podra existir otro tipo de
correlacin (parablica, exponencial, etc.)
De todos modos, aunque el valor de "r" fuera prximo a 1 o -1, tampoco esto quiere decir
obligatoriamente que existe una relacin de causa-efecto entre las dos variables, ya que este
resultado podra haberse debido al puro azar.

Ejemplo: vamos a calcular el coeficiente de correlacin de la siguiente serie de datos de altura y peso
de los alumnos de una clase:

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
23/90

Alumno Estatura Peso Alumno Estatura Peso Alumno Estatura Peso
Alumno 1 1,25 32 Alumno 11 1,25 33 Alumno 21 1,25 33
Alumno 2 1,28 33 Alumno 12 1,28 35 Alumno 22 1,28 34
Alumno 3 1,27 34 Alumno 13 1,27 34 Alumno 23 1,27 34
Alumno 4 1,21 30 Alumno 14 1,21 30 Alumno 24 1,21 31
Alumno 5 1,22 32 Alumno 15 1,22 33 Alumno 25 1,22 32
Alumno 6 1,29 35 Alumno 16 1,29 34 Alumno 26 1,29 34
Alumno 7 1,30 34 Alumno 17 1,30 35 Alumno 27 1,30 34
Alumno 8 1,24 32 Alumno 18 1,24 32 Alumno 28 1,24 31
Alumno 9 1,27 32 Alumno 19 1,27 33 Alumno 29 1,27 35
Alumno 10 1,29 35 Alumno 20 1,29 33 Alumno 30 1,29 34

Aplicamos la frmula:



Luego,




Por lo tanto, la correlacin existente entre estas dos variables es elevada (0,7) y de
signo positivo.



Tcnicas Grficas

La forma ms rpida y eficiente de captar informacin en los datos es mediante diversos grficos que
tienen por objetivo destacar las estructuras internas que pudieran tener los datos. Vamos a estudiar
tres tcnicas grficas de gran utilidad. El histograma de frecuencias, el Diagrama de Tallo y Hojas y
el Diagrama de Caja.

Histograma

El histograma proporciona informacin sobre la frecuencia con que se obtienen observaciones de
cada valor. Su interpretacin es simple y es sencillo de realizar. Vamos a estudiarlo con un ejemplo.
Los datos que se presentan son las alturas de 117 estudiantes de ingeniera industrial.

Altura de 117 alumnos de la escuela de Ingenieros Industriales
180 178 192 180 162 183 168 160 182 172 163 175
163 182 179 174 182 178 159 157 175 175 178 179
189 180 182 165 178 155 178 182 178 180 183 179
170 165 185 162 170 174 190 178 163 170 180 189
180 175 167 167 173 172 175 175 165 180 173 165
163 169 162 169 178 163 184 172 169 176 164 178
187 181 199 190 169 179 184 187 175 176 179 161
178 178 169 179 175 177 169 175 178 177 184 180
175 175 184 156 173 192 186 180 169 171 172 180
193 182 185 177 170 173 192 166 173

(1/30) * (0,826)
r = ----------------------------------------------------------
(((1/30)*(0,02568)) * ((1/30)*(51,366)))^(1/2)
r =
0,719


UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
24/90
La observacin de los datos puede llevarnos algunas conclusiones, pero evidentemente no parece
una forma eficiente de obtener informacin. Nos gustara poder entender cmo es la altura de una
forma mucho ms sencilla. Tambin nos gustara saber si, por ejemplo un chico de 1.60 es bajo, alto
o normal.

La primera tcnica grca que vamos a introducir es el histograma. Un histograma es una
representacin de las frecuencias con que aparecen los distintos valores en lamuestra. Para realizar
un histograma es preciso obtener la tabla de frecuencias de la variable. La tabla de frecuencias de la
variable se obtiene contando el nmero de alturas que se han encontrado en cada intervalo. En
nuestro caso vamos a dividir el intervalo de las alturas en 8 clases o intervalos. El valor mnimo
observado es 155 y el mximo 199. Entonces vamos a dividir el intervalo 155 a 199 en 8 clases. Cada
intervalo tendr un tamao de:

(199-155)/8=5.5cm

Los intervalos o clases sern por tanto: 155-160.5, 160.5-166, 166-171.5... etc

Construimos una tabla de frecuencias en la que se recoge el nmero de individuos que se observan
en cada una de las clases. A esta tabla se le llama Tabla de Frecuencias.

Tabla de Frecuencias
Intervalo Min Mx Punto Medio Frec Abs Frec Rel
1 155 160.5 157.75 1 0.0427
2 160.5 166 163.25 15 0.1282
3 166 171.5 168.75 15 0.1282
4 171.5 177 174.25 27 0.2308
5 177 182.5 179.75 35 0.2991
6 182.5 188 185.25 11 0.0940
7 188 193.5 190.75 8 0.0684
8 193.5 199 196.25 1 0.0085



El histograma muestra las frecuencias obtenidas en cada uno de los intervalos. Es un grfico muy til
pues permite resumir la informacin rpidamente. As por ejemplo, podemos decir que la altura
habitual de los estudiantes oscila entre 155 y 199, pero la gran mayora tiene una altura entre 1.70 y
1.85.

Diagrama de Tallo y hojas.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
25/90

El diagrama de tallo y hojas ofrece una informacin anloga a la del histograma pero es mucho ms
sencillo de realizar si no se dispone de ordenador. Vamos a introducirlo con un ejemplo:

Las notas obtenidas por un grupo de alumnos de Estadstica ha sido:

Notas de Estadstica: 4.3, 5.2, 6, 7.2, 6.5, 5, 4, 6.2, 7.5, 9, 4.4, 5, 6, 8, 3.4, 2, 8.9, 10, 5, 5.5, 3, 5.5

Diagrama de tallo y Hojas

0
1
2 0
3 45
4 304
5 200055
6 0520
7 25
8 09
9 0
10 0

El diagrama de tallo y hojas se construye separando para cada dato el ltimo dgito de la derecha. Por
ejemplo en la columna 4j304 se estn representando los datos 4.3 4.0 y 4.4 que son todos los datos
que empiezan por 4.

La visin de un diagrama de tallo y hojas, permite detectar rpidamente pautas en los datos. As, en
nuestro caso el profesor que ha puesto estas notas parece equilibrado. Hay muchos aprobados, y
tambin hay buenas notas. Si hubisemos obtenido un diagrama como el siguiente:

Diagrama de tallo y Hojas

0 00000000333050305
1 246342000255676
2 09356623245
3 45
4 304
5 20
6 0520
7 890
10 0

Qu tipo de profesor tendramos?


Diagrama de Caja.

El diagrama de caja es un grfico muy interesante que proporciona informacin sobre la existencia de
datos atpicos. El diagrama de caja o Box-Plot es uno de los grficos ms completos y tiles para
esumir informacin: Detecta muy bien la existencia de valores atpicos y permite comparar varias
muestras de forma muy eficiente. El diagrama de Caja representa la mediana y los cuartiles de la
muestra en una caja.

Los cuartiles son los valores que dejan por debajo el 25% (cuartil inferior) y el 75% (cuartil superior)
de la muestra. La construccin del diagrama de caja es simple:

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
26/90
1. Se calcula el valor del cuartil inferior y superior Qi;QS
2. Se calcula el Valor de la Mediana: Med
3. Se Calcula el Rango intercuartlico: RI = Qs Qi
4. Se dibuja la caja entre Qi y QS. Se hace una raya vertical en la mediana.
5. Se calculan los puntos de corte para datos atpicos:

Se consideran datos atpicos los menores del primer cuartil o mayores que el tercero que estn a una
distancia superior a una vez y media del RI de su cuartil. Es decir sern puntos atpicos por ser muy
bajos los que sean menores que Qi 1:5RI Y sern atpicos por ser demasiado altos Qs + 1:5RI

Si no hay datos atpicos el diagrama de caja se representa mediante la caja y dos lneas a cada lado
de ella que llegan al mximo y al mnimo de la muestra respectivamente. Si existen atpicos se pintan
las lneas hasta el lmite de los atpicos:

Qi 1:5RI y Qs + 1:5RI:Y se marcan los puntos atpicos mediante cruces.

Se tiene la siguiente relacin de pesos de alumnos de la Universidad:

55 59 61 62 64 64 67 68 68 68 69 70 72 73 74 75 75 76 78 80 96.

Hay 21 observaciones.
La mediana ser la observacin 11: Med = 69:
El cuartil inferior ser la media de las observaciones 5 y 6, 64 y 64, Qi = 64
El Cuartil superior ser la media de las observaciones 16 y 17, 75 y 75Qs = 75:
El Rango Intercuartlico ser: RI = 75 64 = 11
Corte inferior de atpicos: Qi 1:5RI = 64 1:5x11 = 64 11 = 47:5
Corte superior de atpicos: Qs + 1:5RI = 75 + 1:5x11 = 75 + 11 = 86

Como puede verse, no existen atpicos inferiores y si superiores. As la raya inferior llegar hasta el
valor mnimo y la superior hasta el corte de atpicos. Pintaremos 96 con una cruz:


Grficos de Variables Cualitativas

Decimos que una variable es cualitativa cuando no tiene una representacin numrica clara. Por
ejemplo, entre los coches vendidos en Estados Unidos en 1982 haba coches norteamericanos,
Japoneses y Europeos. Se sabe que haba un 54.84% de coches fabricados en EE.UU. un 16.77% de
coches fabricados en Europa y un 28.39% de coches japoneses. Una buena representacin grfica
de estos datos es mediante una Tarta. En ella queda meridianamente reflejada la proporcin entre los
datos de los fabricantes de automviles.

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
27/90


Una representacin alternativa es el diagrama de barras que ofrece una informacin similar.:


Diagrama de Pareto

El diagrama de Pareto es una consecuencia de que cuando se analizan las causas de un problema,
en general son relativamente pocas. Esencialmente es un diagrama de barras tal que las barras estn
ordenadas de mayor a menor.

Se ha tomado nota durante dos meses de las reclamaciones de los clientes de un servicio de
autobuses. Las causas de las reclamaciones se han clasicado y se han obtenido los datos
siguientes:
Causa Nmero de Quejas
Retrasos 21
Masificacin 12
Parada lejos 3
Frenazos 3
Otras 4

Si se realiza el diagrama de barras obtenemos:

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
28/90

Como puede observarse el diagrama de Pareto ofrece tambin los porcentajes acumulados de las
diversas causas ordenadas. En este ejemplo de autobuses podemos observar que el 76% de las
quejas se reeren a retrasos y masificacin, que generalmente van asociados, ya que cuando un
autobs se retrasa, se acumulan los viajeros que lo estn esperando con la consiguiente
masificacin.

Series Temporales

Las series temporales surgen constantemente cuando se quiere estudiar la evolucin de una variable
a travs del tiempo. El grfico natural de una serie temporal es su representacin a lo largo del
tiempo. Cuando estudiamos series temporales es muy importante conocer una serie de conceptos:

Periodicidad de la serie: Es la frecuencia con que se toman los datos. Las series pueden ser
de periodicidad anual (Se tienen un dato por ao), mensual (un dato al mes), trimestral (un
dato al trimestre) u otras.
Tendencia: Decimos que una serie tiene tendencia cuando su grfico aumenta o disminuye
de una forma sistemtica con el tiempo.
Estacionalidad: Decimos que una serie tiene estacionalidad si se observa un ciclo que est
ligado al mes del ao en que se ha tomado el dato.

A continuacin se presenta un conjunto de grficos de series temporales.




Figura 3: Serie Peridica

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
29/90

Regresin lineal
Representamos en un grfico los pares de valores de una distribucin bidimensional: la variable "x"
en el eje horizontal o eje de abcisa, y la variable "y" en el eje vertical, o eje de ordenada. Vemos que
la nube de puntos sigue una tendencia lineal:

El coeficiente de correlacin lineal nos permite determinar si, efectivamente, existe relacin entre
las dos variables. Una vez que se concluye que s existe relacin, la regresin nos permite definir la
recta que mejor se ajusta a esta nube de puntos.

Una recta viene definida por la siguiente frmula:
y = a + bx
Donde "y" sera la variable dependiente, es decir, aquella que viene definida a partir de la otra
variable "x" (variable independiente). Para definir la recta hay que determinar los valores de los
parmetros "a" y "b":
El parmetro "a" es el valor que toma la variable dependiente "y", cuando la variable independiente
"x" vale 0, y es el punto donde la recta cruza el eje vertical.
El parmetro "b" determina la pendiente de la recta, su grado de inclinacin.
La regresin lineal nos permite calcular el valor de estos dos parmetros, definiendo la recta que
mejor se ajusta a esta nube de puntos.
El parmetro "b" viene determinado por la siguiente frmula:

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
30/90
Es la covarianza de las dos variables, dividida por la varianza de la variable "x". El parmetro "a"
viene determinado por:

a = ym - (b * xm)

Es la media de la variable "y", menos la media de la variable "x" multiplicada por el parmetro "b" que
hemos calculado.

Ejemplo: vamos a calcular la recta de regresin de la siguiente serie de datos de altura y peso de los
alumnos de una clase. Vamos a considerar que la altura es la variable independiente "x" y que el
peso es la variable dependiente "y" (podamos hacerlo tambin al contrario):

Alumno Estatura Peso Alumno Estatura Peso Alumno Estatura Peso
Alumno 1 1,25 32 Alumno 11 1,25 33 Alumno 21 1,25 33
Alumno 2 1,28 33 Alumno 12 1,28 35 Alumno 22 1,28 34
Alumno 3 1,27 34 Alumno 13 1,27 34 Alumno 23 1,27 34
Alumno 4 1,21 30 Alumno 14 1,21 30 Alumno 24 1,21 31
Alumno 5 1,22 32 Alumno 15 1,22 33 Alumno 25 1,22 32
Alumno 6 1,29 35 Alumno 16 1,29 34 Alumno 26 1,29 34
Alumno 7 1,30 34 Alumno 17 1,30 35 Alumno 27 1,30 34
Alumno 8 1,24 32 Alumno 18 1,24 32 Alumno 28 1,24 31
Alumno 9 1,27 32 Alumno 19 1,27 33 Alumno 29 1,27 35
Alumno 10 1,29 35 Alumno 20 1,29 33 Alumno 30 1,29 34

El parmetro "b" viene determinado por:
(1/30) * 1,034
------------------------------------ = 40,265 b =
(1/30) * 0,00856
Y el parmetro "a" por:
a = 33,1 - (40,265 * 1,262) = -17,714

Por lo tanto, la recta que mejor se ajusta a esta serie de datos es:
y = -17,714 + (40,265 * x)

Esta recta define un valor de la variable dependiente (peso), para cada valor de la variable
independiente (estatura):

Estatura Peso
1,20 30,6
1,21 31,0
1,22 31,4
1,23 31,8
1,24 32,2
1,25 32,6
1,26 33,0
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
31/90
1,27 33,4
1,28 33,8
1,29 34,2
1,30 34,6
Resumen de Tipos de Datos
Variable: es una caracterstica que puede tomar diferentes valores.

Datos: son medidas y/o nmeros recopilados a partir de la observacin.

Variables aleatorias: son variables que son seleccionadas al azar o por procesos aleatorios. Por lo
general se denominan con las letras x, y, z.

Variable cualitativa: se refiere a variables clasificables, no corresponde con los nmeros. Ej.:
nacionalidad, estado civil, idioma, etc.

Variable cuantitativa: Son las que se refieren a nmeros y su correspondiente unidad de medida.
Las hay de dos (2) tipos:

Discreta: Que solo presenta datos reales, es decir, entre una cantidad y otra consecutiva no
hay ms nmeros.

Continua: Aquella que puede tomar ms valores entre una cantidad y otra consecutiva.


Componentes de una Investigacin Estadstica

Poblacin: Conjunto formado por todos los valores posibles que puede tomar la variable a estudiar.

Muestra: Subconjunto de la poblacin, una parte de la misma escogido segn ciertos criterios de
seleccin.

Parmetro: Caracterstica de una poblacin, resumida para su estudio. Se considera como un valor
verdadero de la caracterstica estudiada. Para obtener conclusiones racionales y eficaces de
parmetros poblacionales se siguen los siguientes pasos:

1. Formulacin del Problema: Se debe especificar la pregunta que se debe responder y la
poblacin de datos asociada a la pregunta.

2. Diseo del Experimento: Se debe obtener la mxima informacin con el mnimo costo
posible, por tanto se debe determinar el tamao de la muestra o la cantidad de datos que nos
permita resolver el problema de la manera ms eficientes.

3. Recoleccin de datos: Debe ajustarse a reglas estrictas ya que de los datos se espera extraer
la informacin deseada.

4. Tabulacin y Descripcin de los resultados: Los datos se exponen de manera clara y se
ilustran con representaciones tabulares y grficas. Se calculan las medidas estadsticas
apropiadas al proceso inferencial escogido.

Inferencia Estadstica y Conclusiones: Se fija el nivel de confiabilidad para la inferencia, denominada
nivel de confianza o nivel de significancia. Este proceso nos lleva a una conclusin estadstica que
servir de orientacin a quien debe tomar la decisin sobre el tema de estudio.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
32/90

Probabilidad

Cada vez que utilizamos las matemticas con el objeto de estudiar fenmenos
observables es indispensable empezar por construir un modelo matemtico
(determinstico o probabilstico) para estos fenmenos. Necesariamente, este
modelo debe simplificar las cosas y permitir la omisin de ciertos detalles. El xito
del modelo depende de si los detalles que se omitieron tienen o no importancia en el
desarrollo de los fenmenos estudiados. La solucin del problema matemtico
puede ser correcta y an as estar en desacuerdo con los datos observados, debido
sencillamente a que no estaba probada la validez de las suposiciones bsicas que
se hicieron. Normalmente es bastante difcil afirmar con certeza si un modelo
matemtico es adecuado o no, antes de obtener algunos datos, mediante la
observacin. Para verificar la validez del modelo, debemos deducir un cierto nmero
de consecuencias del mismo y luego comparar con las observaciones esos
resultados predichos.(Prof. J. Neyman)


El estudio formal de la teora de la probabilidad se origin en los siglos diez y siete y diez y ocho en
Francia y fue motiva por el estudio de los juegos de azar. Slo en el siglo diez y nueve, la visin y
aplicacin de la probabilidad comenz a cambiar, esto es cuando se desarroll un modelo
probabilstico para el comportamiento de las molculas en un lquido un modelo (descripcin).

Posteriormente Albert Einstein explic el movimiento browniano bajo la hiptesis de que las partculas
se sometan a un bombardeo continuo de molculas del medio circundante. Estos resultados
estimularon el inters por la aplicacin de la probabilstica hasta que finalmente al final del mismo
siglo y principios del veinte se requiri un sistema telefnico que permitiera la interconexin de
telfonos individuales con duracin de llamadas e intervalos de Inter.-demanda que presentaban gran
variacin.

A pesar de todos estos avances en el uso de la probabilidad se cree que no fue hasta 1932 a 1934
cuando apareci una estructura matemtica rigurosa para la probabilidad.

En la naturaleza existen muchos ejemplos de experimentos donde los modelos determinsticos son
apropiados; es decir, hay experimentos que no son aleatorios y por lo tanto no se les puede aplicar
las reglas de la probabilidad.
Un ejemplo de este tipo de experimento es el hecho de que en lugar de lanzar la moneda al aire,
directamente seleccionamos la cara. Aqu no podemos hablar de probabilidades, sino que ha sido un
resultado determinado por uno mismo tambin est la aplicacin de las leyes gravitacionales.
Sin embargo, hay tambin fenmenos que necesitan de un modelo matemtico distinto para su
investigacin por lo que se utilizan aquellos modelos denominados como probabilsticos (o tambin
estocsticos). As por ejemplo, si tuviramos un pedazo de material radioactivo que emite partculas
; podramos medir la emisin de dichas partculas en un determinado intervalo de tiempo, pero an
conociendo la composicin qumica y la masa del objeto (propiedades fsicas), no nos sera posible
predecir exactamente el nmero de partculas emitidas.

En resumen entonces, un modelo determinstico permite conocer el resultado real (sea numrico o de
otra especie) est definido pro las condiciones en las cuales se efecta el experimento procedimiento.
En un modelo no determinstico, las condiciones experimentales solo determinan el comportamiento
probabilstico (ms especficamente, la distribucin probabilstica) de los resultados observables. En
otras palabras, en un modelo determinstico, se utilizan consideraciones especficas para predecir el
resultado, mientras qne un modelo estocstico usamos la misma clase de consideraciones que para
especificar una distribucin de probabilidades.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
33/90
La probabilidad entonces mide la frecuencia con la que aparece un resultado determinado cuando
se realiza un experimento.
Ejemplo: tiramos un dado al aire y queremos saber cual es la probabilidad de que salga un 2, o que
salga un nmero par, o que salga un nmero menor que 4.
La teora de la probabilidad ha sido motivada por diversas situaciones de la vida real en las que se
realiza un experimento y el investigador observa un resultado. Adems, dicho resultado no puede
predecirse con certeza. A estos experimentos se los denomina experimentos aleatorios.

El concepto de un experimento aleatorio se considera desde el punto de vista matemtico como una
nocin primitiva y por ello no se define de otra manera. Sin embargo, puede notarse que los
experimentos aleatorios tienen algunas caractersticas comunes:

1. Pueden repetirse indefinidamente sin cambiar esencialmente las condiciones
2. Son experimentos no-determinsticos
3. Cada experimento tiene varios resultados posibles que pueden describirse de antemano con
precisin.

El experimento tiene que ser aleatorio, es decir, que pueden presentarse diversos resultados,
dentro de un conjunto posible de soluciones, y esto an realizando el experimento en las mismas
condiciones. Por lo tanto, a priori no se conoce cual de los resultados se va a presentar:
Ejemplos: lanzamos una moneda al aire: el resultado puede ser cara o cruz, pero no sabemos de
antemano cual de ellos va a salir.
En la Lotera de Navidad, el "Gordo" (en Espaa se llama "Gordo" al primer premio) puede ser
cualquier nmero entre el 1 y el 100.000, pero no sabemos a priori cual va a ser (si lo supiramos no
estaramos aqu escribiendo esta leccin).
Antes de calcular las probabilidades de un experimento aleatorio hay que definir una serie de
conceptos:

Espacios Muestrales y Eventos

El espacio muestral asociado a un experimento aleatorio, es el conjunto de todos los resultados
posibles de dicho experimento aleatorio. Los experimentos pueden ser compuestos. Es decir,
pueden ser el resultado de dos o ms experimentos simples sucesivos o simultneos.

Un espacio muestral discreto es aquel en el que hay un nmero finito de resultados o un nmero
finito contable (numerable) de resultados. Del mismo modo un espacio muestral continuo tiene
resultados incontables.

Espacios Muestrales Discreto Finitos: Son aquellos que tienen un nmero finito de elementos

Espacios Muestrales Discretos Infinitos: Son aquellos que tienen un nmero infinito de elementos
identificados con los nmeros enteros Naturales.

Espacios Muestrales Continuos: Son aquellos que tienen un nmero no numerable de elementos y
stos son los puntos de algn intervalo.

Puntos Muestrales: hace referencia a cada una de las posibles soluciones que se pueden presentar.

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
34/90
Ejemplo: al lanzar una moneda al aire, los sucesos elementales son la cara y la cruz. Al lanzar
un dado, los sucesos elementales son el 1, el 2, .., hasta el 6.
Otros ejemplos de Espacios Muestrales

1. El lanzamiento de una moneda y observar el lado que cae hacia arriba
2. Lanzar tres veces una moneda y observar la secuencia de caras y sellos
3. Lanzar tres veces una moneda y observar el nmero total de caras
4. Se fabrica un tubo de rayos catdicos y se somete a una prueba de duracin hasta
que ocurra la falla. Se registra el tiempo (horas) de buen funcionamiento.
5. En el lanzamiento de un misil, se monitorean desde la tierra los tres componentes de
velocidad como una funcin del tiempo. Un minuto despus del lanzamiento se
imprimen dichas componentes en una unidad de control.

Al conjunto de todos los posibles sucesos elementales lo denominamos espacio muestral. Cada
experimento aleatorio tiene definido su espacio muestral (es decir, un conjunto con todas las
soluciones posibles).
Ejemplo: si tiramos una moneda al aire una sola vez, el espacio muestral ser cara o cruz.
Si el experimento consiste en lanzar una moneda al aire dos veces, entonces el espacio muestral
estara formado por (cara-cara), (cara-cruz), (cruz-cara) y (cruz-cruz).
Eventos

Un evento, denominado A, est asociado al espacio muestral del experimento. El espacio muestral se
considera el conjunto universal, de modo que A es simplemente un subconjunto del espacio muestral
()

En resumen, se denomina Evento a cualquier subconjunto del Espacio Muestral.
Ejemplo: lanzamos un dado y queremos que salga un nmero par. El suceso "numero par" es un
suceso compuesto, integrado por 3 sucesos elementales: el 2, el 4 y el 6
Otro ejemplo; jugamos a la ruleta y queremos que salga "menor o igual que 18". Este es un suceso
compuesto formado por 18 sucesos elementales (todos los nmeros que van del 1 al 18).
Clculo de Probabilidades
Si un experimento tiene un espacio muestral y un evento A est definido en , entonces P(A) es
un nmero real al que se le denomina la probabilidad de un evento A o la probabilidad de A. La
funcin P() tiene las siguientes propiedades:

1. 0 P(A) 1 para cada evento A de
2. P() = 1
3. Para cualquier nmero finito k de eventos mutuamente excluyentes definidos en .

= =
=
|
|
.
|

\
|
k
i
i
k
i
i
A P A P
1 1
) (


4. Si A
1
, A
2
, A
3
, ........ es una secuencia numerable de eventos mutuamente excluyentes
definidos en , entonces:

=
=
|
|
.
|

\
|
1 1
) (
i
i
i
i
A P A P


UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
35/90

Ntese que las propiedades de la definicin dada no dice al experimentador cmo asignar las
probabilidades; sin embargo, restringen la manera en que la asignacin puede llevarse a cabo. En la
prctica la probabilidad se asigna en base a (1) estimaciones obtenidas de experiencias u
observaciones previas, (2) una consideracin analtica de las condiciones experimentales, o (3) una
suposicin.

Definicin

El valor
A
=

m
A
/m se denomina frecuencia relativa del evento A. Tiene las siguientes propiedades:

a) 0
A
1

b)
A
= 0 si y solo si A nunca ocurre, y
A
= 1 si y solo si A ocurre en cada repeticin

c) Si A y B son eventos mutuamente excluyentes, entonces F
AUB
=
A
+
B


El hecho de que
A
tiende a estabilizarse a medida que m se vuelve ms grande, es una
consecuencia de la regularidad que a su vez es consecuencia del requisito de que el experimento sea
reproducible. Esto es, cuando el experimento se repite, la frecuencia relativa del evento a variar
menos y menos (de repeticin a repeticin) conforme el nmero de repeticiones aumente. El concepto
de frecuencia relativa y la tendencia a la estabilidad conducen a un mtodo para asignar
probabilidades. Si un experimento tiene el espacio muestral y se define un evento A, y si la
frecuencia relativa
A
se aproxima a algn nmero P
A
conforme aumenta el nmero de repeticiones,
entonces se atribuye al nmero P
A
a A como su probabilidad, esto es: cuando m , entonces
A
A
P
m
m
A P = = ) (
Si el espacio muestral es finito y tiene resultados igualmente probables de modo que p
1
= p
2
= p
3
= p
3
=
p
n
= 1/n, entonces
m
A n
A P
) (
) ( =
donde hay n resultados y n(A) est contenido en A.
Esto es, la aplicacin de la Regla de Laplace:
P(A) = Casos favorables / casos posibles
La probabilidad entonces, mide la mayor o menor posibilidad de que se d un determinado resultado
(suceso) cuando se realiza un experimento aleatorio, tomando entre 0 y 1 (o expresados en tanto por
ciento, entre 0% y 100%):
El valor cero corresponde al suceso imposible: lanzamos un dado al aire y la probabilidad de que
salga el nmero 7 es cero (al menos, si es un dado certificado por la OMD, "Organizacin Mundial de
Dados").
El valor uno corresponde al suceso seguro: lanzamos un dado al aire y la probabilidad de que
salga cualquier nmero del 1 al 6 es igual a uno (100%).
El resto de sucesos tendr probabilidades entre cero y uno: que ser tanto mayor cuanto ms
probable sea que dicho suceso tenga lugar.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
36/90
Veamos algunos ejemplos:

Probabilidad de que al lanzar un dado salga el nmero 2: el caso favorable es tan slo uno (que
salga el dos), mientras que los casos posibles son seis (puede salir cualquier nmero del uno al seis).
Por lo tanto:
P(A) = 1 / 6 = 0,166 (o lo que es lo mismo, 16,6%)
Probabilidad de que al lanzar un dado salga un nmero par: en este caso los casos favorables
son tres (que salga el dos, el cuatro o el seis), mientras que los casos posibles siguen siendo seis.
Por lo tanto:
P(A) = 3 / 6 = 0,50 (o lo que es lo mismo, 50%)
Probabilidad de que al lanzar un dado salga un nmero menor que 5: en este caso tenemos
cuatro casos favorables (que salga el uno, el dos, el tres o el cuatro), frente a los seis casos posibles.
Por lo tanto:
P(A) = 4 / 6 = 0,666 (o lo que es lo mismo, 66,6%)
Probabilidad de que nos toque el "Gordo" de Navidad: tan slo un caso favorable, el nmero que
jugamos (qu triste...), frente a 100.000 casos posibles. Por lo tanto:
P(A) = 1 / 100.000 = 0,00001 (o lo que es lo mismo, 0,001%)
Merece la pena ...... Por cierto, tiene la misma probabilidad el nmero 45.264, que el nmero 00001,
pero cul de los dos compraras?
Para poder aplicar la Regla de Laplace el experimento aleatorio tiene que cumplir dos requisitos:
nmero de resultados posibles (sucesos) tiene que ser finito. Si hubiera infinitos
resultados, al aplicar la regla "casos favorables / casos posibles" el cociente siempre sera
cero.
Todos los sucesos tienen que tener la misma oportunidad de salida. Si al lanzar un
dado, algunas caras tuvieran mayor probabilidad de salir que otras, no podramos aplicar
esta regla.
A la regla de Laplace tambin se le denomina "probabilidad a priori", ya que para aplicarla hay que
conocer antes de realizar el experimento cuales son los posibles resultados y saber que todos tienen
las mismas probabilidades.

Si el experimento aleatorio no cumple los dos requisitos indicados, podemos acudir a otro modelo de
clculo de probabilidades que se basa en la experiencia (modelo frecuentista):
Cuando se realiza un experimento aleatorio un nmero muy elevado de veces, las probabilidades de
los diversos posibles sucesos empiezan a converger hacia valores determinados, que son sus
respectivas probabilidades.
Ejemplo: si lanzo una vez una moneda al aire y sale "cara", quiere decir que el suceso "cara" ha
aparecido el 100% de las veces y el suceso "cruz" el 0%.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
37/90
Si lanzo diez veces la moneda al aire, es posible que el suceso "cara" salga 7 veces y el suceso
"cruz" las 3 restantes. En este caso, la probabilidad del suceso "cara" ya no sera del 100%, sino que
se habra reducido al 70%.
Si repito este experimento un nmero elevado de veces, lo normal es que las probabilidades de los
sucesos "cara" y "cruz" se vayan aproximando al 50% cada una. Este 50% ser la probabilidad de
estos sucesos segn el modelo basado en frecuencias.
En este modelo ya no ser necesario que el nmero de soluciones sea finito, ni que todos los sucesos
tengan la misma probabilidad.
Ejemplo: si la moneda que utilizamos en el ejemplo anterior fuera defectuosa (o estuviera trucada),
es posible que al repetir dicho experimento un nmero elevado de veces, la "cara" saliera con una
frecuencia, por ejemplo, del 65% y la "cruz" del 35%. Estos valores seran las probabilidades de
estos dos sucesos segn el modelo de frecuencias.
A esta definicin de la probabilidad se le denomina probabilidad a posteriori, ya que tan slo
repitiendo un experimento un nmero elevado de veces podremos saber cual es la probabilidad de
cada suceso.
Probabilidad: Relacin entre sucesos
Entre los sucesos compuestos se pueden establecer distintas relaciones:
Un suceso puede estar contenido en otro: las posibles soluciones del primer suceso tambin lo
son del segundo, pero este segundo suceso tiene adems otras soluciones suyas propias.
Ejemplo: lanzamos un dado y analizamos dos sucesos: a) que salga el nmero 6, y b) que salga un
nmero par. Vemos que el suceso a) est contenido en el suceso b).
Siempre que se da el suceso a) se da el suceso b), pero no al contrario. Por ejemplo, si el resultado
fuera el 2, se cumplira el suceso b), pero no el el a).
Dos sucesos pueden ser iguales: esto ocurre cuando siempre que se cumple uno de ellos se
cumple obligatoriamente el otro y viceversa.
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par, y b) que
salga mltiplo de 2. Vemos que las soluciones coinciden en ambos casos.
Unin de dos o ms sucesos: la unin ser otro suceso formado por todos los elementos de los
sucesos que se unen.
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par y b) que el
resultado sea mayor que 3. El suceso unin estara formado por los siguientes resultados: el 2, el 4,
el 5 y el 6
Interseccin de sucesos: es aquel suceso compuesto por los elementos comunes de dos o ms
sucesos que se intersectan.
Ejemplo: lanzamos un dado al aire, y analizamos dos sucesos: a) que salga nmero par, y b) que
sea mayor que 4. La interseccin de estos dos sucesos tiene un slo elemento, el nmero 6 (es el
nico resultado comn a ambos sucesos: es mayor que 4 y es nmero par).
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
38/90
Sucesos incompatibles: son aquellos que no se pueden dar al mismo tiempo ya que no tienen
elementos comunes (su interseccin es el conjunto vaco).
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un nmero menor que 3,
y b) que salga el nmero 6. Es evidente que ambos no se pueden dar al mismo tiempo.
Sucesos complementarios: son aquellos que si no se da uno, obligatoriamente se tiene que dar el
otro.
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un nmero par, y b) que
salga un nmero impar. Vemos que si no se da el primero se tiene que dar el segundo (y viceversa).
Probabilidad de sucesos
Al definir los sucesos hablamos de las diferentes relaciones que pueden guardar dos sucesos entre
s, as como de las posibles relaciones que se pueden establecer entre los mismos. Vamos a ver
ahora cmo se refleja esto en el clculo de probabilidades.
Un suceso puede estar contenido en otro: entonces, la probabilidad del primer suceso ser menor
que la del suceso que lo contiene.
Ejemplo: lanzamos un dado y analizamos dos sucesos: a) que salga el nmero 6, y b) que salga un
nmero par. Dijimos que el suceso a) est contenido en el suceso b).
P(A) = 1/6 = 0,166
P(B) = 3 / 6 = 0,50
Por lo tanto, podemos ver que la probabilidad del suceso contenido, suceso a), es menor que la
probabilidad del suceso que lo contiene, suceso b).
Dos sucesos pueden ser iguales: en este caso, las probabilidades de ambos sucesos son las
mismas.
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par, y b) que
salga mltiplo de 2. Las soluciones coinciden en ambos casos.
P(A) = 3 / 6 = 0,50
P(B) = 3 / 6 = 0,50
Interseccin de sucesos: es aquel suceso compuesto por los elementos comunes de los dos o ms
sucesos que se intersectan. La probabilidad ser igual a la probabilidad de los elementos comunes.
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par, y b) que sea
mayor que 3. La interseccin de estos dos sucesos tiene dos elementos: el 4 y el 6.
Su probabilidad ser por tanto:
P(A B) = 2 / 6 = 0,33
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
39/90
d) Unin de dos o ms sucesos: la probabilidad de la unin de dos sucesos es igual a la suma de
las probabilidades individuales de los dos sucesos que se unen, menos la probabilidad del suceso
interseccin
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par, y b) que el
resultado sea mayor que 3. El suceso unin estara formado por los siguientes resultados: el 2, el 4, el
5 y el 6.
P(A) = 3 / 6 = 0,50
P(B) = 3 / 6 = 0,50
P (A B) = 2 / 6 = 0,33
Por lo tanto, P (A u B) = (0,50 + 0,50) - 0,33 = 0,666
e) Sucesos incompatibles: la probabilidad de la unin de dos sucesos incompatibles ser igual a la
suma de las probabilidades de cada uno de los sucesos (ya que su interseccin es el conjunto vaco y
por lo tanto no hay que restarle nada).
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un nmero menor que 3,
y b) que salga el nmero 6.
La probabilidad del suceso unin de estos dos sucesos ser igual a:
P(A) = 2 / 6 = 0,333

P(B) = 1 / 6 = 0,166
Por lo tanto
P(A U B) = 0,33 + 0,166 = 0,50
f) Sucesos complementarios: la probabilidad de un suceso complementario a un suceso (A) es igual
a 1 - P(A)
Ejemplo: lanzamos un dado al aire. el suceso (A) es que salga un nmero par, luego su
complementario, suceso (B), es que salga un nmero impar.
La probabilidad del suceso (A) es igual a :
P(A) = 3 / 6 = 0,50
Luego, la probabilidad del suceso (B) es igual a:
P(B) = 1 - P(A) = 1 - 0,50 = 0,50
Se puede comprobar aplicando la regla de "casos favorables / casos posibles":
P(B) = 3 / 6 = 0,50
Unin de sucesos complementarios: la probabilidad de la unin de dos sucesos complementarios
es igual a 1.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
40/90
Ejemplo: seguimos con el ejemplo anterior: a) que salga un nmero par, y b) que salga un nmero
impar. La probabilidad del suceso unin de estos dos sucesos ser igual a:
P(A) = 3 / 6 = 0,50
P(B) = 3 / 6 = 0,50
Por lo tanto,
P(A U B) = 0,50 + 0,50 = 1
Para aplicar la Regla de Laplace, el clculo de los sucesos favorables y de los sucesos posibles a
veces no plantea ningn problema, ya que son un nmero reducido y se pueden calcular con
facilidad:
Por ejemplo: Probabilidad de que al lanzar un dado salga el nmero 2. Tan slo hay un caso
favorable, mientras que los casos posibles son seis.
Probabilidad de acertar al primer intento el horscopo de una persona. Hay un caso favorable y 12
casos posibles.
Sin embargo, a veces calcular el nmero de casos favorables y casos posibles es complejo y hay que
aplicar reglas matemticas:
Por ejemplo: 5 matrimonios se sientan aleatoriamente a cenar y queremos calcular la probabilidad
de que al menos los miembros de un matrimonio se sienten junto. En este caso, determinar el
nmero de casos favorables y de casos posibles es complejo.
Las reglas matemticas que nos pueden ayudar son el clculo de permutaciones, variaciones
y combinaciones

a) Permutaciones:

Calcula las posibles agrupaciones que se pueden establecer con todos los elementos de un grupo,
por lo tanto, lo que diferencia a cada subgrupo del resto es el orden de los elementos. Para calcular
el nmero de permutaciones se aplica la siguiente frmula:

La expresin "Pm" representa las permutaciones de "m" elementos, tomando todos los elementos.
Los subgrupos se diferenciaran nicamente por el orden de los elementos.
Ejemplo: P10 son las permutaciones de 10 elementos:

Es decir, tendramos 3.628.800 formas diferentes de agrupar 10 elementos.
Permutaciones con repeticin:

Para calcular el nmero de permutaciones con repeticin se aplica la siguiente frmula:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
41/90

Son permutaciones de "m" elementos, en los que uno de ellos se repite " x1 " veces, otro " x2 " veces
y as ... hasta uno que se repite " k " veces.

b) Variaciones:

Calcula el nmero de subgrupos de 1, 2, 3, etc. elementos que se pueden establecer con los "n"
elementos de una muestra. Cada subgrupo se diferencia del resto en los elementos que lo componen
o en el orden de dichos elementos (es lo que le diferencia de las combinaciones).
Por ejemplo, calcular las posibles variaciones de 2 elementos que se pueden establecer con los
nmero 1, 2 y 3.
Ahora tendramos 6 posibles parejas: (1,2), (1,3), (2,1), (2,3), (3,1) y (3,3). En este caso los
subgrupos (1,2) y (2,1) se consideran distintos.
Para calcular el nmero de variaciones se aplica la siguiente frmula:

La expresin "Vm,n" representa las variaciones de "m" elementos, formando subgrupos de "n"
elementos. En este caso, como vimos en la leccin anterior, un subgrupo se diferenciar del resto,
bien por los elementos que lo forman, o bien por el orden de dichos elementos.
Ejemplo: V10,4 son las variaciones de 10 elementos agrupndolos en subgrupos de 4 elementos:

Es decir, podramos formar 5.040 subgrupos diferentes de 4 elementos, a partir de los 10 elementos.
Variaciones con repeticin:

Para calcular el nmero de variaciones con repeticin se aplica la siguiente frmula:

Ejemplo: V'10,4 son las variaciones de 10 elementos con repeticin, agrupndolos en subgrupos de
4 elementos:


Es decir, podramos formar 10.000 subgrupos diferentes de 4 elementos.


c) Combinaciones:

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
42/90
Determina el nmero de subgrupos de 1, 2, 3, etc. elementos que se pueden formar con los "n"
elementos de una nuestra. Cada subgrupo se diferencia del resto en los elementos que lo componen,
sin que influya el orden.

Por ejemplo, calcular las posibles combinaciones de 2 elementos que se pueden formar con los
nmeros 1, 2 y 3.
Se pueden establecer 3 parejas diferentes: (1,2), (1,3) y (2,3). En el clculo de combinaciones las
parejas (1,2) y (2,1) se consideran idnticas, por lo que slo se cuentan una vez.
Para calcular el nmero de combinaciones se aplica la siguiente frmula:

La expresin "Cm,n" representa las combinaciones de "m" elementos, formando subgrupos de "n"
elementos.
Ejemplo: C10,4 son las combinaciones de 10 elementos agrupndolos en subgrupos de 4
elementos:

Es decir, podramos formar 210 subgrupos diferentes de 4 elementos, a partir de los 10 elementos.
Combinaciones con repeticin:

Para calcular el nmero de combinaciones con repeticin se aplica la siguiente frmula:

Ejemplo: C'10,4 son las combinaciones de 10 elementos con repeticin, agrupndolos en subgrupos
de 4, en los que 2, 3 o los 4 elementos podran estar repetidos:


Es decir, podramos formar 715 subgrupos diferentes de 4 elementos

Principio de Adicin

Si un experimento aleatorio ocurre de n
1
formas y un segundo experimento ocurre de n
2

formas, entonces el experimento que consiste en realizar el primer o el segundo experimento
ocurre de n
1
+ n
2
formas.

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
43/90
Principio de Multiplicacin

Si un experimento aleatorio ocurre de n
1
formas y si para cada una de estas, un experimento
adicional ocurre de n
2
, entonces los dos experimentos juntos ocurren de n
2
n
1
formas.

Ejercicios
1.- Calcular la probabilidad de acertar los 14 signos de la quiniela:
Solucin:
Se aplica la Regla de Laplace (casos favorables / casos posibles). El caso favorable es tan slo uno
(acertar los 14 signos). Los casos posibles se calculan como variaciones con repeticin de 3
elementos (1, X y 2), tomados de 14 en 14 (los signos que hay que rellenar).
Son variaciones y no combinaciones ya que el orden influye: no es lo mismo (1,1,X) que (1, X, 1). Y
son con repeticin, ya que cualquiera de los signos (1, X y 2) se puede repetir hasta 14 veces.
Por lo tanto, los casos posibles son:

Y la probabilidad de acertar los 14 resultados es:

No demasiado elevada....pero el que la sigue la consigue.
2.- Y la probabilidad de acertar 12 signos de la quiniela:
Solucin:
Aplicamos nuevamente la Regla de Laplace. En este caso los casos favorables se calculan como
combinaciones de 14 elementos tomados de 2 en 2, de esta manera obtenemos todas las posibles
alternativas de fallar 2 resultados de 14 (lo que equivale a acertar 12 resultados). Utilizamos
combinaciones y no variaciones ya que el orden no importa (da lo mismo fallar el 3 y el 6, que el 6 y
el 3)

Los casos posibles siguen siendo los mismos:

Por lo que la probabilidad de acertar 12 resultados es:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
44/90

Por lo tanto, tenemos ms probabilidades de acertar 12 resultados que 14 (ser por eso por lo que
pagan menos?).
3.- Calcular la probabilidad de, en una carrera de 12 caballos, acertar los 3 que quedan primeros (sin
importar cual de ellos queda primero, cual segundo y cual tercero).
Solucin:
Se aplica la Regla de Laplace. El caso favorable es tan slo uno: los 3 caballos que entran en
primer lugar. Los casos posibles se calculan como combinaciones de 12 elementos tomados de 3 en
3 (es decir, determinamos todos las posibles alternativas de 3 caballos que pueden entrar en las 3
primeras posiciones). Como el orden de estos 3 primeros caballos no importa, utilizamos
combinaciones en lugar de variaciones.
Por lo tanto, los casos posibles son:

Por lo que la probabilidad de acertar los 3 caballos ganadores es:

Algo mayor que en las quinielas.... Eso s, se paga menos.
4.- Y si hubiera que acertar, no slo los 3 caballos que ganan, sino el orden de su entrada en meta.
Solucin:
El caso favorable sigue siendo uno: los 3 caballos que entran en primer lugar, colocados en su orden
correspondiente.
Los casos posibles se calculan ahora como variaciones (ya que el orden influye) de 12 elementos
tomados de 3 en 3 (calculamos todas las posibles maneras en que los 12 caballos podran ocupar las
3 primeras posiciones.

Por lo que la probabilidad de acertar los 3 caballos ganadores es:

Menor que en el ejemplo 3. Ya no vale acertar que 3 caballos entran en primer lugar, sino que
tenemos que acertar el orden de su entrada.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
45/90
Ejemplo: Calcular las permutaciones de 10 elementos, en los que uno de ellos se repite en 2
ocasiones y otro se repite en 3 ocasiones:

Es decir, tendramos 302,400 formas diferentes de agrupar estos 10 elementos.
Introduccin a los Conjuntos

Un conjunto es una coleccin de objetos, Comnmente los conjuntos se designan con letras
maysculas A, B, etc. Para describir qu objetos estn contenidos en el conjunto A, se dispone de
tres mtodos:
a) Anotar los elementos de A: A = 1,2,3,4`
b) Describir al conjunto con palabras: El conjunto A est formado por los nmeros naturales
del 1 al 4
c) Simplemente escribimos una notacin simblica: A = x( 1 x 4, x N`

Los objetos que forman parte de la coleccin del conjunto A, se llaman miembros o elementos de A.
Cuando a es un elemento de A, escribimos a A y cuando a no es un elemento de A, escribimos
a A.

Hay dos conjuntos especiales que a menudo son de inters. En la mayor parte de los problemas
estamos interesados en el estudio de un conjunto definido de objetos y no de otros; por ejemplo, en
todos los nmeros reales, en todos los artculos que salen de una lnea de produccin durante un
periodo de 24 horas, etc. Definimos el conjunto universal como el conjunto de todos los objetos que
se consideran. Normalmente este conjunto se designa con U.

Otro conjunto que se destaca es el que no contiene elemento alguno. Esta situacin ocurre tan a
menudo que justifica la introduccin de un nombre especial para tal conjunto y que es Conjunto Nulo
o Vaco. En general, este conjunto se designa con el signo .

Puede ser que cuando se consideran dos conjuntos A y B, ser miembro de A implica ser un elemento
de B. En tal caso, se dice que A es un subconjunto de B y se escribe A B.

Las propiedades siguientes del conjunto nulo y del conjunto universal son inmediatas:

a) Para cualquier conjunto A, se tiene A
b) Una vez que se ha acordado el conjunto universal, entonces para cualquier conjunto A
considerado que est en U, tenemos que A U

Asimismo, podemos considerar la idea de combinar conjuntos dados con el fin de formar un nuevo
conjunto, as se tendr:

C = |x A o x B` C = A U B
D = |x A y x B` D = A B







C = A U B D = A B A
c

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
46/90
Finalmente, la idea del complemento de un conjunto A es tal que describe a todos los elementos que
no estn en A (sino en el conjunto universal U) y se llama el complemento de A. Esto es, A
c
=
x(xA`.
Probabilidad condicionada
De acuerdo a la definicin previamente dada: un evento se asocia a un espacio muestral, y el evento
se representa por medio de un subconjunto de . Por consiguiente todas las probabilidades se
relacionan con un espacio muestral completo.

Con el propsito de denotar la probabilidad de ocurrencia de un evento determinado, se ha utilizado
comnmente el smbolo P(A); sin embargo, podra tambin haberse utilizado el smbolo: P(A|) que
se lee como la probabilidad de A, dado el espacio muestral .

Este anlisis puede extenderse al caso en el que eventos estudiados ocurren simultneamente. Por
ejemplo, considere un grupo de 100 personas, de las que 40 son estudiantes graduados, 20 trabajan
por su cuenta y 10 cumplen las dos condiciones anteriores. Si dejamos que B represente el conjunto
de los estudiantes graduados y A el conjunto de los que trabajan por su cuenta, tendremos entonces
que: AB (lase como a y b) es el conjunto de los estudiantes graduados que trabajan por su
cuenta. Si seleccionamos entonces 1 persona al azar del grupo de 100 y aplicando el principio de
probabilidad: P(A) = 0.20, P(B) = 0.40, P(AB) = 0.10 y se considera el suceso: seleccin de una
persona que trabaja por su cuenta dado que es un estudiante graduado P(A|B), es obvio que el
espacio muestral se reduce por el hecho de que slo se consideran los estudiantes graduados. La
probabilidad P(A|B) est dada en consecuencia por:

25 . 0
40 . 0
10 . 0
) (
) (
) / ( = = =
B P
B A P
B A P



Lo que significa que el espacio muestral est compuesto por el conjunto de todos los subconjuntos de
que pertenecen a B, de los subconjuntos pertenecientes a B, y que satisface la condicin AB.

Por consiguiente, podemos definir la probabilidad condicional del evento A dado el evento B como:
0 ) (
) (
) (
) | ( > = B P sii
B P
B A P
B A P


En otras palabras, las probabilidades condicionadas se calculan una vez que se ha incorporado
informacin adicional a la situacin de partida:
Ejemplo: se tira un dado y sabemos que la probabilidad de que salga un 2 es 1/6 (probabilidad a
priori). Si incorporamos nueva informacin (por ejemplo, alguien nos dice que el resultado ha sido un
nmero par) entonces la probabilidad de que el resultado sea el 2 ya no es 1/6.
Las probabilidades condicionadas se calculan aplicando la frmula anterior:

Donde:
P (B/A) es la probabilidad de que se de el suceso B condicionada a que se haya dado el suceso A.
P (B A) es la probabilidad del suceso simultneo de A y de B
P (A) es la probabilidad a priori del suceso A
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
47/90
En el ejemplo que vemos:
P (B/A) es la probabilidad de que salga el nmero 2 (suceso B) condicionada a que haya salido un
nmero par (suceso A).
P (B A) es la probabilidad de que salga el dos y nmero par.
P (A) es la probabilidad a priori de que salga un nmero par.
Por lo tanto:
P (B A) = 1/6
P (A) = 1/2
P (B/A) = (1/6) / (1/2) = 1/3

Luego, la probabilidad de que salga el nmero 2, si ya sabemos que ha salido un nmero par, es de
1/3 (mayor que su probabilidad a priori de 1/6).

2 ejemplo:

En un estudio sanitario se ha llegado a la conclusin de que la probabilidad de que una persona sufra
problemas coronarios (suceso B) es el 0,10 (probabilidad a priori). Adems, la probabilidad de que
una persona sufra problemas de obesidad (suceso A) es el 0,25 y la probabilidad de que una persona
sufra a la vez problemas de obesidad y coronarios (suceso interseccin de A y B) es del 0,05.
Calcular la probabilidad de que una persona sufra problemas coronarios si est obesa (probabilidad
condicionada P(B/A).

P (B A) = 0,05
P (A) = 0,25
P (B/A) = 0,05 / 0,25 = 0,20

Por lo tanto, la probabilidad condicionada es superior a la probabilidad a priori.

No siempre esto es as, a veces la probabilidad condicionada es igual a la probabilidad a priori
o menor. Por ejemplo: la probabilidad de que al tirar un dado salga el nmero 2, condicionada a que
haya salido un nmero impar. La probabilidad condicionada es en este caso cero, frente a una
probabilidad a priori de 1/6.

Probabilidad compuesta
La probabilidad de que se den simultneamente dos sucesos (suceso interseccin de A y B) es
igual a la probabilidad a priori del suceso A multiplicada por la probabilidad del suceso B
condicionada al cumplimiento del suceso A.
La frmula para calcular esta probabilidad compuesta es:
0 ) ( ) ( ) / ( ) ( > = A P A P A B P B A P

Ejemplo 1 : Estudiamos el suceso A (porcentaje de varones mayores de 40 aos casados) y el
suceso B (varones mayores de 40 aos con ms de 2 hijos) y obtenemos la siguiente informacin:
Un 35% de los varones mayores de 40 aos estn casados.
De los varones mayores de 40 aos y casados, un 30% tienen ms de 2 hijos
(suceso B condicionado al suceso A).
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
48/90
Calcular la probabilidad de que un varn mayor de 40 aos est casado y tenga ms de 2 hijos
(suceso interseccin de A y B).
Por lo tanto:
P (A) = 0,35
P (B/A) = 0,30
P (A i B) = 0,35 * 0,30 = 0,105
Es decir, un 10,5% de los varones mayores de 40 aos estn casados y tienen ms de 2 hijos.

2 ejemplo: Estudiamos el suceso A (alumnos que hablan ingls) y el suceso B (alumnos que hablan
alemn) y obtenemos la siguiente informacin:
Un 50% de los alumnos hablan ingls.
De los alumnos que hablan ingls, un 20% hablan tambin alemn (suceso B
condicionado al suceso A).
Calcular la probabilidad de que un alumno hable ingls y alemn (suceso interseccin de A y B).
Por lo tanto:
P (A) = 0,50
P (B/A) = 0,20
P (AiB) = 0,50 * 0,20 = 0,10

Es decir, un 10% de los alumnos hablan ingls y alemn.
El Teorema de la probabilidad total nos permite calcular la probabilidad de un suceso a partir de
probabilidades condicionadas:
Ejemplo: supongamos que si llueve la probabilidad de que ocurra un accidentes es x% y si hace
buen tiempo dicha probabilidad es y%. Este teorema nos permite deducir cul es la probabilidad de
que ocurra un accidente si conocemos la probabilidad de que llueva y la probabilidad de que haga
buen tiempo.
La frmula para calcular esta probabilidad es:



Es decir, la probabilidad de que ocurra el suceso B (en nuestro ejemplo, que ocurra un accidente)
es igual a la suma de multiplicar cada una de las probabilidades condicionadas de este suceso
con los diferentes sucesos A (probabilidad de un accidente cuando llueve y cuando hace buen
tiempo) por la probabilidad de cada suceso A.

Para que este teorema se pueda aplicar hace falta cumplir un requisito:
Los sucesos A tienen que formar un sistema completo, es decir, que contemplen todas las
posibilidades (la suma de sus probabilidades debe ser el 100%).
Ejemplo: al tirar una moneda, el suceso "salir cara" y el suceso "salir cruz" forman un sistema
completo, no hay ms alternativas: la suma de sus probabilidades es el 100%
Ejemplo: al tirar un dado, que salga el 1, el 2, el 3, o el 4 no forman un sistema completo, ya que no
contempla todas las opciones (podra salir el 5 o el 6). En este caso no se podra aplicar el teorema
de la probabilidad total.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
49/90
Ejercicio 1: En un saquito hay papeletas de tres colores, con las siguientes probabilidades de ser
elegidas:
a) Amarilla: probabilidad del 50%.
b) Verde: probabilidad del 30%
c) Roja: probabilidad del 20%.
Segn el color de la papeleta elegida, podrs participar en diferentes sorteos. As, si la papeleta
elegida es:
a) Amarilla: participas en un sorteo con una probabilidad de ganar del 40%.
b) Verde: participas en otro sorteo con una probabilidad de ganar del 60%
c) Roja: participas en un tercer sorteo con una probabilidad de ganar del 80%.
Con esta informacin, qu probabilidad tienes de ganar el sorteo en el que participes?:
1.- Las tres papeletas forman un sistema completo: sus probabilidades suman 100%
2.- Aplicamos la frmula:

Luego,
P (B) = (0,50 * 0,40) + (0,30 * 0,60) + (0,20 * 0,80) = 0,54
Por tanto, la probabilidad de que ganes el sorteo es del 54%.
Ejercicio 2: Van a cambiar a tu jefe y se barajan diversos candidatos:
a) Carlos, con una probabilidad del 60%
b) Juan, con una probabilidad del 30%
c) Luis, con una probabilidad del 10%
En funcin de quien sea tu prximo jefe, la probabilidad de que te suban el sueldo es la siguiente:
a) Si sale Carlos: la probabilidad de que te suban el sueldo es del 5%.
b) Si sale Juan: la probabilidad de que te suban el sueldo es del 20%.
c) Si sale Luis: la probabilidad de que te suban el sueldo es del 60%.
En definitiva, cual es la probabilidad de que te suban el sueldo?:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
50/90
1.- Los tres candidatos forman un sistema completo
2.- Aplicamos la frmula:
P (B) = (0,60 * 0,05) + (0,30 * 0,20) + (0,10 * 0,60) = 0,15
Por tanto, la probabilidad de que te suban el sueldo es del 15%. Lo llevas claro amigo
Teorema de Bayes
El Teorema de Bayes viene a seguir el proceso inverso al que hemos visto en el Teorema de la
probabilidad total:
Teorema de la probabilidad total: a partir de las probabilidades del suceso A (probabilidad de que
llueva o de que haga buen tiempo) deducimos la probabilidad del suceso B (que ocurra un
accidente).
Teorema de Bayes: a partir de que ha ocurrido el suceso B (ha ocurrido un accidente) deducimos
las probabilidades del suceso A (estaba lloviendo o haca buen tiempo?).
La frmula del Teorema de Bayes es:

Ejercicio 1: El parte meteorolgico ha anunciado tres posibilidades para el fin de semana:
a) Que llueva: probabilidad del 50%.
b) Que nieve: probabilidad del 30%
c) Que haya niebla: probabilidad del 20%.
Segn estos posibles estados meteorolgicos, la posibilidad de que ocurra un accidente es la
siguiente:
a) Si llueve: probabilidad de accidente del 10%.
b) Si nieva: probabilidad de accidente del 20%
c) Si hay niebla: probabilidad de accidente del 5%.
Resulta que efectivamente ocurre un accidente y como no estbamos en la ciudad no sabemos que
tiempo hizo (nev, llovo o hubo niebla). El teorema de Bayes nos permite calcular estas
probabilidades:
Las probabilidades que manejamos antes de conocer que ha ocurrido un accidente se
denominan "probabilidades a priori" (lluvia con el 60%, nieve con el 30% y niebla con el
10%).
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
51/90
Una vez que incorporamos la informacin de que ha ocurrido un accidente, las probabilidades
del suceso A cambian: son probabilidades condicionadas P (A/B), que se denominan
"probabilidades a posteriori".
Vamos a aplicar la frmula:

a) Probabilidad de que estuviera lloviendo:


La probabilidad de que efectivamente estuviera lloviendo el da del accidente (probabilidad a
posteriori) es del 71,4%.

b) Probabilidad de que estuviera nevando:


La probabilidad de que estuviera nevando es del 21,4%.

c) Probabilidad de que hubiera niebla:


La probabilidad de que hubiera niebla es del 7,1%.
Independencia de Sucesos
Dos sucesos son independientes entre s, si la ocurrencia de uno de ellos no afecta para nada a la
ocurrencia del otro:
Ejemplo: el suceso estatura de los alumnos de una clase y el color del pelo son independientes: el
que un alumno sea ms o menos alto no va a influir en el color de su cabello, ni viceversa.
Para que dos sucesos sean independientes tienen que verificar al menos una de las siguientes
condiciones:
P (B/A) = P (B) es decir, que la probabilidad de que se de el suceso B, condicionada a que
previamente se haya dado el suceso A, es exactamente igual a la probabilidad de B.
Ejemplo: la probabilidad de que al tirar una moneda salga cara (suceso B), condicionada a que haga
buen tiempo (suceso A), es igual a la propia probabilidad del suceso B.
P (A/B) = P (A) es decir, que la probabilidad de que se de el suceso A, condicionada a que
previamente se haya dado el suceso B, es exactamente igual a la probabilidad de A.
Ejemplo: la probabilidad de que haga buen tiempo (suceso A), condicionada a que al tirar una
moneda salga cara (suceso B), es igual a la propia probabilidad del suceso A.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
52/90
P (A i B) = P (A) * P (B) es decir, que la probabilidad de que se de el suceso conjunto A y B es
exactamente igual a la probabilidad del suceso A multiplicada por la probabilidad del suceso B.
Ejemplo: la probabilidad de que haga buen tiempo (suceso A) y salga cara al tirar una moneda
(suceso B), es igual a la probabilidad del suceso A multiplicada por la probabilidad del suceso B
Si el suceso A es independiente del suceso B, entonces el suceso B tambin es independiente
del suceso A.

Ejemplo 1: analicemos dos sucesos:
Suceso A: la probabilidad de que haga buen tiempo es del 0,4
Suceso B: la probabilidad de tener un accidente es del 0,1
Suceso interseccin: la probabilidad de que haga buen tiempo y tener un accidente es del 0,08
Veamos si se cumple alguna de las condiciones sealadas:
P (B/A) = P (A i B) / P (A) = 0,08 / 0,4 = 0,2 (que no es igual a P (B))
P (A/B) = P (AiB) / P (B) = 0,08 / 0,6 = 0,133 (que no es igual a P (A))
P (A iB) = 0,08 (que no es igual a P (A) multiplicado por P (B))
Por lo tanto, no se cumple ninguna de las tres condiciones sealadas por lo que estos dos sucesos
no son independientes, sino que existe algn grado de dependencia entre ellos.

Ejemplo 2: analicemos dos sucesos:
Suceso A: la probabilidad de que haga buen tiempo es del 0,4
Suceso B: la probabilidad de salir cara al lanzar una moneda es del 0,5
Suceso interseccin: la probabilidad de que haga buen tiempo y que salga cara es
0,2
Veamos si se cumple alguna de las condiciones sealadas:
P (B/A) = P (A i B) / P (A) = 0,2 / 0,4 = 0,5 (igual que P (B))
P (A/B) = P (A i B) / P (B) = 0,2 / 0,6 = 0,4 (igual que P (A))
P (AiB) = 0,2 (igual a P (A) multiplicado por P (B))
Por lo tanto, estos dos sucesos s son independientes.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
53/90
VARIABLES ALEATORIAS UNIDIMENSIONALES

Cuando se describe el espacio muestral de un experimento aleatorio, no es necesario especificar que
un resultado individual ser un nmero. En varios casos, se observa que los resultados son
preferiblemente cualitativos, por lo que se hace uso de las variables aleatorias.

Una variable aleatoria es una funcin que asocia un nmero real a cada elemento del espacio
muestral.

Ejemplo

Se extraen en forma sucesiva dos bolas, sin reemplazo, de una urna que contienen 4 bolas rojas y 3
negras. Los posibles resultados y los valores y de la variable aleatoria Y , en donde Y es el nmero
de bolas rojas son:

Espacio Muestral Y
RR 2
NR 1
RN 1
NN 0

Si se define adems que:

Si un espacio muestral contiene un nmero finito de posibilidades iguales al nmero de
puntos que se encuentran en un segmento de lnea, se le denomina: Espacio Muestral
Continuo.

Si un espacio muestral contiene un nmero infinito de posibilidades o una secuencia sin
final con igual nmero de elementos que nmeros enteros, se le denomina: Espacio
Muestral Discreto

Entonces a una variable aleatoria se la denomina variable aleatoria discreta si su conjunto de
posibles resultados es contable y variable aleatoria continua si puede tomar valores en una escala
continua.

Con frecuencia, los posibles valores contenidos en un espacio muestral continuo son precisamente
los mismos valores contenidos en el espacio muestral continuo; en otros casos, las variables
aleatorias continuas representan datos medidos, mientras que en los eventos discretos las variables
aleatorias representan datos que se cuentan.

Variables aleatorias discretas

Dada una v.a. discreta , su funcin de probabilidad f, se define de modo que f(x
i
) es
la probabilidad de que X tome ese valor:



Si x
i
no es uno de los valores que puede tomar X, entonces f(x
i
)=0. La representacin grfica de la
funcin de probabilidad se realiza mediante un diagrama de barras anlogo al de distribucin de
frecuencias relativas para variables discretas. Por ejemplo, si retomamos el caso del lanzamiento de 3
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
54/90
monedas de forma que cada una de ellas tenga probabilidad 1/2 de dar como resultado cara o cruz,
se tiene que










Equivalencia entre las probabilidades calculadas directamente sobre el espacio muestral E de resultados del
experimento aleatorio, y las calculadas sobre el subconjunto [0,1,2,3] R mediante la v.a. X.


Distribuciones Discretas de Probabilidad

Obsrvese que X est definido sobre el espacio muestral de sucesos E, mientras que f lo est sobre
el espacio de nmeros reales .
Las propiedades de la funcin de probabilidad de v.a. se deducen de forma inmediata de los axiomas
de probabilidad:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
55/90
Es evidente que si tenemos tres constantes a<b<c, los sucesos y
son mutuamente exclusivos, es decir, A i B = , luego P{A i B} = . Por ello, si se define C ={a > X
> c} = A U B, se tiene que


Otro concepto importante es el de funcin de distribucin de una variable aleatoria discreta, F, que
se define de modo que si x R, F(x
i
) es igual a la probabilidad de que X tome un valor inferior o igual
a x
i
:


Esta funcin se representa grficamente del mismo modo que la distribucin de frecuencias relativas
acumuladas. Volviendo al ejemplo de las tres monedas, se tiene que





Hay que observar que a valores no admisibles por la variable les pueden corresponder valores de F
no nulos. Por ejemplo,





Funcin de probabilidad a la izquierda, y funcin de distribucin a la derecha de una v.a. discreta


Es sencillo comprobar que las siguientes propiedades de la funcin de distribucin son ciertas:

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
56/90
Proposicin (Distribuciones discretas)

La funcin de distribucin F, es una funcin no decreciente, es decir,




Adems, es continua a la derecha

y



Nota

Con frecuencia, resulta conveniente representar todas las probabilidades de una variable aleatoria X
a travs de una frmula. Esta frmula sera necesariamente funcin de los valores numricos x, que
se denotan por f(x), g(x), r(x) y asi sucesivamente. Por lo tanto se escribe: f(x) = P(X = x), es decir:
f(3) = P(X = 3). El nmero de pares ordenados (x, f(x)) es una funcin de probabilidad o una
distribucin de la variable aleatoria discreta X si, para cada posible resultado de x:

Al conjunto de pares ordenados (x,f(x)) se le denomina funcin de probabilidad o distribucin de
probabilidad de la variable aleatoria x.
a)
A
0
b) (x)

= 1
c) P(X = x) = f(x)

La distribucin acumulada F(x) de una variable aleatoria discreta X con distribucin de probabilidad
f(x) est dada por:
< < = =

x para t f x X P x F
x t
) ( ) ( ) (
As para el ejemplo que utilizamos:

<
<
<
=
2 1
2 1 75 . 0
1 0 25 . 0
0 0
) (
y para
y para
y para
y para
y F

Distribuciones de Probabilidad Continua

Si una variable discreta toma los valores x
1
, ..., x
k
, la proposicin de la pgina afirma que las
probabilidad de que al hacer un experimento, X tome uno de esos valores es 1, de modo que cada
posible valor x
i
contribuye con una cantidad f(x
i
) al total:

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
57/90
Aun cuando la variable tomase un nmero infinito de valores, x
1
, x
2
, ..., no hay ningn problema en
comprobar que cada x
i
contribuye con una cantidad f(x
i
) al total de modo que


Cuando la variable es continua, no tiene sentido hacer una suma de las probabilidades de cada uno
de los trminos en el sentido anterior, ya que el conjunto de valores que puede tomar la variable es no
numerable. En este caso, lo que generaliza de modo natural el concepto de suma () es el de integral
( ) Por otro lado, para variables continuas no tiene inters hablar de la probabilidad de que X = x
R, ya que esta debe de valer siempre 0, para que la suma infinita no numerable de las
probabilidades de todos los valores de la variable no sea infinita.
De este modo es necesario introducir un nuevo concepto que sustituya en variables aleatorias
continuas, al de funcin de probabilidad de una v.a. discreta. Este concepto es el de funcin de
densidad de una v.a. continua, que se define como una funcin

integrable, que verifica las dos propiedades siguientes:
y que adems verifica que dado a<b, se tiene que
Funcin de densidad f. La probabilidad de un intervalo, es el rea que existe entre la funcin y el eje
de abscisas
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
58/90
Entonces, una variable aleatoria continua tiene probabilidad de cero de tomar exactamente cualquiera
de sus valores. Luego, no es posible presentar su distribucin de probabilidad en forma tabular. Es
por ello, que los clculos de probabilidad para diversos intervalos de una variable aleatoria continua
como ser:P(a<X<b)

P(a X b) = P(a<X<b) +P(x=b) = P(a<X<b)

Nota

Es decir, no importa si se incluye o no un punto final en el intervalo. Esta condicin no es
vlida cuando X es discreta

Aunque la distribucin de probabilidad de una variable aleatoria continua no se puede presentar en
forma tabular, se puede tener una frmula. Esta frmula, necesariamente ser funcin de los valores
numricos de la variable continua X y como tal se presentar a travs de la notacin funcional f(x). Al
manejar variables continuas f(x) normalmente se conoce como funcin densidad de probabilidad o
funcin de densidad.

Una funcin de densidad de probabilidad se construye de manera que el rea bajo su curva limitada
por el eje x sea igual a 1 cuando se calcula el rango de X para el que se ha definido f(x). Si este
rango de X fuera un intervalo finito, siempre es posible ampliar el intervalo para incluir el conjunto total
de nmeros reales; adems la probabilidad de que X tome un valor entre los lmites a y b es igual al
rea encerrada entre dichos lmites, la curva de funcin de densidad y el eje de las x. Lo que significa:

P(a<X<b) =
}
b
a
dx X f ) (

Observacin

Por ser f una funcin integrable, la probabilidad de un punto es nula:



y por ello al calcular la probabilidad de un intervalo no afectara nada el que este sea abierto o cerrado
por cualquiera de sus extremos, pues estos son puntos y por tanto de probabilidad nula:



La funcin de distribucin de la v.a. continua, F, se define de modo que dado x R, F(x) es la
probabilidad de que X sea menor o igual que x, es decir
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
59/90
Funcin de distribucin F, calculada a partir de la funcin de densidad f.

La funcin f(x) es una funcin densidad de probabilidad para la variable aleatoria continua X,
definida sobre el conjunto de los nmeros reales R si:
a)
A
0 para toda R x
b)
}


dx X f ) ( = 1
c) P(a<X<b) =
}
b
a
dx X f ) (
La distribucin acumulada F(x) de una variable aleatoria continua X, con funcin de densidad f(x)
est dada por:
F(x) =P(Xx) =
}
+

dt t f ) ( para - < x <
Como consecuencia inmediata se tiene que :

P(a<Z<b) = F(b) F(a)
dx
x dF
x f
) (
) ( =
si existe la derivada.

Ejemplo:

Suponga que el error en la temperatura de reaccin en grados centgrados, para un experimento
controlado de laboratorio es una variable aleatoria continua X que tiene la funcin de probabilidad:

< <
=
caso otro
x
x
x f
0
2 1
3
) (
2

a) verifique la condicin de ser funcin de densidad ; b) Encuentre P(0<X1)
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
60/90
ESPERANZA MATEMTICA

Introduccin

De forma anloga a lo que se se hizo en estadstica descriptiva, podemos definir para variables
aleatorias medidas de centralizacin, dispersin, simetra y forma. Por su inters nos vamos a centrar
en dos medidas sobre variable aleatoria que son la esperanza matemtica que desempea un papel
equivalente al de la media y el momento central de segundo orden, tambin denominado varianza.


Valor esperado o esperanza matemtica

Sea X una variable aleatoria discreta. Se denomina esperanza matemtica de X o valor esperado, y
se denota bien E[x] o bien , a la cantidad que se expresa como:

donde es el conjunto numerable de ndices de los valores que puede tomar la variable (por ejemplo
II = {1,2,....,k} para un nmero finito de valores de la variable aleatoria. o bien para una
cantidad infinita numerable de los mismos.

Si X es una variable aleatoria continua, se define su esperanza a partir de la funcin de densidad
como sigue:

En resumen

continua es si
dx x xf X E
discreta es si
x xf X E
x
}

+

= =
= =
) ( ) (
) ( ) (



Todo ello, sii xp(x) es absolutamente convergente y x f(x)dx es absolutamente convergente.
La esperanza matemtica de X, se llama tambin media de la variable aleatoria y se
denota por

Nota: Un juego se considera equitativo, si la esperanza matemtica o valor esperado de la
ganancia es cero.
Ejemplo

Si se tiran dos monedas al aire 16 veces y X representa el nmero de caras que ocurren por
lanzamiento, entonces los valores de X pueden ser 0,1 y 2. Suponga que en el experimento se
obtienen cero caras, una cara 7 veces y dos caras 5 veces. El promedio de caras por lanzamiento de
las dos monedas es entonces:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
61/90
06 . 1 |
16
) 5 )( 2 ( ) 7 )( 1 ( ) 4 )( 0 (
=
+ +

Este es un valor promedio y no necesariamente un resultado posible del experimento.
Reestructurando ahora el clculo para el valor promedio encontrado anteriormente:

06 . 1 | )
16
5
)( 2 ( )
16
7
)( 1 ( )
16
4
)( 0 ( = + +

Los nmeros 4/16, 7/16y 5/16 son las fracciones del total de lanzamientos que resulta en 0,1 y 2
caras respectivamente. Estas fracciones son tambin las frecuencias relativas que corresponden a
los diferentes valores de X en el experimento. En efecto, se puede calcular entonces la media o el
promedio de un conjunto de datos si se conocen los distintos valores que intervienen y sus
frecuencias relativas.

La Esperanza Matemtica tanto de la variable aleatoria discreta como continua, es igual a la abscisa
del centro de gravedad del rea acotada por la curva o el polgono de distribucin de probabilidad y el
eje de abscisas o en otras palabras, es el centro de gravedad de todos los datos obtenidos de
acuerdo a s u peso definido por la probabilidad de ocurrencia de cada variable aleatoria.


Propiedades de la Esperanza Matemtica

Recordamos que si



y por tanto tiene sentido calcular su esperanza matemtica:


Por las analogas existente entre la definicin de media aritmtica y esperanza matemtica, las
propiedades de linealidad de la primera se trasladan a la segunda, como es inmediato comprobar:
Adicionalmente, sabemos que al existir una variable aleatoria que define el comportamiento de un
experimento, es factible encontrar una funcin de transferencia Y= H(x); consecuentemente, el valor
esperado de la variable aleatoria X podr ser tambin transferido por E[H(X)], es as que:
[ ]
[ ] b x aE b aX E
dx x f x H X H E
o x p x H x H E
x
R x
=
(
(

=
=
}

) (
) ( ) ( ) (
) ( ) ( ) (

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
62/90


Eventos Equivalentes

Se dice que dos eventos son equivalentes, si E
x
es un evento en R
x
(E
x
R
x
) y F
y
un evento en R
y
(F
y
R
y
) se dan a travs de: E
x
= {x R
x
/H(x) F
y
}. En otras palabras, los eventos son equivalentes si
la ocurrencia de uno implica la ocurrencia del otro.

Por otra parte, si X es una variable aleatoria definida en el espacio muestral con rango R
x,
entonces
la funcin de transferencia H(x) de modo que Y = H(x) es una variable aleatoria con rango R
y ,
entonces para cualquier evento F
y
R
y
definimos que p[F
y
] = p[{x R
x
/H(x) F
y
} ] = p [E
x
]. Es
decir, la probabilidad de un evento en el rango Y est definida como la probabilidad del evento
equivalente en R
x.

Sea x una variable aleatoria cuya funcin de probabilidad es:
casos otros en
x
a
a e
x p
x a
0
,.... 2 , 1 , 0 ,
!
) ( = =

si y = H(x) = 2X + 2 Calcular P[Y < 5], P[Y > 4]




Funciones Continuas de una Variable Aleatoria

Si x es una variable aleatoria continua con funcin de densidad (x), y H(x) una funcin continua,
entonces Y = H(x) es una variable aleatoria continua. La funcin de densidad de probabilidad de la
variable aleatoria Y, denotado por g, se obtiene siguiendo el siguiente procedimiento:

1 Se obtiene la funcin de distribucin G de Y, es decir G(y) = P(Y y)
2 Derivando G(y) con respecto a y se obtiene g(y)
3 Se halla el rango de la nueva variable aleatoria con la condicin que g(y) > 0


Ejemplo

Supongamos que X es una variable aleatoria con funcin de densidad


=
casos otros
x x
x f
, 0
5 2 0 , 10 /
) ( Si Y = H(x) = 2X + 6. Calcular la funcin de densidad g en Y

a)
Encontremos los lmites de la funcin: para x = 0 y = 6; x = 2(5)
0.5
y = 4x5
0.5
+6

b) Se conoce adems que: y =
2
6 y
entonces:
G(y) = p(Y y) 0 p(2X + 6 y) = p[X
2
6 y
]
}

+ = = =
2
6
0
2
2
6
0
2
) 36 12 (
80
1
20 10
) (
y
y
y y
x
dx
x
y G
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
63/90
20
3
40
) ( ) ( = =
y
y G
dy
d
y g

+
=
casos otros
y
y
y g
, 0
6 5 4 6 ,
20
3
40
) (
Nota. G(y) puede obtenerse de
dy
dx
x f ) (


Varianza de una Variable Aleatoria

La varianza de una variable aleatoria X, se denota por Var(X) o por la letra griega
2
y se define como
el primer momento respecto al valor esperado de las variables aleatorias

Var(x) =
2
= E[ [[ [(X- )
2
] ]] ]

Por lo tanto:
[ ]
( ) dx x f x
x p x X E
x
R x
) (
) ( ) ( ) (
2
2
2 2 2
}

=
= =



Resultado de la Varianza es la llamada Desviacin Tpica que se define como la raz cuadrada de la
varinaza y se denota por . La desviacin tpica con un valor pequeo indica poca dispersin,
mientras que un valor grande indica gran dispersin.

[ ]
) (
) ( ) (
2 2
2 2
x Var a
x Var a b aX Var
=
= =



Nota

La esperanza matemtica y la varianza pueden ser calculadas a partir de otras medidas, que son los
momentos.


Momentos de una Variable Aleatoria

Se denomina momento de orden r ( r N),
r
, a:

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
64/90


Asimismo se denomina momento central de orden r, m
r
, a:



De este modo, es claro que la esperanza matemtica es el momento de primer orden





Teorema de Chebyshev

Si X es variable aleatoria con y , entonces







Este importante resultado, por si slo, justifica el que sea una medida de centralizacin y o (o bien
o
2
) de dispersin de X y motiva la introduccin del concepto de tipificacin de variables aleatorias.
Dada una variable aleatoria X, definimos su variable aleatoria tipificada, Z, como:



UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
65/90
Distribuciones Discretas y Continuas


Una vez que hemos tomado conocimiento de las tcnicas de conteo, el valor esperado que se puede
encontrar en un experimento aleatorio y su varianza o grado de dispersin, es ms cmodo poder
establecer las distribuciones que se aplican para obtener la probabilidad de ocurrencia de un evento
en particular.

En el caso de las distribuciones discretas, el comportamiento de la variable aleatoria discreta se
describe por su distribucin de probabilidad sin importar si sta se representa de manera grfica por
un histograma, en forma tabular o por medio de una frmula.
Las distribuciones discretas son aquellas en las que la variable puede pude tomar un nmero
determinado de valores:
Ejemplo: si se lanza una moneda al aire puede salir cara o cruz; si se tira un dado
puede salir un nmero de 1 al 6; en una ruleta el nmero puede tomar un valor del 1
al 32.
Las distribuciones continuas son aquellas que presentan un nmero infinito de posibles soluciones:
Ejemplo: El peso medio de los alumnos de una clase puede tomar infinitos valores
dentro de cierto intervalo (42,37 kg, 42,3764 kg, 42, 376541kg, etc); la esperanza
media de vida de una poblacin (72,5 aos, 7,513 aos, 72, 51234 aos).
Vamos a comenzar por estudiar las principales distribuciones discretas.


Con frecuencia, las observaciones generadas por experimentos estadsticos tienen en general
el mismo tipo de comportamiento. En consecuencia, las variables aleatorias discretas asociadas a
estos experimentos pueden ser descritas por la misma distribucin de probabilidad.

Distribucin Discreta Uniforme.

La ms simple de todas las distribuciones de probabilidad discretas es aquella en la que la variable
aleatoria asume cada uno de sus valores con igual probabilidad. Esta distribucin se llama
distribucin Discreta Uniforme.
k
x x x
k
k x f ,.....,
1
) ; (
2 , 1
=
Si la variable aleatoria X toma los valores x
1
, x
2
, x
3
, x
4
,x
1
....., x
n
con igual probabilidad , entonces la
distribucin discreta uniforme est dada por f(x;k) son:
k
x
k
x
k
i
i
k
i
i
= =

= =
1
2
1
) (


Distribuciones discretas: Bernoulli

Es aquel modelo que sigue un experimento que se realiza una sola vez y que puede tener dos
soluciones: acierto o fracaso:
Cuando es acierto la variable toma el valor 1
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
66/90
Cuando es fracaso la variable toma el valor 0
La distribucin de probabilidad de la variable aleatoria de Bernoulli es llamada la distribucin de
Bernoulli y su grfica se muestra a continuacin:
X 0 1
p(x) q = 1-p P


Ejemplo

S = {ccc,ccs,csc,css,scc,scs,ssc,sss}

R
x
= {0,1,2,3}
X 0 1 2 3
P(x) (1-p)
3
3p(1-p)
2

3p
2
(1-
p)
p
3


Ejemplo: Probabilidad de salir cara al lanzar una moneda al aire (sale cara o no sale); probabilidad
de ser admitido en una universidad (o te admiten o no te admiten); probabilidad de acertar una
quiniela (o aciertas o no aciertas)
Al haber nicamente dos soluciones se trata de sucesos complementarios:
A la probabilidad de xito se le denomina "p"
A la probabilidad de fracaso se le denomina "q"
Verificndose que:

p + q = 1

Veamos los ejemplos anteriores :
Ejemplo 1: Probabilidad de salir cara al lanzar una moneda al aire:
Probabilidad de que salga cara: p = 0,5
Probabilidad de que no salga cara: q = 0,5
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
67/90
p + q = 0,5 + 0,5 = 1
Ejemplo 2: Probabilidad de ser admitido en la universidad:
Probabilidad de ser admitido: p = 0,25
Probabilidad de no ser admitido: q = 0,75
p + q = 0,25 + 0,75 = 1
Ejemplo 3: Probabilidad de acertar una quiniela:
Probabilidad de acertar: p = 0,00001
Probabilidad de no acertar: q = 0,99999
p + q = 0,00001 + 0,99999 = 1
Distribuciones discretas: Binomial
Las distribucin binomial parte de la distribucin de Bernouilli:
La distribucin de Bernouiili se aplica cuando se realiza una sola vez un experimento que
tiene nicamente dos posibles resultados (xito o fracaso), por lo que la variable slo puede
tomar dos valores: el 1 y el 0
La distribucin binomial se aplica cuando se realizan un nmero"n" de veces el
experimento de Bernouiili, siendo cada ensayo independiente del anterior. La variable puede
tomar valores entre:
0: si todos los experimentos han sido fracaso
n: si todos los experimentos han sido xitos
Ejemplo: se tira una moneda 10 veces: cuantas caras salen? Si no ha salido ninguna la
variable toma el valor 0; si han salido dos caras la variable toma el valor 2; si todas han sido
cara la variable toma el valor 10
La distribucin de probabilidad de este tipo de distribucin sigue el siguiente modelo:

Alguien entiende esta frmula? Vamos a tratar de explicarla con un ejemplo:
Ejemplo 1: Cul es la probabilidad de obtener 6 caras al lanzar una moneda 10 veces?
" k " es el nmero de aciertos. En este ejemplo " k " igual a 6 (en cada acierto
decamos que la variable toma el valor 1: como son 6 aciertos, entonces k = 6)
" n" es el nmero de ensayos. En nuestro ejemplo son 10
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
68/90
" p " es la probabilidad de xito, es decir, que salga "cara" al lanzar la moneda. Por
lo tanto p = 0,5
La frmula quedara:

Luego,
P (x = 6) = 0,205
Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10 veces una moneda.
Ejemplo 2: Cul es la probabilidad de obtener cuatro veces el nmero 3 al lanzar un dado ocho
veces?
" k " (nmero de aciertos) toma el valor 4
" n" toma el valor 8
" p " (probabilidad de que salga un 3 al tirar el dado) es 1 / 6 (= 0,1666)
La frmula queda:

Luego,
P (x = 4) = 0,026
Es decir, se tiene una probabilidad del 2,6% de obtener cuatro veces el nmeros 3 al tirar un dado 8
veces.

Distribuciones discretas: Poisson
La distribucin de Poisson parte de la distribucin binomial segn el siguiente principio:
Los experimentos que resultan en valores numricos de una variable aleatoria X, misma que
representa el nmero de resultados durante el intervalo de tiempo dado o una regin especfica,
frecuentemente se llaman experimentos de Poisson. El intervalo de tiempo dado puede ser de
cualquier duracin de tiempo, por ejemplo un minuto, un da, una semana, un mes o inclusive un ao.
De aqu que un experimento de Poisson puede generar observaciones para la variable aleatoria X
que representa el nmero de algn evento en un lapso de tiempo dado.
Un experimento de Poisson sugiere del proceso de Poisson y tiene las siguientas propiedades:
1. El nmero de resultados que ocurren en un intervalo de tiempo o regin especficos es
independiente de el nmero que ocurre en cualquier otro intervalo disjunto de tiempo o regin
del espacio disjunto.
2. La probabilidad de que un resultado muy sencillo ocurra en un intervalo de tiempo muy corto
o en una regin pequea es proporcional a la longitud del intervalo de tiempo o al tamao de
la regin.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
69/90
3. La probabilidad de que ms de un resultado ocurra en un intervalo de tiempo tan corto o en
esa regin tan pequea es despreciable.
La distribucin de probabilidad de la variable aleatoria de Poisson X que representa el nmero de
resultados que ocurren en un intervalo de tiempo dado, indicado por t es:

Cuando en una distribucin binomial se realiza el experimento un nmero "n" muy elevado de veces
y la probabilidad de xito "p" en cada ensayo es reducida, entonces se aplica el modelo de
distribucin de Poisson:
Se tiene que cumplir que:
" p " < 0,10
" p * n " < 10
La distribucin de Poisson sigue el siguiente modelo:

Vamos a explicarla:
El nmero "e" es 2,71828
" l " = n * p (es decir, el nmero de veces " n " que se realiza el experimento
multiplicado por la probabilidad " p " de xito en cada ensayo)
" k " es el nmero de xito cuya probabilidad se est calculando
Veamos un ejemplo:
La probabilidad de tener un accidente de trfico es de 0,02 cada vez que se viaja, si se realizan 300
viajes, cual es la probabilidad de tener 3 accidentes?
Como la probabilidad " p " es menor que 0,1, y el producto " n * p " es menor que 10, entonces
aplicamos el modelo de distribucin de Poisson.

Luego,
P (x = 3) = 0,0892
Por lo tanto, la probabilidad de tener 3 accidentes de trfico en 300 viajes es del 8,9%
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
70/90
La probabilidad de que un nio nazca pelirrojo es de 0,012. Cul es la probabilidad de que entre 800
recien nacidos haya 5 pelirrojos?

Luego,
P (x = 5) = 4,602
Por lo tanto, la probabilidad de que haya 5 pelirrojos entre 800 recien nacidos es del 4,6%

Distribuciones Discretas: Hipergeomtrica
La distribucin hipergeomtrica es el modelo que se aplica en experimentos donde al igual que en la
distribucin binomial, en cada ensayo hay tan slo dos posibles resultados: o sale blanca o no sale.
Pero se diferencia de la distribucin binomial en que los distintos ensayos son dependientes entre s:
Si en una urna con 5 bolas blancas y 3 negras en un primer ensayo saco una bola blanca, en el
segundo ensayo hay una bola blanca menos por lo que las probabilidades son diferentes (hay
dependencia entre los distintos ensayos).
La distribucin hipergeomtrica sigue el siguiente modelo:

Donde:



Vamos a tratar de explicarlo:
N: es el nmero total de bolas en la urna
N1: es el nmero total de bolas blancas
N2: es el nmero total de bolas negras
k: es el nmero de bolas blancas cuya probabilidad se est calculando
n: es el nmero de ensayos que se realiza
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
71/90
Veamos un ejemplo: en una urna hay 7 bolas blancas y 5 negras. Se sacan 4 bolas Cul es la
probabilidad de que 3 sean blancas?
Entonces:
N = 12; N1 = 7; N2 = 5; k = 3; n = 4
Si aplicamos el modelo:

Por lo tanto, P (x = 3) = 0,3535. Es decir, la probabilidad de sacar 3 bolas blancas es del 35,3%.

Pero este modelo no slo se utiliza con experimentos con bolas, sino que tambin se aplica con
experimentos similares:

Ejemplo: en una fiesta hay 20 personas: 14 casadas y 6 solteras. Se eligen 3 personas al azar Cul
es la probabilidad de que las 3 sean solteras?


Por lo tanto, P (x = 3) = 0,0175. Es decir, la probabilidad de que las 3 personas sean solteras es tan
slo del 1,75%.


Distribuciones discretas: Multinomial
La distribucin multinomial es similar a la distribucin binomial, con la diferencia de que en lugar
de dos posibles resultados en cada ensayo, puede haber mltiples resultados:
Ejemplo de distribucin binomial: a unas elecciones se presentaron 2 partidos
polticos: el POPO obtuvo un 70% de los votos y el JEJE el 30% restante. Cul es la
probabilidad de que al elegir 5 ciudadanos al azar, 4 de ellos hallan votado al JEJE?
Ejemplo de distribucin multinomial: a esas elecciones se presentaron 4 partidos
polticos: el POPO obtuvo un 40% de los votos, el JEJE el 30%, el MUMU el 20% y el
LALA el 10% restante. Cul es la probabilidad de que al elegir 5 ciudadanos al azar,
3 hayan votado al POPO, 1 al MUMU y 1 al LALA?
La distribucin multinomial sigue el siguiente modelo:

Donde:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
72/90
X1 = x1: indica que el suceso X1 aparezca x1 veces (en el ejemplo, que el partido
POPO lo hayan votado 3 personas)
n: indica el nmero de veces que se ha repetido el suceso (en el ejemplo, 5 veces)
n!: es factorial de n (en el ejemplo: 5 * 4 * 3 * 2 * 1)
p1: es la probabilidad del suceso X1 (en el ejemplo, el 40%)
Veamos el ejemplo:

Luego:
P = 0,0256

Es decir, que la probabilidad de que las 5 personas elegidas hayan votado de esta manera es tan slo
del 2,56%

Nota: 0! es igual a 1, y cualquier nmero elevado a 0 es tambin igual a 1

En una fiesta, el 20% de los asistentes son espaoles, el 30% franceses, el 40% italiano y el 10%
portugueses. En un pequeo grupo se han reunido 4 invitados: cual es la probabilidad de que 2 sean
espaoles y 2 italianos?
Aplicamos el modelo:

Luego
P = 0,0384

Por lo tanto, la probabilidad de que el grupo est formado por personas de estos pases es tan slo
del 3,84%.


Distribuciones discretas: Multihipergeomtrica
La distribucin multihipergeomtrica es similar a la distribucin hipergeomtrica, con la diferencia
de que en la urna, en lugar de haber nicamente bolas de dos colores, hay bolas de diferentes
colores.
Ejemplo: en una urna hay 7 bolas blancas, 3 verdes y 4 amarillas: cul es la probabilidad de que al
extraer 3 bolas sea cada una de un color distinto?
La distribucin multihipergeomtrica sigue el siguiente modelo:


Donde:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
73/90
X1 = x1: indica que el suceso X1 aparezca x1 veces (en el ejemplo, que una de las
bolas sea blanca)
N1: indica el nmero de bolas blancas que hay en la urna (en el ejemplo, 7 bolas)
N: es el nmero total de bolas en la urna (en el ejemplo, 14 bolas)
n: es el nmero total de bolas que se extraen (en el ejemplo, 3 bolas)
Veamos el ejemplo:

Luego:
P = 0,2307

Es decir, que la probabilidad de sacar una bola de cada color es del 23,07%.

En una caja de lpices hay 10 de color amarillo 3 de color azul y 4 de color rojo. Se extraen 7 lpices,
cual es la probabilidad de que 5 sean amarillos y 2 rojos?
Aplicamos el modelo:

Luego
P = 0,0777

Por lo tanto, la probabilidad de que los 5 lpices sean de los colores indicados es del 7,77%.


Distribuciones Continuas

Distribucin Uniforme

La distribucin uniforme es aquella que puede tomar cualquier valor dentro de un intervalo, todos
ellos con la misma probabilidad.
Es una distribucin continua porque puede tomar cualquier valor y no nicamente un nmero
determinado (como ocurre en las distribuciones discretas).
Ejemplo: el precio medio del litro de gasolina durante el prximo ao se estima que puede oscilar
entre 140 y 160 Bolivianos. Podra ser, por tanto, de 143 Bolivianos., o de 143,4 Bolivianos., o de
143,45 Bolivianos., o de 143,455 Bolivianos, etc. Hay infinitas posibilidades, todas ellas con la misma
probabilidad.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
74/90
La funcin de densidad, es aquella que nos permite conocer la probabilidad que tiene cada punto
del intervalo; viene definida por:


Funcin de densidad y de distribucin

[ ]
( )
12
) (
2
resto 0

1
) (
2
a b
X V
a b
X E
b x a
a b X f

=
+
=


=


Donde:
b: es el extremo superior (en el ejemplo, 160 Bolivianos.)
a: es el extremo inferior (en el ejemplo, 140 Bolivianos.)
Por lo tanto, la funcin de distribucin del ejemplo sera:

Es decir, que el valor final est entre 140 Bolivianos. y 141 Bolivianos. tiene un 5% de probabilidad,
que est entre 141 y 142, otro 5%, etc.

El valor medio de esta distribucin se calcula:

En el ejemplo:

Por lo tanto, el precio medio esperado de la gasolina para el prximo ao es de 150 Bolivianos.
Veamos otro ejemplo:

El volumen de precipitaciones estimado para el prximo ao en la ciudad de Sevilla va a oscilar entre
400 y 500 litros por metro cuadrado. Calcular la funcin de distribucin y la precipitacin media
esperada:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
75/90


Es decir, que el volumen de precipitaciones est entre 400 y 401 litros tiene un 1% de probabilidades;
que est entre 401 y 402 litros, otro 1%, etc.

El valor medio esperado es:


Es decir, la precipitacin media estimada en Sevilla para el prximo ao es de 450 litros.

Distribucin Exponencial
La distribucin exponencial es el equivalente continuo de la distribucin geomtrica discreta. Esta ley
de distribucin describe procesos en los que:
Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que,
el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra en un
instante t
f
, no depende del tiempo transcurrido anteriormente en el que no ha pasado nada.
Ejemplos de este tipo de distribuciones son:
El tiempo que tarda una partcula radiactiva en desintegrarse. El conocimiento de la ley que
este evento se utiliza en Ciencia para, por ejemplo, la datacin de fsiles o cualquier materia
orgnica mediante la tcnica del carbono 14, C
14
;
El tiempo que puede transcurrir en un servicio de urgencias, para la llegada de un paciente;
En un proceso de Poisson donde se repite sucesivamente un experimento a intervalos de
tiempo iguales, el tiempo que transcurre entre la ocurrencia de dos sucesos consecutivos
sigue un modelo probabilstico exponencial. Por ejemplo, el tiempo que transcurre entre que
sufrimos dos veces una herida importante.
Concretando, si una variable aleatoria continua X distribuida a lo largo de , es tal que su funcin
de densidad es
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
76/90

Un clculo inmediato nos dice que si x>0,


luego la funcin de distribucin es:

Para calcular el valor esperado y la varianza de la distribucin exponencial, obtenemos en primer
lugar la funcin caracterstica


para despus, derivando por primera vez
y derivando por segunda vez,
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
77/90
Entonces la varianza vale

En un experimento de laboratorio se utilizan 10 gramos de . Sabiendo que la duracin media
de un tomo de esta materia es de 140 das, cuantos idas transcurrirn hasta que haya
desaparecido el 90%de este material?
Solucin: El tiempo T de desintegracin de un tomo de es una variable aleatoria. de
distribucin exponencial:
Como el nmero de tomos de existentes en una muestra de 10 gramos es enorme, el
histograma de frecuencias relativas formado por los tiempos de desintegracin de cada uno de estos
tomos debe ser extremadamente aproximado a la curva de densidad, f. Del mismo modo, el
polgono de frecuencias relativas acumuladas debe ser muy aproximado a la curva de su funcin de
distribucin F. Entonces el tiempo que transcurre hasta que el del material radiactivo se
desintegra es el percentil 90, t
90
, de la distribucin exponencial, es decir


Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue una distribucin
exponencial con media de 16 aos. Cul es la probabilidad de que a una persona a la que se le ha
implantado este marcapasos se le deba reimplantar otro antes de 20 aos? Si el marcapasos lleva
funcionando correctamente 5 aos en un paciente, cul es la probabilidad de que haya que
cambiarlo antes de aos?
Solucin: Sea T la variable aleatoria que mide la duracin de un marcapasos en una persona.
Tenemos que
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
78/90
Entonces

En segundo lugar
Luego como era de esperar, por ser propio a un mecanismo exponencial


o sea, en la duracin que se espera que tenga el objeto, no influye en nada el tiempo que en la
actualidad lleva funcionando. Es por ello que se dice que ``la distribucin exponencial no
tiene memoria".
Distribucin de Weibull
Desde hace algunos aos la distribucin Weibull ha sobresalido dentro de la familia de distribuciones
para anlisis de fallas. Su aplicabilidad a diferentes situaciones de falla fue presentada por Weibull en
1951. Se utiliz para describir fallas en rodamientos (Lieblein y Zelen, 1956).
Considerando que la distribucin exponencial est limitada, debido a que hace la suposicin de una
tasa de falla o funcin de riesgo constante, la distribucin de Weibull puede ser definida para incluir una
tasa de falla o tasa de riesgo creciente o decreciente. Ya que la mayor cantidad de fallas en campo,
especialmente las partes mecnicas, muestran un aumento en la tasa de falla (debido a desgaste o
deterioro del material), la distribucin de Weibull es muy til en describir patrones de falla de este tipo.
A continuacin se muestran curvas de diferentes tasas de falla (Hazard rate) o funcin de riesgo
La tasa de falla o funcin de riesgo para la distribucin Weibull se define como
Donde:
es el parmetro de forma de la distribucin.
0 es el parmetro de escala o vida caracterstica.
es el parmetro de localizacin.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
79/90

La funcin de la densidad de probabilidad de la distribucin Weibull para tres
parmetros es:
Esta se puede representar con slo dos parmetros (, ). La diferencia en las dos
distribuciones es el parmetro de localizacin, , el cual recorre la distribucin a lo
largo del eje x. Por definicin, hay cero probabilidad de falla para x < . Esto
implicara valores negativos en el parmetro de localizacin, lo cual significara que
los elementos fallan antes de la prueba.

Para el caso de = 0, = 1 y el parmetro de forma, , con diferentes valores la
funcin de distribucin se ilustra en la siguiente figura.


La distribucin de Weibull es utilizada extensamente en aplicaciones de confiabilidad
para modelar los tiempos a la falla obtenindose resultados adecuados de la
confiabilidad.

La funcin acumulativa de la distribucin para la distribucin Weibull quedara de la
siguiente manera


y a funcin de confiabilidad sera
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
80/90

Distribucin Normal
La distribucin normal fue reconocida por primera vez por el francs Abraham de Moivre (1667-
1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elabor desarrollos ms profundos y
formul la ecuacin de la curva; de ah que tambin se la conozca, ms comnmente, como la
"campana de Gauss". La distribucin de una variable normal est completamente determinada por
dos parmetros, su media y su desviacin estndar, denotadas generalmente por y o. Con esta
notacin, la densidad de la normal viene dada por la ecuacin:

|
.
|

\
|
= x
x
x f
2
2
1
exp
2
1
) (



que determina la curva en forma de campana que tan bien conocemos. As, se dice que una
caracterstica X sigue una distribucin normal de media y varianza o
2
, y se denota como X (, o
2
)
si su funcin de densidad viene dada por la Ecuacin descrita anteriormente.
Al igual que ocurra con un histograma, en el que el rea de cada rectngulo es proporcional al
nmero de datos en el rango de valores correspondiente si, en el eje horizontal se levantan
perpendiculares en dos puntos a y b, el rea bajo la curva delimitada por esas lneas indica la
probabilidad de que la variable de inters, X, tome un valor cualquiera en ese intervalo. Puesto que
la curva alcanza su mayor altura en torno a la media, mientras que sus "ramas" se extienden
asintticamente hacia los ejes, cuando una variable siga una distribucin normal, ser mucho ms
probable observar un dato cercano al valor medio que uno que se encuentre muy alejado de ste.

Propiedades de la distribucin normal:
La distribucin normal posee ciertas propiedades importantes que conviene destacar:
i. Tiene una nica moda, que coincide con su media y su mediana.
ii. La curva normal es asinttica al eje de abscisas. Por ello, cualquier valor entre - y
+ es tericamente posible. El rea total bajo la curva es, por tanto, igual a 1.
iii. Es simtrica con respecto a su media . Segn esto, para este tipo de variables
existe una probabilidad de un 50% de observar un dato mayor que la media, y un
50% de observar un dato menor.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
81/90
iv. La distancia entre la lnea trazada en la media y el punto de inflexin de la curva es
igual a una desviacin tpica (o). Cuanto mayor sea o, ms aplanada ser la curva
de la densidad.
v. El rea bajo la curva comprendido entre los valores situados aproximadamente a dos
desviaciones estndar de la media es igual a 0.95. En concreto, existe un 95% de
posibilidades de observar un valor comprendido en el intervalo { 1.96o, +1.96o }.
vi. La forma de la campana de Gauss depende de los parmetros y o. La media
indica la posicin de la campana, de modo que para diferentes valores de la grfica
es desplazada a lo largo del eje horizontal. Por otra parte, la desviacin estndar
determina el grado de apuntamiento de la curva. Cuanto mayor sea el valor de o,
ms se dispersarn los datos en torno a la media y la curva ser ms plana. Un
valor pequeo de este parmetro indica, por tanto, una gran probabilidad de obtener
datos cercanos al valor medio de la distribucin.
Como se deduce de este ltimo apartado, no existe una nica distribucin normal, sino una familia de
distribuciones con una forma comn, diferenciadas por los valores de su media y su varianza. De
entre todas ellas, la ms utilizada es la distribucin normal estndar, que corresponde a una
distribucin de media 0 y varianza 1. As, la expresin que define su densidad resulta ser:

)
`

= Z
Z
x f
2
exp
2
1
) (
2


Es importante conocer que, a partir de cualquier variable X que siga una distribucin N(,o), se
puede obtener otra caracterstica Z con una distribucin normal estndar, sin ms que efectuar la
transformacin:


=
X
z
Esta propiedad resulta especialmente interesante en la prctica, ya que para una distribucin N(0,1)
existen tablas publicadas a partir de las que se puede obtener de modo sencillo la probabilidad de
observar un dato menor o igual a un cierto valor z, y que permitirn resolver preguntas de
probabilidad acerca del comportamiento de variables de las que se sabe o se asume que siguen una
distribucin aproximadamente normal.
Consideremos, por ejemplo, el siguiente problema: supongamos que se sabe que el peso de los
sujetos de una determinada poblacin sigue una distribucin aproximadamente normal, con una
media de 80 Kg y una desviacin estndar de 10 Kg. Podremos saber cul es la probabilidad de
que una persona, elegida al azar, tenga un peso superior a 100 Kg?
Denotando por X a la variable que representa el peso de los individuos en esa poblacin, sta sigue
una distribucin N(80,10). Si su distribucin fuese la de una normal estndar podramos utilizar Una
tabla de distribucin normal para calcular la probabilidad que nos interesa que unid a la utilizacin de
la ecuacin de transformacin:
10
80
=
X
z
para poder utilizar dicha tabla. As, la probabilidad que se desea calcular ser:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
82/90
) 2 (
10
80 100
) 100 ( > = |
.
|

\
|
> = > Z P Z P x P
Como el rea total bajo la curva es igual a 1, se puede deducir que:
) 2 ( 1 ) 2 ( = > Z P Z P
Esta ltima probabilidad puede ser fcilmente obtenida a partir de la tabla de distribucin normal,
resultando ser P(Z>2) = 0.9772. Por lo tanto, la probabilidad buscada de que una persona elegida
aleatoriamente de esa poblacin tenga un peso mayor de 100 Kg , es de 10.9772=0.0228, es decir,
aproximadamente de un 2.3%.
Ejemplo: queremos conocer la probabilidad acumulada en el valor 2,75.Entonces buscamos en la
columna de la izquierda el valor 2,7 y en la primera fila el valor 0,05. La casilla en la que se
interseccionan es su probabilidad acumulada (0,99702, es decir 99.7%).
Atencin: la tabla nos da la probabilidad acumulada, es decir, la que va desde el inicio de la curva
por la izquierda hasta dicho valor. No nos da la probabilidad concreta en ese punto. En una
distribucin continua en el que la variable puede tomar infinitos valores, la probabilidad en un punto
concreto es prcticamente despreciable.
Ejemplo: Imaginemos que una variable continua puede tomar valores entre 0 y 5. La probabilidad de
que tome exactamente el valor 2 es despreciable, ya que podra tomar infinitos valores: por ejemplo:
1,99, 1,994, 1,9967, 1,9998, 1999791, etc.
Veamos otros ejemplos:
Probabilidad acumulada en el valor 0,67: la respuesta es 0,7486
Probabilidad acumulada en el valor 1,35: la respuesta es 0,9115
Probabilidad acumulada en el valor 2,19: la respuesta es 0,98574
Veamos ahora, como podemos utilizar esta tabla con una distribucin normal:
Ejemplo: el salario medio de los empleados de una empresa se distribuye segn una distribucin
normal, con media 5 millones de Bolivianos. y desviacin tpica 1 milln de Bolivianos. Calcular el
porcentaje de empleados con un sueldo inferior a 7 millones de Bolivianos.
Lo primero que haremos es transformar esa distribucin en una normal tipificada, para ello se crea una
nueva variable (Y) que ser igual a la anterior (X) menos su media y dividida por la desviacin tpica

En el ejemplo, la nueva variable sera:

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
83/90
Esta nueva variable se distribuye como una normal tipificada. La variable Y que corresponde
a una variable X de valor 7 es:

Ya podemos consultar en la tabla la probabilidad acumulada para el valor 2 (equivalente a la
probabilidad de sueldos inferiores a 7 millones de bolivianos.). Esta probabilidad es 0,97725
Por lo tanto, el porcentaje de empleados con salarios inferiores a 7 millones de Bolivianos. es
del 97,725%.
Ejercicio 1: La renta media de los habitantes de un pas es de 4 millones de Bolivianos/ao, con
una varianza de 1,5. Se supone que se distribuye segn una distribucin normal. Calcular:
a) Porcentaje de la poblacin con una renta inferior a 3 millones de Bolivianos.
b) Renta a partir de la cual se sita el 10% de la poblacin con mayores ingresos.
c) Ingresos mnimo y mximo que engloba al 60% de la poblacin con renta media.
a) Porcentaje de la poblacin con una renta inferior a 3 millones de Bolivianos.
Lo primero que tenemos que hacer es calcular la normal tipificada:

(*) Recordemos que el denominador es la desviacin tpica ( raz cuadrada de la
varianza)
El valor de Y equivalente a 3 millones de Bolivianos es -0,816.
P (X < 3) = P (Y < -0,816)
Ahora tenemos que ver cul es la probabilidad acumulada hasta ese valor. Tenemos un problema: la
tabla de probabilidades (ver leccin 35) slo abarca valores positivos, no obstante, este problema tiene
fcil solucin, ya que la distribucin normal es simtrica respecto al valor medio.
Por lo tanto:
P (Y < -0,816) = P (Y > 0,816)
Por otra parte, la probabilidad que hay a partir de un valor es igual a 1 (100%) menos la probabilidad
acumulada hasta dicho valor:
P (Y > 0,816) = 1 - P (Y < 0,816) = 1 - 0,7925 (aprox.) = 0,2075
Luego, el 20,75% de la poblacin tiene una renta inferior a 3 millones Bolivianos.
b) Nivel de ingresos a partir del cual se sita el 10% de la poblacin con renta ms elevada.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
84/90
Vemos en la tabla el valor de la variable tipificada cuya probabilidad acumulada es el 0,9 (90%), lo
que quiere decir que por encima se sita el 10% superior.
Ese valor corresponde a Y = 1,282 (aprox.). Ahora calculamos la variable normal X equivalente a ese
valor de la normal tipificada:

Despejando X, su valor es 5,57. Por lo tanto, aquellas personas con ingresos superiores a 5,57
millones de Bolivianos. constituyen el 10% de la poblacin con renta ms elevada.
c) Nivel de ingresos mnimo y mximo que engloba al 60% de la poblacin con renta media
Vemos en la tabla el valor de la variable normalizada Y cuya probabilidad acumulada es el 0,8 (80%).
Como sabemos que hasta la media la probabilidad acumulada es del 50%, quiere decir que entre la
media y este valor de Y hay un 30% de probabilidad.
Por otra parte, al ser la distribucin normal simtrica, entre -Y y la media hay otro 30% de
probabilidad. En definitiva, el segmento (-Y, Y) engloba al 60% de poblacin con renta media.
El valor de Y que acumula el 80% de la probabilidad es 0,842 (aprox.), por lo que el segmento viene
definido por (-0,842, +0,842). Ahora calculamos los valores de la variable X correspondientes a estos
valores de Y.
Los valores de X son 2,97 y 5,03. Por lo tanto, las personas con ingresos superiores a 2,97 millones
de Bolivianos. e inferiores a 5,03 millones de Bolivianos. constituyen el 60% de la poblacin con un
nivel medio de renta.

Ejercicio 2: La vida media de los habitantes de un pas es de 68 aos, con una varianza de 25. Se
hace un estudio en una pequea ciudad de 10.000 habitantes:
a) Cuntas personas superarn previsiblemente los 75 aos?
b) Cuntos vivirn menos de 60 aos?
a) Personas que vivirn (previsiblemente) ms de 75 aos
Calculamos el valor de la normal tipificada equivalente a 75 aos

Por lo tanto
P (X > 75) = (Y > 1,4) = 1 - P (Y < 1,4) = 1 - 0,9192 = 0,0808
Luego, el 8,08% de la poblacin (808 habitantes) vivirn ms de 75 aos.
b) Personas que vivirn (previsiblemente) menos de 60 aos
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
85/90
Calculamos el valor de la normal tipificada equivalente a 60 aos

Por lo tanto
P (X < 60) = (Y < -1,6) = P (Y > 1,6) = 1 - P (Y < 1,6) = 0,0548
Luego, el 5,48% de la poblacin (548 habitantes) no llegarn probablemente a esta
edad.
Ejercicio 3: El consumo medio anual de cerveza de los habitantes de una pas es de 59 litros, con
una varianza de 36. Se supone que se distribuye segn una distribucin normal.
a) Si usted presume de buen bebedor, cuntos litros de cerveza tendra que beber al ao para
pertenecer al 5% de la poblacin que ms bebe?.
b) Si usted bebe 45 litros de cerveza al ao y su mujer le califica de borracho qu podra
argumentar en su defensa?
a) 5% de la poblacin que ms bebe.
Vemos en la tabla el valor de la variable tipificada cuya probabilidad acumulada es el 0,95 (95%), por
lo que por arriba estara el 5% restante.
Ese valor corresponde a Y = 1,645 (aprox.). Ahora calculamos la variable normal X equivalente a ese
valor de la normal tipificada:

Despejando X, su valor es 67,87. Por lo tanto, tendra usted que beber ms de 67,87 litros al ao
para pertenecer a ese "selecto" club de grandes bebedores de cerveza.
a) Usted bebe 45 litros de cerveza al ao. Tiene problemas de alcoholismo?

Vamos a ver en que nivel de la poblacin se situara usted en funcin de los litros de cerveza
consumidos.
Calculamos el valor de la normal tipificada correspondiente a 45 litros:

Por lo tanto
P (X < 45) = (Y < -2,2) = P (Y > 2,2) = 1 - P (Y < 2,2) = 0,0139
Luego, tan slo un 1,39% de la poblacin bebe menos que usted. Parece un argumento de suficiente
peso para que dejen de catalogarle de "enamorado de la bebida"
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
86/90

Ejercicio 4: A un examen de oposicin se han presentado 2.000 aspirantes. La nota media ha sido
un 5,5, con una varianza de 1,5.
a) Tan slo hay 100 plazas. Usted ha obtenido un 7,7. Sera oportuno ir organizando una fiesta para
celebrar su xito?
b) Va a haber una 2 oportunidad para el 20% de notas ms altas que no se hayan clasificados. A
partir de que nota se podr participar en esta "repesca"?
a) Ha obtenido usted un 7,7
Vamos a ver con ese 7,7 en que nivel porcentual se ha situado usted, para ello vamos a comenzar
por calcular el valor de la normal tipificada equivalente.

A este valor de Y le corresponde una probabilidad acumulada (ver tablas) de 0,98214 (98,214%), lo
que quiere decir que por encima de usted tan slo se encuentra un 1,786%.
Si se han presentado 2.000 aspirante, ese 1,786% equivale a unos 36 aspirantes. Por lo que si hay
100 plazas disponibles, tiene usted suficientes probabilidades como para ir organizando la "mejor de
las fiestas".
b) "Repesca" para el 20% de los candidatos
Vemos en la tabla el valor de la normal tipificada que acumula el 80% de la probabilidad, ya que por
arriba slo quedara el 20% restante.
Este valor de Y corresponde a 0,842 (aprox.). Ahora calculamos el valor de la normal X equivalente:

Despejamos la X y su valor es 6,38. Por lo tanto, esta es la nota a partir de la cual se podr acudir a
la "repesca".
Teorema del Lmite Central
El Teorema Central del Lmite dice que si tenemos un grupo numeroso de variables independientes
y todas ellas siguen el mismo modelo de distribucin (cualquiera que ste sea), la suma de ellas se
distribuye segn una distribucin normal.
a) La media de los datos, es la media m de la poblacin , es decir la media de las medias de las
muestras, es igual que la media de la poblacin.
b) Estas medias se distribuyen alrededor de la media de la poblacin, con una desviacin tpica
(llamada desviacin tpica de la media, ) igual a la de la poblacin dividida por la raz de n, es
decir, la d.t. de la media es

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
87/90
c) La distribucin de las medias muestrales, es una distribucin de tipo "normal", siempre que la
poblacin de procedencia lo sea, o incluso si no lo es, siempre que el tamao de las muestras
sea 30 o mayor.
d) En consecuencia, "si una poblacin tiene media m y desviacin estndar s , y tomamos
muestras de tamao n ( de tamao al menos 30, o cualquier tamao, si la poblacin es
"normal"), las medias de estas muestras siguen aproximadamente la distribucin

Adems, cuanto mayor es el valor de n, mejor es la aproximacin "normal".
Hemos nombrado un concepto importante: la desviacin estndar de la media , que es el grado
de variabilidad de las medias muestrales. Cuanto menor sea, ms ajustadas a la media de la
poblacin sern las medias que obtengamos de una muestra. De su propia definicin, es fcil darse
cuenta de que cuanto mayor es el tamao de la muestra, menor es este grado de variabilidad, y por
tanto ms similar a la media de la poblacin ser la media obtenida de la muestra.
La afirmacin de que la desviacin tpica de la media es

se hace asumiendo que la poblacin es infinita ( o el muestreo se realiza con reemplazamiento ). En
caso contrario, se debe utilizar el "factor de correccin para poblaciones finitas", de forma que la d.t.
de la media quedara:

donde N es el tamao de la poblacin y n el de la muestra.
En la prctica y como regla general, se usa el coeficiente anterior tan slo cuando el tamao de una
muestra es superior al 5% de la poblacin. Nosotros no tendremos en cuenta este factor, pues no se
resta profundidad a los conceptos estudiados al tiempo que se simplifica su estudio.
Adems estudiaremos tan slo el caso correspondiente a muestras de ms de 30 elementos.
llamadas "muestras grandes". Para muestras de menor tamao, se han de utilizar distribuciones
distintas de la Normal, y est fuera del alcance de este curso.
Habremos de suponer que conocemos la desviacin tpica de la poblacin (<>s<>), (aunque resulta
improbable conocerla y desconocer la media), o bien al menos la desviacin tpica muestral (s)
(tambin llamada cuasivarianza, que resulta ser una buena aproximacin de la desviacin tpica de
la poblacin para muestras grandes).
Este ltimo parmetro se define como
donde es la media de la muestra. Es decir es la desviacin tpica de la muestra corregida
dividiendo por n-1 en lugar de por n . Al hacer esto, el valor de s aumentar. Se trata pues de hacer
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
88/90
una sobreestimacin de la desviacin tpica, para compensar el error cometido al tomar una muestra.
En las calculadoras que utilizamos se obtiene pulsando .
Ejemplo: la variable "tirar una moneda al aire" sigue la distribucin de Bernouilli. Si lanzamos la
moneda al aire 50 veces, la suma de estas 50 variables (cada una independiente entre si) se
distribuye segn una distribucin normal.
Este teorema se aplica tanto a suma de variables discretas como de variables continuas. Los
parmetros de la distribucin normal son:
Media: n * m (media de la variable individual multiplicada por el nmero de variables independientes)
Varianza: n * s2 (varianza de la variable individual multiplicada por el nmero de
variables individuales)
Veamos un ejemplo:
Se lanza una moneda al aire 100 veces, si sale cara le damos el valor 1 y si sale cruz el valor 0.
Cada lanzamiento es una variable independiente que se distribuye segn el modelo de Bernouilli, con
media 0,5 y varianza 0,25.
Calcular la probabilidad de que en estos 100 lanzamientos salgan ms de 60 caras.
La variable suma de estas 100 variables independientes se distribuye, por tanto, segn una
distribucin normal.
Media = 100 * 0,5 = 50
Varianza = 100 * 0,25 = 25
Para ver la probabilidad de que salgan ms de 60 caras calculamos la variable normal tipificada
equivalente:

(*) 5 es la raiz cuadrada de 25, o sea la desviacin tpica de esta distribucin Por lo tanto:
P (X > 60) = P (Y > 2,0) = 1- P (Y < 2,0) = 1 - 0,9772 = 0,0228
Es decir, la probabilidad de que al tirar 100 veces la moneda salgan ms de 60 caras es tan slo del
2,28%
Ejercicio 1.
La renta media de los habitantes de un pas se distribuye uniformemente entre 4,0 millones
Bolivianos. y 10,0 millones Bolivianos. Calcular la probabilidad de que al seleccionar al azar a 100
personas la suma de sus rentas supere los 725 millones Bolivianos.
Cada renta personal es una variable independiente que se ditribuye segn una funcin uniforme. Por
ello, a la suma de las rentas de 100 personas se le puede aplicar el Teorema Central del Lmite.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
89/90
La media y varianza de cada variable individual es:
m = (4 + 10 ) / 2 = 7
s 2 = (10 - 4)^2 / 12 = 3
Por tanto, la suma de las 100 variables se distribuye segn una normal cuya media y varianza son:
Media: n * m = 100 * 7 = 700
Varianza: n * s2 = 100 * 3 = 300
Para calcular la probabilidad de que la suma de las rentas sea superior a 725 millones Bolivianos,
comenzamos por calcular el valor equivalente de la variable normal tipificada:


Luego:
P (X > 725) = P (Y > 1,44) = 1 - P (Y < 1,44) = 1 - 0,9251 = 0,0749
Es decir, la probabilidad de que la suma de las rentas de 100 personas seleccionadas al azar supere
los 725 millones de pesetas es tan slo del 7,49%

Ejercicio 2.

En una asignatura del colegio la probabilidad de que te saquen a la pizarra en cada clase es del 10%.
A lo largo del ao tienes 100 clases de esa asignatura. Cul es la probabilidad de tener que salir a la
pizarra ms de 15 veces?

Se vuelve a aplicar el Teorema Central del Lmite.
Salir a la pizarra es una variable independiente que sigue el modelo de distribucin de Bernouilli:
"Salir a la pizarra", le damos el valor 1 y tiene una probabilidad del 0,10
"No salir a la pizarra", le damos el valor 0 y tiene una probabilidad del 0,9
La media y la varianza de cada variable independientes es:
m = 0,10
s 2 = 0,10 * 0,90 = 0,09

Por tanto, la suma de las 100 variables se distribuye segn una normal cuya media y varianza son:
Media: n * m = 100 * 0,10 = 10
Varianza: n * s2 = 100 * 0,09 = 9
Para calcular la probabilidad de salir a la pizarra ms de 15 veces, calculamos el valor equivalente de
la variable normal tipificada:

Luego:
P (X > 15) = P (Y > 1,67) = 1 - P (Y < 1,67) = 1 - 0,9525 = 0,0475

UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
90/90
Es decir, la probabilidad de tener que salir ms de 15 veces a la pizarra a lo largo del curso es tan
slo del 4,75% ( nimo !!!, no es tan grave)

Ejercicio 3.
Una compaa area sabe que el equipaje de sus pasajeros tiene como media 25 kg. con una d.t. de
6 kg. Si uno de sus aviones transporta a 50 pasajeros, el peso medio de los equipajes de dicho grupo
estar en la distribucin muestral de medias

La probabilidad de que el peso medio para estos pasajeros sea superior a 26 kg sera:

Si el avin no debe cargar ms de 1300 kg en sus bodegas, la media del conjunto de los 50 pasajeros
no debe superar los

En consecuencia en un 11,9% de los casos los aviones de esta compaa superan el margen de
seguridad.

Você também pode gostar