Você está na página 1de 45

Estadística: Definiciones básicas

Experimento o Encuesta: Se llama así a la observación planeada de un fenómeno de


cualquier índole con el objetivo de conocer su comportamiento, poder describirlo y/o tomar
una decisión.

Se llama Unidad experimental a cada uno de los entes que son observados en el
experimento.

Se llama Medición a la asignación, conforme a reglas preestablecidas, de valores


(símbolos, numerales o números), a cada una de las características que poseen las
Unidades Experimentales.

Se llama Escala de medición a una regla preestablecida o instrumento de medición, que


consiste en un conjunto de valores que se asignaran a una característica especifica que
poseen las Unidades de Experimentales.

Se llama Dato estadístico al valor asignado a una de las características de una Unidad
Experimental, conforme a la Escala de Medición empleada.

Un dato estadístico es el valor que resulta de una medición. Se pueden clasificar en:

Datos estadísticos cualitativos: Son aquellos valores correspondientes a los atributos o


propiedades categóricas que solo se pueden usar para identificar y describir a una Unidad
Experimental.

Datos estadísticos cuantitativos: Son aquellos valores que, además de identificar y


describir a una Unidad Experimental, establecen las diferencias posibles entre los valores
en cantidad y grado.

Escalas de medición

Escala nominal : Se usa únicamente para clasificar a los entes en distintas categorías. La
operación básica y más sencilla en todo proceso de investigación, es la clasificación, esto
significa separar las unidades experimentales desde el punto de vista de determinadas
características, decidiendo cuales son las que pertenecen a una misma clase y cuales
pertenecen a distintas clases. Esta escala se utiliza cuando los datos son cualitativos,
constituyendo el nivel más bajo de medición. Los valores correspondientes a esta escala
reciben el nombre de categorías y son simples etiquetas. Si algún numero se asocia a una
categoría, este estaría cumpliendo una función de código, de ninguna manera se pueden
utilizar para operaciones matemáticas. La relación lógica de la Escala Nominal es la
relación de equivalencia y posee las propiedades de simetría y transitividad.

Ej.: Provincia de origen del personal de una empresa: Los empleados de una empresa
pueden ser clasificados en las distintas provincias, pero no es posible establecer una
jerarquía entre ellas.

Escala Ordinal: Se usa para, además de clasificar a los entes en distintas categorías,
clasificarlos de acuerdo a su rango. Esta escala se utiliza cuando los datos son
cualitativos, y es posible ordenarlo de acuerdo a una jerarquía preestablecida de sus
valores según el grado que poseen. La escala Ordinal constituye un nivel de medición
superior al de la Escala Nominal. Cuando a las categorías se las representan con
números, se hace la misma salvedad que la realizada para la Escala Nominal. Las
relaciones lógicas propias de esta escala son, Relación de Equivalencia y la Relación de
Origen y posee las propiedades de simetría, para dos valores de la misma categoría;
asimetría, para dos valores de distinta categoría, y transitividad.
A<B<C<D

B tiene mayor jerarquía que A, C tiene mayor jerarquía B, D tiene mayor jerarquía
que C, se puede decir que la mayor diferencia jerárquica entre A y D es igual al agregado
de las diferencias jerárquicas entreA y B, y la diferencia jerárquica entre B y C, la
diferencia jerárquica entre C y D, pero no se puede establecer cuál de las diferencia
jerárquicas parciales es mayor.

Ej.: Grado de acuerdo con una determinada política del gobierno si las posibilidades son:
muy de acuerdo, de acuerdo y desacuerdo: Se puede establecer una relación de orden o
jerarquía entre las respuestas.

Escala de Intervalo o Distancia: Se usa para, además de clasificar a los entes en distintas
categorías y clasificarlos de acuerdo a su rango, poder establecer una distancia entre dos
cualquiera de ellos. Esta escala se utiliza cuando los datos son cuantitativos, por lo tanto
los valores de cada categoría necesariamente deben ser números.

A<B<C

ABC

Se puede decir que la distancia entre a y b es mayor que la distancia entre b y c, pero no
se pude establecer la proporcionalidad entre ellos. Al punto de origen de esta escala se le
asigna arbitrariamente el valor cero, llamado cero arbitrario, que no necesariamente indica
ausencia de la característica medida.

Ej.: Temperatura ambiente: Temperatura cero grados no indica ausencia de temperatura

Escala de Razón o proporción: Se usa para, además de clasificar a los entes en distintas
categorías, clasificarlos de acuerdo a su rango, y poder establecer una distancia entre dos
cualquiera de ellos, poder establecer una proporcionalidad entre dos cualquiera de ellos,
poder establecer una proporcionalidad entre dos cualquiera de ellos.

A<B<C

ABC

Se puede decir que la distancia entre a y b es mayor que la distancia entre b y c, como así
también se puede establecer la proporcionalidad entre ellos. El punto de origen de esta
escala es realmente cero, llamado cero real, que indica ausencia de la característica
medida. Esta escala constituye el nivel más alto de medición.

Ej.: Peso de una persona (en kg): Peso cero indica ausencia de peso.
Información: Al resultado de la evaluación de los datos estadísticos cuando se los
compara con una adecuada referencia.

Ej.: La edad mínima requerida para ver una determinada película en el cine es 16 años.
Llega una persona para ver la película y el empleado de la entrada le consulta la edad. Ella
le contesta que tiene 18 años y el empleado le permite entrar.

Referencia: Es la edad mínima, 16 años.

Dato estadístico: Es la edad de la persona, 18 años.

Información: Surge cuando se comparan las edades, la persona es apta.

Decisión: Es la acción del empleado, le permite la entrada.

Estadística

Es la disciplina científica que crea, desarrolla y aplica los adecuados métodos de


recopilación de datos, y su evaluación, para transformarlos en informaciones con las
cuales se describan objetivamente las distintas situaciones investigadas, se analice el
comportamiento de determinadas características que poseen las unidades experimentales,
y se tomen decisiones en condición de incertidumbre. Para que un evento sea objeto de
análisis estadístico, debe ser susceptible de presentar distintos resultados, aun cuando se
lo repita bajo condiciones similares. La tarea Estadística está presente cuando se necesita
estudiar aquellas situaciones que requieran ser medidas en similares condiciones y los
resultados de estas puedan presentar variabilidad.

Universo

Es el conjunto de Unidades Experimentales que poseen características comunes


observables para obtener información sobre un hecho particular. Puede ser finito o infinito.
Se va a determinar cuándo se establezca el objetivo del trabajo a realizar.

Se llama variable a cualquier característica observable que tienen las unidades


experimentales. Se llama recorrido de una variable al conjunto de los posibles valores
que ella puede asumir. De acuerdo al tipo de datos que original la variable, estas se
clasifican en:

Variable cualitativa: Cuando los valores que puede asumir no constituyen un espacio
métrico. Esto quiere decir que no es posible establecer una distancia entre dos valores
cualesquiera, como así tampoco realizar operaciones algebraicas con los valores de una
variable cualitativa. Se miden en escala nominal o en escala ordinal.

Variable cuantitativa: Cuando los valores que puede asumir si constituyen un espacio
métrico. Esto quiere decir que es posible establecer la distancia entre dos valores
cualesquiera como así también realizar operaciones algebraicas con los valores de una
variable cuantitativa. Se miden en escala de Intervalo o de razón y los valores pueden ser
únicamente números.

Variable cuantitativa continua: Dado un intervalo [a; b] de números reales, si cualquier


número real que pertenece a dicho intervalo puede ser un valor de la variable, entonces la
variable es continua. Se originan cuando la característica a medir es una magnitud
(longitud, superficie, volumen) y no se establecen restricciones. El recorrido de una
continua es siempre infinito no numerable.
Variable cuantitativa discreta: Dado un intervalo [a; b] de números reales, si solo alguno
números reales que pertenecen a dicho intervalo pueden ser un valor de la variable,
entonces la variable es discreta. Se originan en los conteos, cuando se establecen
restricciones al medir magnitudes. El recorrido de una discreta es siempre finito o infinito
numerable.

Se llama Población a cada una de las variables particulares que se estudian en un


universo. Se llama Muestra a un subconjunto o parte de una población sobre la base de la
cual se puede hacer un juicio acerca de esta.

Etapas de la tarea estadística

1. Enunciación del problema, definición del Universo e identificación de las variables.

2. Formulación de los instrumentos de medición: son aquellos con los cuales se obtienen
y/o registran los datos a medida que se los conoce o ellos se producen.

3. Recopilación de los datos: Forman la materia prima del proceso estadístico para la
obtención de información.

Fuentes internas o propias: Si el estadístico y el especialista deciden recopilar los datos


por cuenta propia lo pueden realizar de 3 formas clásicas:

· Registro: Es la recopilación sistemática de los datos en el momento que se producen. Ej.


El registro nacional de las personal o dentro de una empresa el registro de proveedores.

· Censo: Es la observación del universo y la medición, a la totalidad de las unidades


experimentales que lo conforman, de todas las variables que previamente hayan sido
declaradas relevantes para la investigación a llevar a cabo, en un instante dado. Es un
método estático de recopilación de datos.

· Muestreo: Es un conjunto de métodos que se utilizan para tomar una muestra, por lo
tanto se observa una parte del universo en un instante dado. Es un método estático de
recopilación de los datos.

Fuentes externas: Son las publicaciones. Si se utiliza este tipo de fuente para la obtención
de los datos hay que verificar la calidad y responsabilidad de la publicación tratando que,
en lo posible sea un material especializado.

· Fuente externa primaria: Cuando los datos publicados fueron recopilados directamente
por los responsables del medio que los reproduce, mediante alguno de los métodos
descriptos para las Fuentes Propias. Generalmente se recurre, como fuente externa
primaria, a las publicaciones de organismos oficiales, como el Instituto Nacional de
Estadísticas y Censos.

· Fuente externa secundaria: Cuando los datos publicados no fueron recopilados


directamente por los responsables del medio que los reproduce. Generalmente las fuentes
externas secundarias son publicaciones periodísticas que reproducen datos recopilados y
presentados por otros organismos.

4. Presentación de los datos

Una vez que los datos se han recopilado es necesario que sean presentados en forma
efectiva, de modo tal que puedan ser comunicados y que, a la vez, permitan tanto, obtener
alguna información primaria, como así también, organizarlos para proceder al análisis.
Presentación escrita: Consiste en incorporar los datos en un párrafo combinando cifras y
textos. No es muy eficaz cuando hay gran cantidad de datos.

Cuadro estadístico : también llamado tabla estadística, es una técnica de presentación de


datos basada en un arreglo de filas y columnas donde se pueden clasificar los datos de
acuerdo a las características que se le estudian a las unidades experimentales,
permitiendo organizarlos adecuadamente.

· Cuadro estadístico de referencia: Son aquellos que se usan solo para publicar los datos y
son utilizados como fuente para otros trabajos.

· Cuadro estadístico de Análisis: Son aquellos que se utilizan para presentar los datos de
modo tal que facilite la realización de los cálculos matemáticos necesarios para el análisis
de los datos.

La diferencia entre ambos está en la forma en que se los utiliza y no en su estructura.

5. Análisis de los datos

Análisis estadístico descriptivo: Permite describir, en forma apropiada, el comportamiento


empírico de las variables, mediante el cálculo de algunas medidas capaces de resumir la
información que contienen los datos.

Análisis estadísticos inferencial: El análisis inferencial permite tener información acerca de


una población o tomar decisiones concernientes a ella, mediante los datos obtenidos con
una muestra.

Análisis probabilístico: Con la utilización de modelos teóricos, permite cuantificar la


incertidumbre que provocan los resultados de ciertos experimentos, cuando a estos no se
los puede predecir con exactitud, como así también, medir el “error” que pudiera
cometerse en las decisiones tomadas mediante el Análisis inferencial.

6. Interpretación de los resultados

Los resultados que se obtienen mediante el análisis de los datos están expresados en un
lenguaje estadístico. En esta etapa, el Estadístico y el Especialista deben “traducir” estos
resultados al lenguaje de la disciplina objeto de la investigación y entre ambos poder
compatibilizarlos, dado que toda conclusión estadística tiene asociada una conclusión
especifica donde se tomaras las decisiones.

Se llama regularidad estadística a la información del comportamiento de una variable,


que proporciona el registro ordenado de sus valores observados. El conocimiento de la
regularidad estadística permitirá la construcción de modelos teóricos con los cuales
realizar predicciones confiables sobre los eventos que son investigados.

Cantidades absolutas y relativas

Los Datos Cuantitativos que se obtienen mediante la recopilación de los datos para
realizar un determinado trabajo, según el tipo de información que se quiera proporcionar,
se pueden expresar de dos maneras:

· En forma absoluta, si solamente se quiere mostrar la cuantía de la magnitud

· En forma relativa, si a la cuantía de la magnitud medida, se la quiere relacionar con otro


valor de la misma magnitud.
Esto da origen a los dos tipos de cantidades:

Cantidades absolutas: Son aquellos datos cuantitativos que, cuando son presentados y/o
analizados, están expresados en las unidades de medida correspondientes a la magnitud
que se está midiendo.

Cantidades relativas: Son aquellos datos cuantitativos que surgen del cociente entre dos
cantidades absolutas correspondientes a la misma magnitud y unidad de medida.

Se llama Proporción estadística a la cantidad relativa que se obtiene haciendo el


cociente entre una parte y su correspondiente total.

Cuadro estadístico

Es un arreglo de filas y columnas dispuestas metódicamente de modo tal que se puedan


presentar y organizar los datos para clasificarlos adecuadamente. Deben estar
estructurados teniendo en cuenta las siguientes partes componentes:

1. Titulo: Debe describir concisamente el contenido del cuadro Ej.: que son los datos,
donde fueron recopilados, como están clasificados, cuando ocurrieron los eventos que
dieron origen a los datos.

2. Nota de encabezado: Se incorpora al cuadro para explicar ciertos puntos relacionados


con la tabla completa que no han sido incluidos en el titulo o cuando se quiere hacer una
ampliación de éste, ya sea detallando algún elemento importante o aclarando la unidad de
medida de la magnitud que corresponde a los datos.

3. Columna Matriz: Teniendo en cuenta la naturaleza fundamental de los datos estadístico


que se quieren presentar, se debe establecer cuál de las variables se considera más
significativa o más importante. Los valores correspondientes a esta se disponen en la
primera columna del cuadro.

4. Encabezado de las columnas: Los valores de las otras variables que quieran ser
presentadas junto a la variable más significativa, o algunas características especiales de
esta, generalmente se disponen en columnas, cuyos títulos constituyen el Encabezado de
las columnas.

5. Cuerpo: Es el conjunto de celdas que se forman con la intersección de filas y columnas.


Estas se llama unidad básica de presentación del cuadro, y en cada una de ellas se
registran los datos correspondientes.

6. Nota al pie: Cuando es necesario clarificar o explicitar algún dato o elemento en


particular, se realiza una nota específica a pie del cuadro.

7. Fuente: La fuente es el ultimo ítem que se presenta en todo cuadro, y en ella se


consigna el origen y la forma de relevamiento de los datos.

Gráficos

Es un dibujo metódicamente realizado para presentar los datos y expresarlos en forma


plástica. Debe estar estructurado

1. Titulo: Debe describir concisamente el contenido del cuadro Ej.: que son los datos,
donde fueron recopilados, como están clasificados, cuando ocurrieron los eventos que
dieron origen a los datos.
2. Nota de encabezado: Se incorpora al grafico cuando se quiere hacer una ampliación del
título, ya sea detallando algún elemento importante o aclarando la unidad de medida de la
magnitud que corresponde a los datos.(debajo del título y entre paréntesis)

3. Diagrama: Está formado por los distintos trazos que se utilizan para realizar los dibujos.
Estos trazos pueden ser líneas, rectángulos, etc.

4. Nota al pie: Cuando es necesario clarificar o explicitar algún dato o elemento en


particular.

5. Fuente: es el ultimo ítem que se presenta en todo grafico, y en él se consigna el origen y


la forma de relevamiento de los datos.

Tipos de gráficos estadísticos

Según el tipo de diagrama que se utiliza para realizar los gráficos, estos reciben distintas
denominaciones:

Grafico estadístico lineal: Se utiliza para representar valores de 2 variables cuantitativas


presentadas conjuntamente, o mostrar la evolución de una variable cuantitativa a través
del tiempo, usando para ello un sistema de coordenadas. El diagrama está formado por
líneas rectas que unen los puntos del plano que representan valores de las variables.

Es posible que se quisiera mostrar la evolución de un Total conjuntamente con las Partes
que lo componen. En este caso se llama lineal de partes componentes, y en él se realizan
diagramas simultáneos.

Grafico estadístico de barras: Se utilizan, fundamentalmente, cuando una de las variables


es cualitativa. Consiste en rectángulos dibujados en un sistema de coordenadas
cartesianas ortogonales y la base de ellos puede estar, indistintamente, sobre el eje de
abscisas o sobre el eje de ordenadas según sea el eje que este representando a la
variable cualitativa. Cada rectángulo recibe el nombre de barra.

Si se quiere mostrar la incidencia que tienen cada una de las partes que forman los totales
representados en cada una de las barras, a estas se las particiona proporcionalmente
dando origen a un grafico de barras llamado de barras segmentadas.

Si se quiere resaltar la comparación entre las barras, se dibujan barras adyacentes que
muestren cada parte, dando origen a un grafico de barras llamado Barras Agrupadas.
Gráficos circulares: Se utiliza para comparar partes de un total y su evolución en el tiempo
o en el espacio por tal motivo se presenta un grafico para cada situación a comparar.
Consiste en un círculo dividido en tanto sectores circulares como partes componen los
totales que se quieren comparar. El ángulo correspondiente a cada uno de los sectores se
determina de modo tal que mantenga la misma proporción con el ángulo de la
circunferencia de cada parte con el total.

Análisis descriptivo

Distribución de las frecuencias: Al conjunto de datos dispuesto tal como se presentan, se


lo denomina Datos no agrupados. Si la cantidad de ellos es grande, la experiencia indica
veinte o más, y no están agrupados, es muy difícil poner en evidencia la regularidad
estadística. En los casos de contar con una gran cantidad de datos o valores de cada una
de las variables, el primer paso a realizar es ordenarlos agrupándolos en clases de
equivalencia, para que puedan ser estudiados convenientemente, logrando que se
manifieste la regularidad estadística, como así también, obtener otras informaciones que
pueden resultar de interés. Hay que proceder a una clasificación.

Se llama Frecuencia absoluta a la cantidad de datos, o valores observados de una


variable, que pertenecen a una misma clase de equivalencia.

Se llama Frecuencia relativa al cociente entre la frecuencia absoluta y la cantidad total de


observaciones.

Distribución de frecuencias: Relación de clasificación de los datos que asigna a cada


valor, o grupo de valores que formen una misma clase de equivalencia, de una o más
variables, su correspondiente frecuencia. Se utilizan para tener los datos estadísticos
organizados, clasificados y distribuidos en las distintas clases. Al conjunto de estos datos
se lo denomina datos agrupados en una distribución de frecuencias. Según la cantidad
de variables que se quiera clasificar las distribuciones pueden
ser univariadas o polivariadas.

Frecuencia absoluta simple para variables discreta: Cantidad de veces que se repite
un valor de la variable. Para representarla se utiliza el grafico de bastones. En el eje de
abscisas se representa la variable en estudio y en el eje de ordenadas, la frecuencia
simple.

Frecuencia absoluta acumulada para variable discreta: La cantidad de unidades


experimentales con un valor de la variable menor o igual a un valor dado. Se presenta en
forma tabular y acompañada de la frecuencia absoluta simple.

q de hijos q de mujeres Frecuencia acumulada


Xi fi Fi
1 3 3
2 4 7
3 7 14
4 4 18
5 2 20

Se utiliza el grafico escalonado o en escalera. En el eje de abscisas se representa la


variable en estudio, y en el eje de ordenadas, los valores de la frecuencia absoluta
acumulada.

Frecuencia relativa simple: Cociente entre la frecuencia absoluta simple y la cantidad de


observaciones.

Frecuencia relativa acumulada: Al cociente entre la frecuencia absoluta acumulada y la


cantidad de observaciones.

Frecuencia absoluta simple para variable continua: La cantidad de unidades


experimentales cuyos valores observados de la variable pertenecen a un mismo intervalo
de clase.

Frecuencia absoluta acumulada para variable continua: La cantidad de unidades


experimentales que tienen un valor observado de la variable menor al límite superior de un
intervalo.

Gráficos que se utilizan:


Variables discretas

Frecuencia relativa simple: bastones

Frecuencia relativa acumulada: escalones

Variables continuas

Frecuencia relativa simple: Histograma

Frecuencia relativa absoluta: Ojiva

Medidas de concentración: Son aquellas medidas con las cuales se puede establecer el
porcentaje de datos que está concentrado dentro de un determinado intervalo que
contenga una determinada concentración porcentual de datos. Tiene sentido cuando los
datos están agrupados en una distribución de frecuencias.

Rango percentilar: Es la frecuencia relativa porcentual que se acumula desde el mínimo


valor del recorrido hasta un valor dado de la variable. Se mide para un valor específico de
la variable y brinda el porcentaje de datos que se acumula entre el menor valor de la
variable y el valor dado. La diferencia entre los rangos percentilares de 2 valores de la
variable X mide la concentración de datos que hay en el intervalo formado por ellos.

Variables discretas: El rango percentilar para un valor dado queda determinado


directamente por la frecuencia relativa acumulada hasta dicho valor. No se requieren
formulas especiales.

Variables continuas: Hay que diferenciar 2 situaciones:

a) Cuando el valor dado coincide con el límite superior de un intervalo, el rango percentilar
queda determinado directamente por la frecuencia relativa acumulada hasta dicho valor.
No se requieren formulas especiales.

b) Cuando el valor dado no coincide con el límite superior de un intervalo, para la


determinación del rango percentilar se requiere una formula de interpolación lineal.

Percentiles: Calcula hasta que valor se acumula una determinada frecuencia relativa.
El percentil de orden K es aquel valor hasta donde se acumula, a lo sumo, el K% de los
datos, y desde donde se acumula a lo sumo el 100-k%. El orden absoluto del
percentil es la frecuencia absoluta acumulada correspondiente al valor K, y se obtiene
calculando el K% del total de observaciones N.

Medidas de posición o de tendencia central

Son aquellos valores destacados con los cuales es posible representar a la totalidad de los
valores observados de la variable. No necesariamente son valores de la variable pero si
están expresadas en la misma magnitud. Las medidas son:

Modo : Es el valor de la variable que se presenta con mayor frecuencia.

Variables discretas: Se puede determinar mediante la sola inspección de la columna de las


frecuencias simples, absolutas o relativas.

Variables continuas: Con la inspección de los datos solo se puede obtener el intervalo de
mayor frecuencia. El intervalo de mayor frecuencia se llama Intervalo modal. El modo es
un valor que pertenece a dicho intervalo y para localizarlo hay que utilizar una formula de
interpolación

Mediana: Es el valor que supera y es superado por igual cantidad de observaciones.

Promedios simples: Ciertos valores que se obtienen mediante la aplicación de


operadores matemáticas, a la totalidad de los valores observados de dicha variable, bajo el
supuesto de que todas las unidades experimentales medidas tienen la misma importancia
relativa.

El promedio o media aritmética de una variable X, es el número que resulta de sumar


todos los valores observados de la variable y dividir esta suma por la cantidad de unidades
experimentales que se tienen. Debe interpretarse como cuando le correspondería a cada
uno, si todos fuesen iguales.

Método de cálculo:

Valores de una variable sin agrupar

Valores de una variable discreta agrupada en una distribución de frecuencias simples

Valores de una variable continúa agrupados en una distribución de frecuencias absolutas


simples

Valores de una variables, discreta o continua, agrupados en una distribución de


frecuencias relativas simples

Se llama Desviación con respecto a la media aritmética, a la diferencia entre un valor


individual de la variable y su media aritmética.

Promedios ponderados

Se llama Ponderación a aquella cantidad que permite asignar a cada unidad experimental
que proporciona un valor de la variable en estudio, una determinada importancia o peso
relativo.

El promedio aritmético ponderado surge de hacer el cociente entre, la suma del producto
de cada valor de la variable y su correspondiente ponderación, y la suma de
ponderaciones.

Medidas de variabilidad

Las medidas de tendencia central se las puede considerar como “representantes” de la


totalidad de los valores observados de una variable. Estas medidas serán buenas
representantes si los valores observados son homogéneos; esto quiere decir que si no hay
demasiada diferencia o desviación entre cada uno de ellos y alguna medida en particular,
entonces la medida en cuestión es representativa.

Las medidas de variabilidad son aquellas que permiten estudiar, como se desvían, en su
conjunto, los valores observados de una variable, con respecto a alguna Medida de
Tendencia Central.

La Varianza es una medida de variabilidad que mide el promedio aritmético del cuadrado
de los desvíos que se producen entre cada valor de la variable y la media
Propiedades de la varianza

· Es necesariamente un numero real no negativo

 De una constante es nula

· La varianza de la suma de una variable más, o menos, una constante, es igual a la


varianza de la variable.

Desvío estándar

Es la raíz cuadrada positiva de la varianza. Esta medida es la adecuada para establecer la


variabilidad que presentan los valores observados de la variable, en su conjunto, con
respecto a la Media aritmética.

Coeficiente de variación

Para poder establecer si la variabilidad alrededor de la Media Aritmética que presenta una
variable es baja o no, es necesario que el valor numérico del desvió estándar sea
comparado o relacionado con ella (la media). El Coeficiente de variación de una variable
es el cociente entre el desvío estándar y la media aritmética. Es un número puro,
desprovisto de magnitud. Su valor numérico permite establecer criterios generales acerca
de la homogeneidad de los datos, de la representatividad de la media y la comparación
con la variabilidad de otras variables aunque las unidades de medida o las magnitudes
sean distintas.

Si el CV es menor o igual a 0,10 se puede considerar que la variable en estudio es


homogénea, y consecuentemente, la Media Aritmética es representativa.

Momentos empíricos

Son operadores matemáticos que se obtienen a partir de los valores observados de la


variable. Se clasifican en:

Momento empírico absoluto

Momento empírico centrado

Medidas de forma

Otra característica importante a tener en cuenta al analizar los valores observados de una
variable es la forma que presenta la distribución de frecuencias correspondiente ya que
ello permite visualizar aproximadamente cual podría ser el Modelo Matemático que mejor
se ajusta para describir el comportamiento de una variable.

La Simetría y la Curtosis son dos de los aspectos que permiten establecer dicha forma.

Una distribución de frecuencias es simétrica cuando:

Si la variable es discreta, las frecuencias simples correspondientes a valores de la variable


que equidistan de la media aritmética son igual.

Si la variable es continua, las frecuencias simples de los intervalos cuyos puntos medios
equidisten de la Media aritmética, son iguales.
Se llama Curtosis o apuntamiento, a una determinada relación entre la amplitud total y la
máxima frecuencia que presenta una distribución de frecuencia.

Probabilidad

Modelo deterministico: Es aquel modelo matemático que describe el comportamiento de


las variables cuyos valores quedan inequívocamente determinados a partir de las
condiciones en que se llevara a cabo el experimento que las origina.

Modelo no deterministico o estadístico: Aquel modelo matemático que describe el


comportamiento de las variables cuyos valores no quedan inequívocamente determinados
a partir de las condiciones en que se llevara a cabo el experimento que las origina.

Se llama Experimento aleatorio o estocástico a aquel fenómeno empírico que admite


dos o más resultados posibles y no se tienen elementos de juicio suficientes como para
poder predecir con exactitud cuál o cuáles de ellos ocurrirán, aunque se los repita bajo las
mismas condiciones.

Se llama Espacio muestral correspondiente a un experimento aleatorio, al conjunto de


todos los resultados posibles que puede presentar dicho experimento.

Ej.: Se espera, al azar, el nacimiento de una persona. El experimento consiste en observar


el color de ojos que tiene la persona recién nacida. El espacio muestral es azul, gris,
verde, marrón.

Se llama Suceso aleatorio, S, a cualquier subconjunto del espacio


muestral U, correspondiente a un experimento aleatorio E.

Suceso complementario: Aquel suceso que ocurre si, y solo si no se presenta el


suceso S.

Suceso intersección o Conjunto: Aquel suceso que ocurre si, y solo si se presentan
conjuntamente dos o más de los sucesos que forman el espacio muestral.

Suceso unión incluyente: Aquel suceso que ocurre si, y solo si ocurre alguno de los
sucesos que forma el espacio muestral.

Suceso unión excluyente: Aquel suceso que ocurre si, y solo si ocurre solo uno de los
suceso que forman el espacio muestral.

Cuando en un mismo espacio muestral se definen dos o mas sucesos, estos, por la propia
naturaleza del experimento aleatorio que se lleva cabo, algunas veces podrían presentarse
en forma simultanea. Pero hay sucesos que nunca, bajo ninguna circunstancia, se
presentaran jutnos en la misma realización del Experimento Aleatorio.

Sucesos compatibles: Dos o mas sucesos son compatibles si y solo si es posible que se
presenten en forma conjunta.

Sucesos mutuamente excluyentes o incompatibles: Si y solo si la presentación de


unos de ellos impide, excluye, la presentación del o de los otros.

Se llama frecuencia relativa correspondiente al Suceso Aleatorio S, al cociente entre


la cantidad de veces que ocurrió el Suceso, y la cantidad de veces que se repitió el
Experimento E.
Fr (S)= K/N

Principio de estabilidad de la frecuencia relativa

Establece que la frecuencia relativa correspondiente a un suceso aleatorio, oscila, con una
cnvergencia asintótica, alrededor de un numero fijo, cuando la cantidad de observaciones
del Experimento Aleatorio crece indefinidamente.

En ocasiones, las personas deben decidir llevar a cabo acciones cuyo resultado no puede
predecirse con exactitud. Bajo ciertas condiciones, estas acciones se consideran
Experimentos Aleatorios. El desconocimiento del, o de los posibles resultados que se
obtendrán, genera cierto grado de incertidumre. Por tal motivo, al tomar la decisión, y para
que esta sea objetiva, debe contarse con un cuantificador, un numero capaz de
proporcionar una medida del estado de duda o vacilación en que se encuentre el
“decididor”. El calculo de la probabilidad permite cuantificar la incertidumbre que provoca el
resultado de un Experimento Aleatorio y medir la propensión a ocurrir que tiene cada uno
de los resultados posibles.

Axiomas y teoremas básicos para el calculo de la probabilidad

Axiomas

1. La probabilidad de ocurrencia de un suceso aleatorio es un numero real no negativo.

2. Si el suceso aleatorio es el espacio muestra, a la probabilidad de ocurrencia del suceso


se le asigna el valor 1.

3. Sean S1 y S2 dos suceso mutuamente excluyentes perteneciente a un mismo espacio


muestral, la probabilidad de que se presente alguno de los dos, suceso unión, es igual a la
probabilidad de que se presente el suceso S1, mas la probabilidad de que se presente el
suceso S2.

4. Sean S1; S2;…;Sk K sucesos mutuamente excluyentes de A pares, pertenecientes a un


mismo espacio muestral, la probabilidad de que se presente alguno de ellos, suceso unión,
es igual a la probabilidad de que se presente el suceso S1 mas la probabilidad de que se
presente el suceso S2 mas, etc, mas la probabilidad de que se presente el suceso Sk.

Teoremas

1. Si el suceso aleatorio es el conjunto vacio, la probabilidad de ocurrencia del suceso


aleatorio es 0.

2. La probabilidad de ocurrencia de un suceso mas la probabilidad de ocurrencia de su


complemento es igual a 1.

3. Si S1 y S2 son sucesos de un mismo espacio muestral, la probabilidad de que se


presente alguno de los dos, suceso unión incluyente, es igual a la probabilidad de que se
presente el suceso S1 mas la probabilidad d eque se presente el suceso S2, menos la
probabilidad de que se presenten conjuntamente.

4. Si S1 y S2 son sucesos de un mismo espacio muestral, la probabilidad de que se


presente solo uno de los dos, suceso unión excluyente, es igual a la probabilidad de que
se presente el suceso S1 mas la probabilidad de que se presente el suceso S2 menos el
duplo de la probabilidad de que se presenten conjuntamente.
5. La probabilidad de ocurrencia de un suceso es un numero real comprendido entre 0 y 1.

Probabilidad Marginal

Es la probabilidad de que se presente un suceso aleatorio S1 incluido en el espacio


muestral U asociado a un Experimento Aleatorio E.

Probabilidad conjunta (para 2 sucesos)

Es la probabilidad de que se presenten en el mismo experimento aleatorio dos sucesos


aleatorios S1 Y S2 incluido en el espacio muestral U, asociado a dicho experimento E.

Se llama Probabilidad condicional del suceso S1 tal que se haya presentado el


suceso S2, a la probabilidad de que se presente el suceso S1 con la condición de que
previamente se presente el suceso S2.

P(S1/S2)= Probabilidad condicional de S1 dado S2.

P(S1/S2)= P(S1S2)/P(S2)

La Probabilidad conjunta de presentacion del suceso S1 Y S2 se calcula multiplicando


la probabilidad marginal de uno de ellos y la probabilidad condicional del otro, dado el
primero. La operación matemática que se utiliza es la multiplicación, por tal motival la regla
a utilizar para el calculo de llama regla del producto.

Variables aleatorias
Los resultados de los experimentos aleatorios, cualesquiera que sean, tienen que
estar expresados cuantitativamente. Para ello, hay que contar con métodos capaces
de definir reglas precisas que asignen números reales a los resultados de los
experimentos aleatorios, teniendo en cuenta que se quiere medir y como se quiere
medir.
Variable aleatoria: Es una función, o regla bien definida, que asigna, a cada elemento
del espacio muestral, un vector perteneciente a un espacio vectorial.
Variables aleatoria unidimensional: Cuando, a cada elemento del espacio muestral, se
asigna un escalar perteneciente al conjunto de números reales.
Recorrido de una variable aleatoria unidimensional: Conjunto formado por los números
reales que se pueden asignar a dicha variable.
Es conveniente recalcar el hecho de que se puede concebir una variable aleatoria de
dos maneras:
• Se realiza un Experimento aleatorio E que tiene un resultado u=U, y luego se le
asigna a este resultado el valor numérico x(U)€R
• Se realiza un experimento aleatorio E que tiene un resultado u=U. Si la observación
consiste en realizar mediciones cuantitativas, el resultado u, es un número real. Si la
unidad de medida correspondiente a dicho resultado coincide con “como se quiere
medir” o sea, la unidad de medida de la variable aleatoria definida, entonces, u es
igual a x(u), y U es igual a R(x). Si la unidad de medida de la magnitud de la variable
no coincide con la medición realizada son dos números reales distintos.
Variable aleatoria discreta unidimensional: Es aquella variable aleatoria cuyo recorrido
es finito o infinito numerable.
Distribución de probabilidad univariada
Funciona de probabilidad puntual: Asigna a cada valor del recorrido de dicha variable,
un numero real no negativo, llamado probabilidad puntual, de modo tal que la suma de
todos estos valores, a través del recorrido de la variable , debe será igual a la unidad.
Debe cumplir dos condiciones:
1) Condición de no negatividad; El número real asignado debe ser no negativo.
2) Condición de cierre: La suma de todos los números reales asignados por la función
de probabilidad puntual, a cada valor de la variable discreta, debe ser igual a uno.
Una variable discreta, X, queda estrictamente definida cuando se establece su función
de probabilidad puntual. La función de probabilidad puntual puede ser graficada
utilizando las coordenadas ortogonales, donde los valores de la variable se ubican en
el eje de abscisas y los correspondientes valores puntual, en el eje de ordenadas.
(Grafico de Bastones)
Función de distribución: Función que asigna a cada valor del recorrido, un número real
que representa la suma de todas las probabilidades puntuales, desde el primero hasta
el valor en cuestión.
La función de distribución acumulada puede ser graficada utilizando las coordenadas
cartesianas ortogonales, donde los valores de la variable se ubican en el eje de
abscisas y los correspondientes valores de probabilidad acumulada, en el eje de
ordenadas. (Grafico escalonado)
El conjunto de pares ordenados {Xi; F(Xi)}, para todo i, se llama función de distribución
de probabilidad. Es la distribución acumulada hasta un valor de la variable, o
simplemente Distribución acumulada.
Función de distribución complementaria: Función que asigna a cada valor del
recorrido, un número real que representa la suma de todas las probabilidades
puntuales, desde el valor en cuestión hasta el último.
El conjunto de pares ordenados {Xi; G(Xi)}, para todo i, se llama función de distribución
complementaria de probabilidad. Es la distribución acumulada desde un valor de la
variable, o simplemente Distribución desacumulada.
• La suma entre el valor de la función de distribución correspondiente a un valor de la
variable y el valor de la función de distribución complementaria correspondiente al
siguiente valor de la variable, es siempre igual a uno.
Percentiles
Percentil de orden K (O<K<100 / K€r) de una variable aleatoria discreta a un valor Xk,
tal que, hasta el valor de variable inmediato anterior, se acumule, a lo sumo, una
probabilidad igual a K/100 y, desde el valor de variable inmediato posterior se
acumule, a lo sumo, una probabilidad igual a (1-K/100).

Variables aleatorias continuas unidimensionales


Las variables continuas por tener un recorrido infinito no numerable, no permiten una
clasificación puntual de sus valores, sino que su análisis debe hacerse utilizando
intervalos de clase. También, el histograma de las frecuencias relativas simples, debe
cubrir una superficie igual a uno.
Por otro lado, la cantidad de intervalos de clase que se necesitan para clasificar a las
unidades experimentales dentro de la amplitud total, depende de la cantidad de
observaciones. Si esta cantidad tiende a infinito, consecuentemente la amplitud de
cada intervalo tiende a cero.
Una variable con recorrido infinito no numerable es una variable aleatoria continua en
un determinado intervalo de números reales, si existe una función real que en dicho
intervalo, cumpla con las siguientes dos condiciones: Sea no negativa y cubra una
superficie igual a 1.
Función de densidad de probabilidad: Es la función real que cumple con la condición
de no negatividad y con la condición de cierre.
Una variable aleatoria continua queda definida cuando se conoce su función de
densidad de probabilidad. Una función de densidad de probabilidad está definida
únicamente en el recorrido de la variable aleatoria, o sea, el intervalo {a;b}, fuera de
este intervalo dicha función es nula.
La función de densidad de probabilidad de una variable aleatoria continua explica el
comportamiento probabilístico de esta variable.
Con la función de densidad de probabilidad es posible calcular la probabilidad de
ocurrencia de los valores de una variable aleatoria continua, teniendo en cuenta las
siguientes reglas:
• Dados dos valores de la variable continua X, X1<X2 que pertenezcan al intervalo
{a;b} la probabilidad de encontrar un valor de la variable entre ellos esta dadas por la
superficie que encierra la función entre dichos puntos.
• La probabilidad de que la variable X tome un valor individual X3 es nula. En un punto
no hay superficie.
• Si la probabilidad puntual es igual a cero, cuando se calcula la probabilidad de que
un valor de la variable pertenezca a un intervalo determinado, es indistinto que este
sea cerrado o abierto.
Función de distribución
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x)
definida en el intervalo de números reales {a;b}. Se llama función de distribución, F(x),
a un modelo matemático o función no decreciente, que asigna a cada valor de la
variable aleatoria un valor de probabilidad acumulada desde el límite inferior del
recorrido, hasta ese valor.
Función de distribución complementaria
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x)
definida en el intervalo de números reales {a;b}. Se llama función de distribución
complementaria, G(x), a un modelo matemático o función no creciente, que asigna a
cada valor de la variable aleatoria un valor de probabilidad acumulada desde un valor
de la variable, hasta el límite superior del recorrido.
La suma entre el valor de la función de distribución correspondiente a un valor de la
variable y el valor de la función de distribución complementaria correspondiente a
dicho valor de la variable es igual a uno.
Percentil de orden K (O<K<100 / K€r) de una variable aleatoria continua al valor de la
variable Xk, donde se acumule, una probabilidad igual a K/100.
Es posible obtener una función de proporciones lo percentiles (o fractiles) buscando la
inversa de la función de distribución. Esta función recibe el nombre de Función
percentilar.
La función de distribución surge de integrar la función de densidad de probabilidad de
la variable aleatoria continua utilizando como límite inferior de integración el límite
inferior del recorrido, y como límite superior de integración, el valor de la variable.
Momentos teóricos
Una función de probabilidad o una función de densidad de probabilidad, por ser
Modelos Matemáticos, son Modelos Teóricos. Con estas funciones se puede predecir
el comportamiento probabilístico de las variables aleatorias. Permiten calcular valores
teóricos relacionados con dichas variables. Valores que se esperan, en promedio, si el
experimento aleatorio se desarrolla bajo las mismas condiciones.
Se llama Momento de una variable aleatoria al valor esperado o esperanza
matemática de una función de la variable.
Se llama Momento o esperanza matemática de una función generada con una variable
aleatoria discreta, a la suma del producto de cada valor numérico de la función por el
correspondiente valor de probabilidad puntual, a través del recorrido de la variable.

Se llama Esperanza matemática de una función generada con una variable aleatoria
continua, a la integral, a través del recorrido de la variable, del producto de la función
dada por la función de densidad de probabilidad de la variable.

Momento absoluto de orden K: Es la esperanza matemática de la potencia K-esima de


la variable aleatoria.
El momento absoluto de orden 1 es el promedio o media aritmética esperada de la
variable aleatoria. La interpretación del promedio esperado o media aritmética
esperada es el valor que se espera obtener, en promedio, si el experimento es
repetido bajo las mismas condiciones, una cantidad muy grande de veces.
Momento centrado teórico de orden K: Es la esperanza matemática de la potencia k-
esima de la desviación de la variable aleatoria con respecto a la media aritmética
esperada.
El momento centrado de orden 2 es la varianza esperada de la variable aleatoria.
Función generatriz de momentos
Sea X una variable aleatoria y t una variable real, no aleatoria, se llama función
generatriz de momentos de la variable X, a la esperanza matemática de la potencia X.t
del numero E.
• La función generatriz de momentos es única y determina por completo la distribución
de probabilidad de una variable aleatoria. Esto quiere decir que si dos variables tienen
la misma función generatriz de momentos, entonces tienen la misma distribución de
probabilidad.
• El momento absoluto de orden K se obtiene realizando la derivada k-esima de la
función generatriz de momentos, con respecto a la variable t y valorizando dicha
derivada en el origen de la variable t(t=0)
Desvío estándar: Es la raíz cuadrada positiva de la varianza esperada.
Coeficiente de variación: Es el cociente entre el desvío estándar y el promedio o media
aritmética esperada.
Mediana:
• De una variable aleatoria discreta es el valor tal que, hasta el valor de variable
inmediato anterior, se acumule, a lo sumo, una probabilidad de 0,50 y desde el valor
de variable inmediato posterior se acumule, a lo sumo, una probabilidad de 0,50.
• De una variable aleatoria continua al valor de la variable hasta donde se acumula una
probabilidad exactamente igual a 0,50.
Modo:
• De una variable aleatoria discreta al valor de la variable mas probable, o de máxima
probabilidad, dentro de un entorno de dicho valor. Si todos los valores de una variable
aleatoria discreta tienen igual valor de probabilidad puntual entonces no existe modo.
• De una variable aleatoria continua al valor de la variable con el que la función de
densidad de probabilidad alcanza un máximo relativo.
Coeficiente de asimetría
• Función de probabilidad: Una distribución de probabilidad de una variable discreta es
simétrica, si las probabilidades puntuales correspondientes a valores de la variable
que equidistan de la media aritmética esperada son iguales
• Función de densidad de probabilidad: Una distribución de probabilidad de una
variable continua es simétrica, si las imágenes de la función de densidad de
probabilidad correspondientes a valores de la variable que equidisten de la media
aritmética esperada son iguales.
Propiedades del promedio y de la varianza
• El promedio esperado de una constante, es la constante misma y la varianza
esperada de una constante es nula.
• El promedio esperado de la suma de una constante mas una variable, es igual a la
constante mas el promedio esperado de la variable y la varianza de la suma de una
constante mas una variable es igual a la varianza de la variable.

• La esperanza matemática o promedio del producto de una constante por una


variable, es igual al producto entre la constante y la esperanza matemática o promedio
de la variable y la varianza del producto de una constante por una variable es igual al
producto entre el cuadrado de la constante y la varianza de la variable.

Teorema de tchebycheff
Sea X una variable aleatoria, discreta o continua, con esperanza matemática finita y
varianza finita, y sea K un número real positivo mayor a uno. Cualquiera sea la
distribución de probabilidad de la variable aleatoria X, siempre se cumple que:
La probabilidad de que, el modulo de la desviación ente un valor de la variable y el
promedio esperado, sea mayor o igual, a k veces el desvío estándar (K>1), es a lo
sumo 1/K₂

Variable estandarizada
Se llama variable estandarizada de una variable aleatoria, discreta o continua, a la
variable que se genera haciendo el cociente entre, la diferencia entre la variable
original y su esperanza matemática, y la raíz cuadrada positiva de la varianza. Toda
variable aleatoria estandarizada, tiene esperanza igual a cero y varianza igual a uno,
cualquiera sea la naturaleza de la variable original que se está estandarizando.
Aplicaciones de la variable estandarizada
Estandarizar una variable aleatoria, la variable original, es transformar los valores de
ella, que están expresados en unidades de la magnitud original, a valores en unidades
de desvió estándar. En otras palabras, el valor de la variable estandarizada indica a
qué distancia, a cuantos desvíos estándares, y en qué posición (izquierda o derecha)
se encuentra el correspondiente valor observado de la variable en estudio, con
respecto a su media aritmética.
Esta transformación hace posible que se pueda comparar la desviación con respecto
al promedio aritmético, de valores individuales correspondientes a variables aleatorias
que representan distintas circunstancias, o distintos grupos, o medidas en distintas
unidades de magnitudes.
Leyes de probabilidad específicas
Experimento aleatorio dicotómico: Aquel experimento aleatorio cuyo espacio muestral
tiene solo dos resultados posibles mutuamente excluyentes.
Permutaciones: Dado un conjunto formado por n elementos, se llama permutación de
n a cualquier arreglo ordenado de los n elementos. La cantidad de permutaciones que
se pueden formar ordenando los n elementos de distinta manera, se calcula con un
numero llamado factorial de n.
Espacio continuo: Es un recinto de infinitos puntos donde en cualquiera de ellos es
posible encontrar un elemento. Son las magnitudes (longitud; superficie; tiempo)
Distribución de Bernoulli: Es una función que proporciona valores de probabilidad a
una variable aleatoria discreta que denota la presencia o ausencia de un determinado
atributo. Si el atributo no se presenta, se asigna a la variable el valor cero; si el atributo
se presenta se asigna a la variable el valor uno.
La cantidad de elementos con un determinado atributo que se presenta en una
observación de un experimento aleatorio dicotómico, es una variable aleatoria discreta,
r, cuya función de probabilidad es llamada distribución de bernoulli.

Repetición de un experimento aleatorio dicotómico: Cada vez que el experimento


aleatorio dicotómico se repite, los elementos que tengan el atributo que se está
considerando pueden presentarse o no, es aleatorio, entonces, en las n repeticiones
del experimento, habrá algunos elementos que tengan el atributo, o puede ser que
ninguno tenga el atributo, o todos tengan el atributo.
Distribución Hipergeometrica:
• Modelo probabilístico para una variable aleatoria discreta.
• Modelo que corresponde a aquellos experimentos aleatorios donde se realizan
sucesivas observaciones de unidades experimentales sin reposición.
• La no reposición provoca un cambio en el valor de probabilidad de ocurrencia del
atributo por tal motivo las observaciones no son independientes.
• Las n repeticiones del experimento aleatorio dicotómico no son independientes, o
sea, la probabilidad de que se presente un elemento con un determinado atributo no
permanece constante a través de las n observaciones.
La cantidad de elementos con un determinado atributo, que se presentan en n
observaciones dependientes de un experimento aleatorio dicotómico, es una variable
aleatoria discreta, r, cuya función de probabilidad es llamada distribución
hipergeometrica.

Distribución Binomial
• Las n observaciones son independientes: la probabilidad de que se presente un
elemento con un determinado atributo permanece constante a través de las n pruebas.
La cantidad de elementos con un determinado atributo, que se presentan en n
observaciones independientes de un experimento aleatorio dicotómico, es una variable
aleatoria discreta, r, cuya función de probabilidad es llamada distribución binomial.

Distribución geométrica
• La variable aleatoria es la cantidad de repeticiones independientes del experimento
que son necesarias para encontrar un elemento que tenga un determinado atributo.
• Si n es la cantidad de observaciones o repeticiones independientes del experimento
aleatorio dicotómico, entonces en las primeras (n-1) observaciones no se tiene que
haber presentado el elemento con el atributo.
La cantidad de observaciones independientes de un experimento aleatorio dicotómico
necesarias para encontrar 1 elementos con un determinado atributo, es una variable
aleatoria discreta, ñ, cuya función de probabilidad es llamada distribución geométrica
Distribución Pascal
• La variable aleatoria es la cantidad de repeticiones del experimento pero que son
necesarias para encontrar una cantidad fija, mayor a uno, de elementos que tengan un
determinado atributo.
• Esta variable es útil cuando se quieren concreta algunos trabajos de investigación, o
tener una correcta información acerca de determinadas situaciones, donde es
necesario contar con una cantidad fija de elementos que tengan un determinado
atributo. Para ello, habrá que repetir el experimento aleatorio tantas veces como sea
necesario. Es decir, se observan unidades experimentales sucesivamente hasta
conseguir la cantidad con atributo que se necesita, y recién, cuando ello se logra, se
detienen las pruebas.

La cantidad de observaciones independientes de un experimento aleatorio dicotómico


necesarias para encontrar r elementos con un determinado atributo, es una variable
aleatoria discreta, ñ, cuya función de probabilidad es llamada distribución pascal.

Relación entre la distribución de pascal y la distribución binomial


Los valores de probabilidad puntual de la distribución de pascal se pueden obtener a
partir de la distribución binomial.
Si hay que encontrar exactamente r elementos que tengan un determinado atributo, o
sea r éxitos, y para ello hay que hacer exactamente n pruebas, necesariamente, el
último éxito encontrado, debe coincidir con el último elemento observado, porque
cuando se lo encuentra se detienen las pruebas.
Los (r-1) primeros éxitos pueden obtenerse en cualquiera de las primeras (n-1)
pruebas independientes, pero el r-esimo éxito debe estar en la n-esima observación.
Para calcular la probabilidad de encontrar (r-1) éxitos en (n-1) observaciones
independientes, hay que utilizar la distribución binomial. Si esta probabilidad se
multiplica por p, o sea por la probabilidad de encontrar el r-esimo éxito que falta se
obtiene el mismo valor de probabilidad que el que se obtiene cuando se calcula
usando la distribución de Pascal.

Distribución de Poisson
La distribución que se estudia en este punto se origino en el estudio de la cantidad de
elementos (personas, automóviles, llamadas telefónicas, etc.) que arriban en un
determinado periodo de tiempo. Posteriormente el análisis fue generalizado para otros
espacios continuos.
Dado un espacio muestral continuo de extensión t. En dicho continuo ocurren ciertos
acontecimientos en forma aleatoria formando una secuencia o flujo de
acontecimientos. Se supone que este flujo de acontecimientos satisfaces las
siguientes condiciones:
1) Sean (t1;t2) y (t3;t4) dos intervalos cualesquiera del continuo, no superpuestos y
estadísticamente independientes, o sea que la probabilidad de que se produzcan
acontecimientos en uno de los intervalos, no depende de los que ocurrieron en el otro.
2) La probabilidad de que un acontecimiento se produzca en un intervalo infinitesimal
(t0;t0+∆t) es un infinitésimo de orden ∆t.
3) La probabilidad de que se produzcan dos o más acontecimiento en el intervalo
infinitesimal (t0;t0+∆t) es un infinitésimo de orden ∆t.
4) Los acontecimientos ocurren con una tasa media o frecuencia media o promedio de
presentación en el continuo conocido.
La cantidad de acontecimientos que se presentan en un continuo es una variable
aleatoria discreta.
La cantidad de elementos que se presentan al azar en un continuo de extensión t, y
con un promedio de presentación en el continuo igual a , es una variable aleatoria
discreta, r~, cuya función de probabilidad es llamada distribución de Poisson.

Aproximación de la distribución hipergeometrica a la distribución Binomial


Cuando hay que calcular un valor de probabilidad para una variable con distribución
hipergeometrica, frecuentemente, el tamaño del universo N es una cantidad grande en
relación con la cantidad de observación n. Tan grande es, que el numero combinatorio
se torna incalculable con los métodos corrientes. Cuando ello ocurre, el cálculo de las
probabilidades de la distribución hipergeometrica se hace utilizando la distribución
binomial.
El límite de la distribución hipergeometrica, cuando el tamaño del universo N tiende a
infinito, es la distribución binomial. Esto quiere decir que, si el tamaño del universo es
suficientemente grande, con relación al número de observaciones, aun cuando las
observaciones sean sin reposición, los valores de probabilidad puntual de la
distribución hipergeometrica se pueden calcular, aproximadamente con la distribución
binomial.

Aproximación de la distribución binomial a la distribución de Poisson


Cuando hay que calcular un valor de probabilidad para una variable con Distribución
binomial, puede ocurrir que la cantidad de observaciones n, sea grande y la
probabilidad de encontrar un elemento con el atributo p, sea pequeña. Si n es muy
grande el número combinatorio se torna incalculable con los métodos corrientes. Si p
es muy pequeño, la potencia es prácticamente cero.
El límite de la distribución binomial, cuando la cantidad de observaciones n tiende a
infinito y la probabilidad de que se presente un elemento con un determinado atributo p
tiene a 0 es la distribución de Poisson.
Esto quiere decir que, si la cantidad de observación es suficientemente grande y la
probabilidad de encontrar un elemento con un determinado atributo es suficientemente
chica, los valores de probabilidad puntual de la distribución binomial, se pueden
calcular, aproximadamente, con la distribución de Poisson.

Variables aleatorias continuas


Para poder estudiar el comportamiento probabilístico de una variable aleatoria
continua, calcular los momentos, calcular los valores de probabilidad dentro de un
intervalo dado, etc. Es necesario conocer cuál es la función de densidad de
probabilidad que las define.
Algunas variables están definidas por funciones de densidad de probabilidad cuyas
ecuaciones tienen ciertas características especiales y por ello se les ha asignado un
nombre con el que se las reconoce.
Distribución Uniforme
Una variable aleatoria continua X, definida en el intervalo de números reales {a;b} tiene
distribución uniforme si su función de densidad de probabilidad es

Características
1) a y b son los parámetros matemáticos de la función.
2) Por ser función de densidad de probabilidad la función de densidad uniforme
cumple con la condición de no negatividad y con la condición de cierre.
3) La función de distribución de la distribución uniforme es:

4) La función percentilar de la distribución uniforme es:

5) La función generatriz de Momentos es:

6) La esperanza matemática o promedio aritmético de la variable es


7) La varianza esperada de la variable es:

8) Dado que la función de densidad de probabilidad de la distribución uniforme es


simétrica se verifica que:

9) Dado que la función de densidad de probabilidad de la distribución uniforme no


tiene máximo relativo entonces la variable no tiene Modo.

Distribución Normal
La distribución normal es quizá, una de las más importantes, dado que es un modelo
teórico que se presenta con extraordinaria frecuencia como función de densidad de
probabilidad de las variables aleatorias continuas que se estudian en todas las
ciencias. No obstante, es necesario verificar, mediante metodologías que se
estudiaran en cursos más avanzados, la validez de la “normalidad” en las variables
que se analizan, para evitar errores en las decisiones.
Por otro lado, la distribución normal posee importantes propiedades que permiten
analizar el comportamiento de variables originadas en la suma o diferencia de otras
variables; como así también, bajo ciertas condiciones, puede ser utilizada como
aproximación de funciones de probabilidad para variables aleatorias discretas.
Una variable aleatoria continua X, definida para todos los números reales, tiene
distribución normal, si su función de densidad de probabilidad es

Características
1) Los números µ y ∂ de la función de densidad normal son los parámetros
matemáticos de la función
2) La función de densidad normal alcanza un máximo relativo cuando x= µ
3) La función de densidad normal tiene dos puntos de inflexión cuando:
X= µ - ∂ X= µ + ∂
4) La función de densidad normal es simétrica con respecto al punto de máxima
ordenada
5) La función de densidad normal es asíntota al eje de abscisa.
Variable normal estandarizada o tipificada
El valor de la función de distribución de una variable aleatoria con distribución normal,
para el valor x, es igual al valor de la función de distribución de la variable
estandarizada Z con distribución normal, para el correspondiente valor.

Si x se distribuye normalmente con media mu y varianza sigma cuadrado, entonces X


se distribuye normalmente con media cero y varianza uno

Función de distribución de la variable estandarizada


Los valores de la función de distribución de la variable estandarizada X se encuentran
tabulados, por lo tanto, no es necesario lograr su expresión funcional.
Si bien el recorrido de la variable es el conjunto de los números reales, los valores de
probabilidad acumulada significativos más usuales, corresponden a los valores de la
variable que se encuentran en el intervalo -3,99< Z < 3,99
Para calcular la probabilidad de que el valor de una variable aleatoria distribuida
normalmente pertenezca a un determinado intervalo, primero hay que estandarizar los
valores de la variable original X, y con el correspondiente valor de Z, obtener el valor
de probabilidad en la tabla de la función de distribución Z.
Calculo de los percentiles
Para calcular el percentil de orden k de una variable aleatoria continua X, distribuida
normalmente, se utiliza la Tabla de percentiles de la variable estandarizada Z,
ubicando el orden del percentil, expresado en probabilidad, en la columna F(z) y, de
esta manera, localizar el correspondiente valor de Zk.

Transformación lineal de variables aleatorias normales


Toda transformación afín de una variable aleatoria con distribución normal, se
distribuye normalmente.
Toda combinación lineal de variables aleatorias normales independientes, tiene
distribución normal.
Proposiciones
• La esperanza matemática de la suma de variables aleatorias independientes es igual
a la suma de las Esperanzas Matemáticas Individuales de cada una de las variables.
• La Varianza de la suma de variables aleatorias independientes es igual a la suma de
las varianzas individuales de cada una de las variables.
• La suma de variables aleatorias normales independientes, se distribuye
normalmente.
Primer caso: Todas las variables están multiplicadas por una constante no nula y cada
una de las variables tiene distinta esperanza matemática y distinta varianza.
Segundo caso: Todas las constantes son iguales a uno, y todas las variables tienen
distinto promedio o esperanza matemática y distinta varianza.
Tercer caso: Todas las constantes son iguales a uno, y todas las variables tienen el
mismo promedio o esperanza matemática y la misma varianza.

Aproximación de la distribución binomial a la distribución normal


El límite de la distribución binomial, cuando la cantidad de observaciones n tiende a
infinito y la probabilidad de que se presente un elemento con un determinado atributo p
tiende a 0,50 es la distribución normal.
La variable en estudio es una variable aleatoria discreta, pero para el cálculo de
probabilidad se utiliza la distribución normal, que es una distribución para variable
continua, por ello, para calcular el valor de la variable estandarizada haciendo una
“corrección por continuidad” que consiste en sumar o restar, según corresponda,
medio punto al valor de la variable r~, de modo que el valor puntual quede
estrictamente incluido en un intervalo
Muestra: Es un subconjunto o parte de una población tomada de forma tal, que con
ella se pueda hacer un juicio acerca de esa población completa.
Fracción de muestreo: Al cociente entre el tamaño de la muestra y el tamaño de la
población (FM = n/N)
Inferencia estadística: Cualquier afirmación que se realiza sobre una determinada
población, basándose en los datos obtenidos con una muestra. Pudiéndose obtener a
partir del cálculo de probabilidad, una determinada medida de la incertidumbre que se
genera.
Muestreo: Es el procedimiento mediante el cual se obtienen una o más muestra de
una población dada.
Unidad de Muestreo: Es cada unidad experimental, o grupo de unidades
experimentales, que son tomadas para obtener una muestra.
Diseño muestral: Es un plan de muestreo especifico donde se establece cuales serán
los procedimiento a seguir para tomar una o más muestras.
Las unidades experimentales que intervienen en una muestra, pueden ser tomadas
con mayor o menor grado de subjetividad por parte del sujeto que se encarga de
realizar la muestra. De esta manera, se originan distintos tipos de muestreo. Algunos
de ellos son:
Muestreo probabilístico: Es cuando las unidades experimentales que componen la
muestra son tomadas al azar. El proceso de obtención de cada uno de los elementos
que integrara la muestra, es un experimento aleatorio. Es un tipo de muestreo objetivo
porque no depende del sujeto que se encarga de tomar la muestra, sino del azar.
Muestreo intencional: Cuando las unidades experimentales que componen la muestra
son obtenidas siguiendo una regla o norma preestablecida. Depende de las
preferencias del sujeto.
Muestreo sin norma: Cada elemento que integrara la muestra es elegido por el sujeto,
pero sin un criterio fijado. Por tal motivo se considera que la obtención es cuasi-
aleatoria, luego, el muestreo es cuasi-objetivo. Se puede utilizar cuando hay
elementos de juicio suficientes como para suponer que la población es homogénea.
Método de obtención de muestras
Muestreo simple al azar (sin reemplazo)
El método muestreo simple al azar (sin reemplazo) consiste en obtener al azar, una
muestra de n elementos, de entre los N que constituyen el Universo. Hay que tener en
cuenta que todas las muestras posibles de tamaño n deben tener la misma
probabilidad de ser tomadas, como así también, que todos los elementos que
integraran la muestra tengan, en el momento de cada extracción, la misma
probabilidad de ser obtenidas.
Considérese, a modo de ejemplo, un Universo finito de tamaño N. Como a cada una
de las unidades que se extraen no se las repone, la cantidad de muestras distintas,
igualmente posibles, de tamaño n que pueden obtener de dicho Universo, es una
combinación de N elementos tomados de a n. Esta combinación se puede calcular con
el número combinatorio. (Nn)
Muestreo estratificado al azar
En aquellos casos en los cuales la población presenta una gran variabilidad, ósea, una
población heterogénea, la utilización del Muestreo Simple al Azar puede proporcionar
muestras no representativas y las conclusiones que surjan del análisis ellas no serán
del todo confiables. Cuando se presentan estas situaciones, el método de muestreo
más adecuado a utilizar es el muestreo estratificado al azar. Este método consiste en
particionar al Universo en estratos (o clases o subpoblaciones), dentro de los cuales si
la variable debe presentar homogeneidad. De cada uno de los estratos se obtiene una
muestra Simple al Azar.
La asignación del tamaño de la muestra a cada uno de los distintos estratos se llama
afijación, y puede realizarse de alguna de las siguientes formas:
a) Afijación igual o uniforme: El tamaño de muestra que le corresponde a cada estrato
es igual para todos. Este tamaño se calcula, entonces, haciendo el cociente entre el
tamaño de la muestra, n, y la cantidad de estratos, h.
b) Afijación proporcional: El tamaño de la muestra que le corresponde a cada estrato
es proporcional al tamaño del estrato. Se calcula haciendo el producto entre la fracción
de muestreo y el tamaño de cada estrato.
c) Afijación Optima: El tamaño de la muestra para cada estrato es proporcional al
tamaño del estrato y al desvío estándar correspondiente. De esta manera se tiene en
cuenta la falta de homogeneidad entre las subpoblaciones.
Muestreo sistemático al Azar
Consiste en ordenar a las N unidades experimentales que conforman el Universo, de
acuerdo a como se fueron presentando, y obtener la muestra eligiendo,
sistemáticamente (de aquí la denominación del método), un elemento cada c
unidades, tomado el primero de ello en forma aleatoria.
Si el universo es finito, el numero c es la parte entera del cociente entre el tamaño del
universo y el tamaño de la muestra.
Si el universo es infinito, el número c se elige arbitrariamente, sobre la base del buen
saber y entender del estadístico que realiza el trabajo.
Este método es adecuado para ser utilizado en aquellos casos en los cuales las
Unidades Experimentales que forman el universo se presentan con una determinada
periodicidad. En este caso, hay que evitar que el numero c sea igual al periodo con
que se presentan las unidades experimentales en el universo, porque, si ello ocurriese
se perdería representatividad en la muestra.
Características poblaciones y muestrales
Parámetro estadístico
Toda población es una variable aleatoria; por tal motivo, su comportamiento
probabilístico esta explicado por una función de probabilidad, si la variable es discreta,
o por una función de densidad de probabilidad, si se trata de una variable continua.
Existen medidas que caracterizan a estas funciones, como las de tendencias central,
variabilidad, etc. Estas medidas cumplen un importante papel en el análisis inferencial
y, por ese motivo, se las define especialmente distinguiendo dos tipos de universos.
Universo finito y pequeño
Se llama parámetro estadístico a toda medida que resume información calculada con
las variables poblacionales.
Son ejemplos de parámetros: El total de los elementos que presenta un determinado
atributo, la proporción de elementos que presentan un determinado atributo, la media
aritmética, la varianza, el desvío estándar, etc.
Universo finito y grande o universo infinito
Se llama parámetro estadístico a todo parámetro matemático de una función de
probabilidad o de densidad de probabilidad, que brinda información acerca de una
población.
Los parámetros no son constantes matemáticas; son números reales que pueden
asumir cualquier valor que se encuentre dentro de un conjunto específico.
Estadígrafo
Es toda función escalar, h (X1; X2;…; Xn) generada con las variables muestrales.
Dado que los estadígrafos son funciones generadas por variables aleatorias, también
son variables aleatorias, luego, existirá una función de densidad de probabilidad, o una
función de probabilidad, lo que corresponda, que describa su comportamiento
probabilístico, como así también es posible que tengan una Esperanza Matemática
finito y una Varianza finita.
Estadígrafo de un parámetro: Todo estadígrafo que proporcione información acerca de
dicho parámetro.
Estadígrafo de transformación: Es aquel estadígrafo que permite transformar al
estimador, en una variable que tenga una determina distribución de probabilidad.
Estimación
Dado que la mayoría de los trabajos en donde se aplica el análisis estadístico, los
parámetros de las poblaciones son desconocidos, hay que llevar a cabo el proceso de
inferir o sacar conclusiones acerca de estos a través de las variables muestrales.
Los métodos que se utilizan para ello son dos, que generalmente se complementan, a
saber:
• Estimación puntual: Se llama estimación puntual del parámetro θ, a un método de
estimación que consiste en calcular el valor numérico único que asume el estimador,
luego de tomar la muestra y realizar las mediciones correspondientes. Este valor
numérico se llama punto de estimación
• Estimación por intervalo: Se llama estimación por intervalo del parámetro θ a un
método de estimación que consiste en calcular, con los datos de la muestra, los limites
de un conjunto cerrado y acotado de números reales. Este conjunto se llama intervalo
de estimación.
Los límites del intervalo de estimación dependen de la estimación puntual
Distribución de los estimadores
Se llama distribución de probabilidad del estimador θ, a aquella función de densidad
de probabilidad, o función de probabilidad, según corresponda, que describe su
comportamiento probabilístico.
Sesgo
Se llama sesgo a la diferencia entre, la esperanza matemática del estimador y el
parámetro a estimar.
SESGO = E (θ) – θ
Error medio cuadrático
Es la esperanza matemática del cuadrado de la diferencia entre el estimador θ y el
parámetro θ.
EMC (θ) = E (θ- θ)2
Propiedades de los buenos estimadores
Las propiedades más importantes que debe tener un estimador θ, para ser
considerado un “buen” estimador del parámetro θ son las siguientes:
• Insesgamiento: El estimador θ es un estimador insesgado del parámetro θ si, y solo
si la esperanza matemática del estimador θ es igual al parámetro θ. En otras palabras,
es insesgado si su sesgo es igual a cero. SESGO = E (θ) – θ = 0
El estimador θ es un estimador ASINTOTICAMENTE INSESGADO del parámetro θ, si,
y solo si el límite de la esperanza matemática del estimador θ, cuando el tamaño de la
muestra n tiende a infinito, es igual al parámetro θ.

• Eficiencia: El estimador θ es un estimador eficiente del parámetro θ si, y solo si se


cumple que el estimador θ tiene la menor varianza que puede tener un estimador del
parámetro θ.
o Eficiencia relativa: Dado dos estimadores de un mismo parámetro θ, el estimador θ1
tiene una eficiencia relativa mayor que el estimador θ2 si, y solo si la varianza del
estimador θ1 es menor que la varianza del estimador θ2.
• Consistencia: El estimador θ es un estimador consistente del parámetro θ si y solo, si
se cumple con el estimador θ converge en probabilidad al parámetro θ, cuando el
tamaño de la muestra n tiende a infinito. Un estimador es consistente si, a medida que
el tamaño de la muestra crece indefinidamente (tiende a infinito), la probabilidad de
que la diferencia entre el estimador y el valor del parámetro pueda hacerse tan
pequeña como se quiera, tiende a la unidad.
• Suficiencia: El estimador θ es un estimador suficiente del parámetro θ, si, y sólo si se
cumple que el estimador θ utiliza toda la información relevante acerca del parámetro θ,
contenida en la muestra aleatoria.
Grados de libertad
Se llamada grados de libertad a la cantidad de variables libres, o estadísticamente
independientes, que intervienen en un problema o en una distribución asociada a un
problema.
Media aritmética muestral
Se llama media aritmética muestral (o, simplemente media muestral) a un estimador
de la media poblacional, que se genera haciendo el cociente entre la suma de las
variables muestrales y el tamaño de la muestra.

Varianza muestral
Se llama varianza muestral a un estimador de la varianza poblacional que se genera
haciendo el cociente entra la suma del cuadrado de las desviaciones con respecto a la
media aritmética muestral y los correspondientes grados de libertad.

Proporción muestral
Se llama proporción de elementos que tienen un determinado atributo en la muestra o,
simplemente, proporción muestral a un estimador de la proporción poblacional, que se
genera mediante el cociente entre la cantidad de elementos que si poseen un
determinado atributo en la muestra y el tamaño de la muestra.

Esperanza y varianza de los estimadores


• Media muestral
La esperanza matemática de la media muestral siempre es la media poblacional. Por
lo tanto la media muestral es un estimador insesgado de la media poblacional.

La varianza de la media muestral de universos infinitos es:


Por lo tanto, si el universo es infinito, la media muestral es un estimador consistente de
la media poblacional.
La varianza de la media muestral de universos finitos es:

Por lo tanto, si el universo es finito, la media muestral es un estimador consistente de


la media poblacional.
• Proporción muestral
La esperanza matemática de la proporción muestral siempre es la proporción
poblacional

Por lo tanto la proporción muestral es un estimador insesgado de la proporción


poblacional.
La varianza de la proporción muestral de universos infinitos es:

Por lo tanto, si el universo es infinito, la proporción muestral es un estimador


consistente de la proporción poblacional.
La varianza de la proporción muestral de universos finitos es:

Por lo tanto, si el universo es finito, la proporción muestral es un estimador consistente


de la proporción poblacional.

• Varianza muestral
La esperanza matemática de la varianza muestral, en universos infinitos, siempre es la
varianza poblacional

Por lo tanto la varianza muestral es un estimador insesgado de la varianza


poblacional.
La varianza de la varianza muestral de universos infinitos es:

Distribución de algunos estimadores


• Distribución de la media muestral de poblaciones normales
El estimador Media aritmética muestra, por estar originado en una suma de variables
normales, es una combinación lineal de variables aleatorias normales, por lo tanto,
también tiene distribución normal.
• Distribución de la varianza muestral
Se utiliza la distribución ji-cuadrado. El estadígrafo de transformación de la varianza
muestral es:

• Distribución de la media aritmética muestral cuando la varianza poblacional es


desconocida
Se utiliza la distribución t de student con (n-1) grados de libertad. El estadígrafo de
transformación es:

• Distribución de la proporción muestral


Se utiliza la distribución normal estandarizada. El estadígrafo de transformación para
la proporción muestral de universos infinitos es:

El estadígrafo de transformación para la proporción muestral de universos finitos es:


Aplicación de la fracción de muestreo
Es el cociente entre el tamaño de la muestra y el tamaño de la población (n/N) y mide
la proporción del tamaño de la muestra con respecto al tamaño de la población.
Intervalos de confianza
Se llama intervalo de confianza para el parámetro θ, a un método de estimación que
consiste en determinar un conjunto cerrado y acotado de posibles valores del
parámetro, cuyos límites, inferior y superior, son funciones del estimador; y la
correspondiente probabilidad de que dicho intervalo cubra al verdadero valor del
parámetro.

Se llama nivel de confianza o probabilidad fiducial, a la probabilidad de que el intervalo


de confianza cubra al verdadero valor del parámetro.
1 –ε: Nivel de confianza. Probabilidad de que el intervalo cubra al verdadero valor del
parámetro.
ε: Nivel de riesgo. Probabilidad de que el intervalo no cubra al verdadero valor del
parámetro.
Se llama Intervalo de confianza aditivo a aquel intervalo que permite que la
probabilidad de que la estimación difiera del parámetro en a lo sumo h veces el desvío
estándar del estimador, sea igual al nivel de confianza.

El factor h se llama factor de confianza y es el valor del fractil de orden de la


distribución de probabilidad del estadígrafo de transformación del estimador θ.
Se llama error de muestreo a la máxima diferencia que podría haber entre el estimador
y el parámetro.

En los intervalos aditivos la cantidad que se suma y se resta al estimador puntual es el


error de muestreo.
Si se conocen los límites de un intervalo aditivo, la estimación puntual se puede
calcular haciendo la semisuma de los límites del intervalo y el error de muestreo se
puede calcular haciendo la semidiferencia de los límites del intervalo.

Intervalo de confianza para la media poblacional de poblaciones normales


Las poblaciones pueden ser infinitas o finitas, como así también, es posible que se
conozca el valor de la Varianza de la población σ2, o no, en cuyo caso hay que utilizar
el estimador de dicha varianza, o sea la varianza muestral S2. Esto da origen a
distintas expresiones del intervalo de confianza para el parámetro Media poblacional.
• Varianza poblacional conocida. Poblaciones infinitas

• Varianza poblacional conocida. Poblaciones finitas

• Varianza poblacional desconocida. Poblaciones infinitas

• Varianza poblacional desconocida. Poblaciones finitas

Intervalo de confianza para la media poblacional de poblaciones cuya distribución de


probabilidad es desconocida
Las distribuciones de las poblaciones no siempre son conocidas. En estos casos, para
poder construir intervalos de confianza para estimar el parámetro media poblacional,
hay que recurrir a la aplicación de algunos teoremas: Con el teorema Central del límite
se demuestra que los estadígrafos:

Tienen distribución asintóticamente normal estandarizada cuando el tamaño de la


muestra tiende a infinito. Por otro lado, con el teorema de Tchebycheff se puede
demostrar que

Con estos dos teoremas se construyen los intervalos de confianza para estimar el
parámetro media poblacional

Muestra grandes
Si la distribución de probabilidad de la población no es conocida y el tamaño de la
muestra es lo suficientemente grande como para que se cumpla el Teorema Central
del Límite, entonces, para poblaciones infinitas o finitas, respectivamente:

O si la varianza poblacional es desconocida, bajo ciertas condiciones, para


poblaciones infinitas o finitas, respectivamente

Muestras chicas
Si la distribución de probabilidad de la población no es conocida, y el tamaño de la
muestra no es lo suficientemente grande como para que se cumpla el Teorema
Central del Límite, entonces el nivel de confianza del intervalo de estimación es la cota
inferior de probabilidad que surge de la aplicación del teorema de Tchebycheff.
Entonces, para poblaciones con varianza poblacional conocida, infinitas o finitas, los
intervalos de confianzas son, respectivamente

O si la varianza poblacional es desconocida, bajo ciertas condiciones, para


poblaciones infinitas o finitas, respectivamente

Intervalo de confianza para la proporción de elementos que tienen un determinado


atributo en la población
• Poblaciones infinitas
El estadígrafo de transformación para la Proporción muestral es:

La expresión del intervalo:

• Proporción poblacional desconocida. Poblaciones finitas.


El estadígrafo de transformación para la proporción muestral es:

La expresión del intervalo:

Intervalo de confianza para la varianza poblacional


• Población infinita
El estadígrafo de transformación para la varianza muestral es:

La expresión del intervalo:

Tamaño de muestra
Tamaño de muestra para estimar la media poblacional
• Varianza poblacional conocida
El cálculo del tamaño de la muestra se realiza teniendo en cuenta los siguientes
factores:
 El error de muestreo: Este factor es proporcionado por el usuario de la muestra. El
debe indicar cuál es la máxima diferencia entre la media muestral y la media
poblacional está dispuesto a aceptar. El error de muestreo debe estar expresado en la
misma unidad de medida de la variable.
 La confianza en la estimación: Este factor es proporcionado por el usuario de la
muestra. El debe indicar cuál es la probabilidad deseada de que el intervalo de
confianza cubra al verdadero valor de la media poblacional.
 La varianza de la población: Este factor indica el grado de variabilidad de la
población.
 El tamaño de la población: En caso de poblaciones finitas, este factor es una
restricción para el tamaño de la muestra.

• Varianza poblacional desconocida


El tamaño de la muestra para estimar la media poblacional de poblaciones normales
infinitas, cuando no se conoce la varianza poblacional, se calcula mediante el uso de
un proceso iterativo. Este proceso consiste en los siguientes pasos:
1) Se toma una muestra piloto de tamaño arbitrario n0 (generalmente este tamaño es
igual a 10) y con ella se calcula el valor de la varianza muestral utilizando la formula ya
explicada.

2) Se calcula un tamaño de muestra inicial, utilizando la siguiente fórmula:

Donde:
T1: Es el fractil de orden de la distribución t de student con (n-1) g.l.
S2: Varianza muestral calculada con la muestra piloto de tamaño n0.
e: Error de muestreo
3) Se obtiene un segundo tamaño de muestra, cambiando el valor t1 utilizado
anteriormente por t2, otro fractil de orden de la distribución t de Student pero usando
(n1-1)g.l.

4) Se obtiene un tercer tamaño de muestra, cambiando el valor t2 utilizado


anteriormente por t3, otro fractil de orden de la distribución t de Student pero usando
(n2-1)g.l.

5) Este proceso iterativo se repite tantas veces hasta que dos tamaños de muestra
consecutivos son iguales ni= n(i+1) entonces ese es el tamaño de la muestra.
Tamaño de muestra para estimar la proporción poblacional
El cálculo del tamaño de la muestra se realiza teniendo en cuenta los siguientes
factores:
• El error de muestreo: Este factor es proporcionado por el usuario de la muestra. El
debe indicar cuál es la máxima diferencia entre la proporción muestral y la proporción
población que está dispuesto a aceptar. El error de muestreo debe estar expresado en
tanto por uno.
• La confianza en la estimación: Este factor es proporcionado por el usuario de la
muestra. El debe indicar cuál es la probabilidad deseada de que el intervalo de
confianza cubra al verdadero valor de la proporción poblacional.
• La proporción: Este factor proporciona información sobre el grado de concentración
de los elementos que tienen el atributo A.
• El tamaño de la población: En caso de poblaciones finitas, este factor es una
restricción para el tamaño de la muestra.
El error de muestreo se obtiene haciendo la semidiferencia entre los límites del
intervalo de la confianza.

Si la población es infinita, el error de muestreo es

Luego

Dado que el valor de p es desconocido porque se calcula con la muestra, no puede


formar parte de la fórmula utilizada para calcular el tamaño de la muestra, por lo tanto,
se utiliza un valor alternativo al que se simbolizara p.

El valor de p podrá obtenerse de alguna de las siguientes formas:


• Utilizando datos que surjan de trabajos anteriores
• Utilizando una muestra piloto (generalmente de tamaño 50),
• Si es imposible o impracticable alguna de las formas citadas, entonces, se utiliza
directamente el valor 0,50, dado que, cuando hay dicotomía, dos grupos, la mayor
dispersión se alcanza si cada grupo tiene el 50%.

Prueba de hipótesis
Se llama hipótesis estadística a cualquier afirmación o aseveración que se formula
acerca de cualquier característica poblacional (el valor numérico de un parámetro, la
forma funcional de una población, etc.)..
Se llama hipótesis parametrica a aquella hipótesis estadística planteada para controlar
o verificar el valor numérico de un parámetro.
Se consideran solo tres posibles situación del valor numérico del parámetro, a saber:
• El valor numérico del parámetro θ es exactamente igual a un determinado valor
postulado θo.
• El valor numérico del parámetro θ es menor a un deterimando valor postulado de θo.
• El valor numérico del parámetro θ es mayor a un determinado valor postulado de θo.
Se llama curso de acción a la acción que se llevaría a cabo, si se conociese el
verdadero valor del parámetro θ.
Se llama desigualdad equivalente a la igualdad a aquella desigualdad entre el
parámetro θ y el valor postulado θo, que provoca el mismo curso de acción que se
llevaría a cabo con la igualdad entre el valor del parámetro θ y el valor postulado θo.
Se llama desigualdad no equivalente a la igualdad a aquella desigualdad entre el
parámetro θ y el valor postulado θo, que provoca un curso de acción distinto al que se
llevaría a cabo con la igualdad entre el valor del parámetro θ y el valor postulado θo.
Se llama hipótesis nula a aquella hipótesis que establece que la diferencia entre el
verdadero valor del parámetro valor del parámetro θ y el valor postulado θ, y el valor
que se postula valor del parámetro θ y el valor postulado θo.o, es cero.
Necesariamente la hipótesis nula debe plantearse como la igualdad entre el valor del
parámetro y el valor postulado

Esta igualdad puede estar acompañada o no por alguna de las 2 desigualdades,


según sea el curso de acción a seguir y la existencia o no de alguna desigualdad
equivalentes. Se puede distinguir 2 tipos de hipótesis nulas:
• Hipótesis nula única: cuando no hay desigualdad equivalente.
El valor del parámetro θ es igual al valor postulado θo.
La diferencia entre el verdadero valor del parámetro θ y el valor postulado, θo es cero.

• Hipótesis nula múltiple: Cuando hay desigualdad equivalente

Si es menor:
El valor de parámetro θ es igual o menor al valor postulado θo
La diferencia entre el verdadero valor del parámetro θ y el valor postulado, θo, es
menor o igual a cero

Si es mayor:
El valor de parámetro θ es igual o mayor al valor postulado θo
La diferencia entre el verdadero valor del parámetro θ y el valor postulado, θo, es
mayor o igual a cero

Hipótesis alternativa
Es aquella hipótesis que debería cumplirse si la hipótesis nula no es cierta.
Hipótesis alternativa única: Cuando hay un solo valor alternativo del parámetro θ, el
θ1, que debería ser en el caso de que la hipótesis nula no sea cierta.
Si la hipótesis nula no es cierta, entonces, el valor de parámetro θ debería ser igual a
θ1.

Hipótesis alternativa múltiple: Cuando hay un conjunto abierto de posibles valores


alternativos del parámetro θ, en caso de que se rechace la hipótesis nula.
De acuerdo con el tipo de hipótesis nula que se plantea, se distinguen 3 formas
mutuamente excluyentes de plantear la hipótesis alternativa múltiple:
1) Si la hipótesis nula es única, o sea, si no hay desigualdad equivalente, entonces se
plante la hipótesis alternativa múltiple:
Se interpreta: Si la hipótesis nula no es cierta, entonces, el valor de parámetro θ es
distinto (mayor o menor) a θ0. Es un planteo “por distinto”.
2) Si la hipótesis nula no es única, y si la desigualdad equivalente es la desigualdad
menor entonces se plantea la hipótesis alternativa múltiple:

Se interpreta: Si la hipótesis nula no es cierta, entonces, el valor de parámetro θ es


mayor a θo. Es un planteo “por mayor”.
3) Si la hipótesis nula no es única, y si la desigualdad equivalente es la desigualdad
mayor, entonces se plantea la hipótesis alternativa múltiple:

Se interpreta: Si la hipótesis nula no es cierta, entonces, el valor de parámetro θ es


menor a θo. Es un planteo “por menor”
Prueba de hipótesis nula: Es un método estadístico con el cual, a partir de los datos de
una muestra aleatoria, se decide acerca de la veracidad o falsedad de la hipótesis nula
formulada, pudiéndose calcular la probabilidad de cometer un error en la decisión
tomada.
La hipótesis que se prueba para decidir si debe ser rechaza o no, siempre es la
hipótesis nula.
Se llama estadígrafo de prueba, para pruebas parametricas, a un estadígrafo
apropiado, ep, con el que se realiza la prueba de hipótesis, que mida la discrepancia,
d, entre el parámetro a probar y el estimador correspondiente y, además, tiene una
distribución de probabilidad conocida.
Para poder establecer su discrepancia, en el estadígrafo de prueba deben estar
presentes tanto el parámetro a estimar como su correspondiente estimador.
Genéricamente el estadígrafo de prueba se simboliza
Y su valor numero, después de reemplazar las variables muestrales con el resultado
de la muestra, se simboliza ep.
El estadígrafo de prueba es una variable aleatoria que se genera transformando al
estimador θ, por lo tanto su dominio D , es una transformación del espacio muestral
Región critica y región de no rechazo
El método para realiza la prueba de hipótesis consiste en particionar al dominio, D , del
estadígrafo de prueba, ep, en dos subconjuntos o regiones mutuamente excluyentes.
Según a cuál de las dos regiones pertenezca el valor número del estadígrafo de
prueba, se rechaza o no a la hipótesis nula:
Región critica, RC, es el subconjunto del dominio D con el que se rechaza la hipótesis
nula.
Región de no rechazo, RA =( D-RC), es el subconjunto del dominio D con el que no se
rechaza la hipótesis nula.
Si hay una desigualdad equivalente, la región crítica está formada por un subconjunto
semicerrado. En este caso se dice que la prueba es unilateral.
Si no hay desigualdad equivalente, la región crítica está formada por dos subconjuntos
semicerrados mutuamente excluyentes de igual tamaño. En este caso se dice que la
prueba es bilateral.
Se llama punto crítico, pc, a la frontera de la región crítica.
Cuando la prueba es unilateral la región crítica está formada por un subconjunto
semicerrado, por lo tanto, hay un solo (único) punto crítico. Si la prueba es bilateral, la
región crítica está formada por dos conjuntos semicerrados, luego hay dos puntos
críticos. En cualquiera de las dos situaciones, los puntos críticos pertenecen a la
región crítica, por lo tanto, son puntos de rechazo de la hipótesis nula.
Se llama regla de decisión a aquella regla que establece las pautas para rechazar la
hipótesis nula y se enuncia: “ Si el valor numérico del estadígrafo de prueba pertenece
a la región critica, entonces se rechaza la hipótesis nula, en caso contrario, si el valor
numérico del estadígrafo de prueba no pertenece a la región critica, entonces no se
rechaza la hipótesis nula:

Dada la hipótesis nula la regla de decisión establece que hay que rechazarla si, luego
de obtener la muestra, hacer las mediciones correspondientes y calcular el valor
numérico del estadígrafo de prueba, ep, éste pertenece a la región critica, y que no
hay que rechazarla si el estadígrafo de prueba, ep, no pertenece a la región critica.
Error de tipo I
El hecho de rechazar la hipótesis nula cuando la hipótesis nula es cierta.
Error de tipo II
El hecho de no rechazar la hipótesis nula cuando la hipótesis nula es falsa.

Nivel de significación
Es la probabilidad de cometer el error de tipo I, o sea, a la probabilidad de rechazar la
hipótesis nula cuando es cierta. El nivel de significación se simboliza con la letra griega
α y mide el tamaño de la región critica.
Potencia de la prueba
Es la probabilidad de no cometer el error de tipo II, o sea, la probabilidad de rechazar
la hipótesis nula cuando es falsa. La potencia de la prueba se simboliza con la letra
griega ∏

Acción derivada
El rechazo de la hipótesis nula inducirá al investigador a realizar una determinada
acción con respecto al objeto de su investigación. Si por el contrario, no se rechaza la
hipótesis nula, entonces el investigador estará también inducido a realizar una acción,
pero distinta. Cualesquiera de estas dos acciones se derivan del resultado de la
prueba de hipótesis.
Se llama acción derivada a la acción que se lleva a cabo según el resultado de la
decisión estadística que se tome, rechazar o no rechazar la hipótesis nula.
Pasos a seguir para realizar una prueba de hipótesis parametrica
1-Establecer el parámetro a probar
2-Indicar los cursos de acción
3-Verificar si hay una desigualdad equivalente
4-Plantear la hipótesis nula y la hipótesis alternativa
5-Indicar el estadígrafo de prueba a utilizar y su correspondiente distribución de
probabilidad
6-Establecer la región critica y el o los puntos críticos teniendo en cuenta lo siguiente:
a) Si la desigualdad no equivalente es la desigualdad menor, toda la región critica esta
a la izquierda y el punto crítico es el fractil α2.
b) Si la desigualdad no equivalente es la desigualdad mayor, toda la región critica esta
ala derecho y el punto crítico es el fractil (1-α)3
c) Si no hay desigualdad equivalente la región critica se particiona en dos. Una parte a
la izquierda cuyo punto crítico es el fractil (α/2)4 y la otra parte a la derecha cuyo punto
crítico es el fractil [1-(α/2)].
7-Plantear la regla de decisión estadística para rechazar o no la hipótesis nula.
8- Calcular el valor numérico del estadígrafo de prueba y verificar a que región
pertenece.
9-Tomar la decisión estadística
10-Llevar a cabo la acción derivada.
Estadígrafos de prueba para la prueba de hipótesis de parámetros específicos de una
población
Poblaciones infinitas con varianza poblacional conocida

Poblaciones finitas con varianza poblacional conocida

Poblaciones infinitas con varianza poblacional desconocida

Poblaciones finitas con varianza poblacional desconocida


Estadígrafos de prueba para la prueba de hipótesis de la media poblacional de
poblaciones no normales
Poblaciones infinitas con varianza poblacional conocida

Poblaciones finitas con varianza poblacional conocida

Poblaciones infinitas con varianza poblacional desconocida

Poblaciones finitas con varianza poblacional desconocida


Estadígrafo de prueba para la prueba de hipótesis de la proporción de elementos con
un determinado atributo
Poblaciones infinitas

Poblaciones finitas

Estadígrafo de prueba para la prueba de hipótesis de la varianza poblacional de


poblaciones normales
Poblaciones infinitas (único caso)

Estadígrafo de prueba para comparar las varianzas de dos poblaciones normales

Estadígrafo de prueba para comparar las medias poblacionales de dos poblaciones


normales
• Si las varianzas poblaciones son conocidas

• Si las varianzas poblaciones son desconocidas

Estadígrafo de prueba para comparar las proporciones poblacionales de dos


poblaciones

Análisis de regresión
Es un método estadístico que permite explicar el comportamiento de una variable
cuantitativa, a partir del comportamiento de otra u otras variables que puedan estar
relacionadas, estableciendo la expresión funcional del modelo matemático que
describa dicho comportamiento.
Variable explicada
Es aquella variable cuantitativa cuyo comportamiento se desea describir a partir del
comportamiento de otra u otras variables.
Variables explicativas
Son aquellas variables que explica el comportamiento de la variable explicada
Ej.: Para medir la cantidad demandada de un determinado bien por una unidad
económica, se puede utilizar el precio de dicho bien, el precio de bienes
complementarios, el precio de bienes sustitutos, el ingreso del consumidor, etc.
El análisis de regresión consiste en construir un modelo que permita predecir el valor
de la variable explicada, utilizando para ello, valores de K variables explicativas. El
modelo a construir consta de dos partes. Una de ellas, es una función real o modelo
matemática y la otra parte, es una variable aleatoria que representa la variabilidad no
controlada por las k variables explicativas.
Se llama modelo estadístico de regresión al modelo
Se llama función de regresión al modelo matemático que interviene en el modelo
estadístico de regresión
Se llama residuo aleatorio o variable aleatoria residual a la variable aleatoria que forma
parte del modelo estadístico de regresión.

Supuestos básicos de la regresión


Hay que plantear los siguientes supuestos sobre la variable aleatoria residual u. Para
cada k-erna (X1;X2…;Xk) posible de los valores de las variables explicativas, se
supone que se cumple:
1) La variable aleatoria residual u tiene distribución normal
2) La esperanza matemática de la variable aleatoria residual u es cero
3) La varianza de la variable aleatoria residual u se mantiene constante
4) Las variables aleatorias residuales ui;uj, para dos k.erna (X1;X2…;Xk) cualesquiera,
son independientes, o sea, la covarianza entre ellas es cero
5) La variable aleatoria residual es independiente de cada una de las variables
explicativas

Análisis de regresión simple


Es el análisis que se realiza cuando a cada unidad experimental de un determinado
universo se le miden solo dos variables, una variable explicativa y una variable
explicada.
Sean X una variable explicativa e Y una variable explicada. Los valores individuales de
cada una de la variables que se miden se presentan como pares ordenados (xi;yi).
Cada par ordenado representa un punto en un plano. Todos los posibles pares del
universo se pueden presentar en un grafico utilizando coordenadas cartesianas
ortogonales.
Se llama diagrama de puntos o diagrama de dispersión a la representación grafica de
los pares ordenados de los valores de las variables que intervienen en el análisis de
regresión simple.

Se llama modelo de regresión lineal simple, polinomico de primer grado, al modelo de


regresión que se forma cuando la función de regresión es una función afín, o sea, una
recta:

De no cumplirse los supuestos referidos a la esperanza matemática y a la varianza de


la variable aleatoria residual, entonces:
El valor promedio esperado de la variable explicada para cada valor de la variable
explicativa, o sea la esperanza matemática condiciones, es la recta de regresión:

Y la varianza de la variable explicada para cada valor de la variable explicativa, o sea


la varianza condicionada, es igual a la varianza residual:

Un valor individual de la variable residual es la diferencia entre un valor de la variable


explicada y el valor de la recta de regresión para un valor dado de la variable
explicativa

Entonces, si cada valor de la recta de regresión es el promedio, o valor esperado de la


variable explicada para cada valor de la variable explicativa, la recta de regresión pasa
entre los puntos del diagrama de puntos compensando los desvíos que se producen.
La ordenada al origen y la pendiente de la recta de regresión, β0 y β1
respectivamente, también son parámetros estadísticos. Esto quiere decir que brindan
información sobre la variable explicada, en relación con la variable explicativa.
Ej.: En la recta que representa la función consumo-ingreso estudiada en económica, la
ordenada al origen es el consumo autónomo, o sea, el valor del consumo cuando el
ingreso es cero, y la pendiente es la propensión marginal a consumir, o sea, la
cantidad que se destina al consumo por cada peso adicional del ingreso.
β1 Se llama coeficiente de regresión y es la pendiente de la recta. Es el cociente entre
la covarianza entre la dos variables y la varianza la variable explicativa:

β0 es la ordenada al origen.

Suma de cuadrados de X
La diferencia entre un valor particular de la variable explicativa Xo y su media
aritmética X es una desviación de la variable X
Si se toman todos los valores de dicha variable se puede calcular la suma del
cuadrado de las desviaciones de la variable x con respecto a la media aritmética o
simplemente suma de cuadrados de x, la que mide la variabilidad total de la variable X.

Suma de cuadrados de Y
La diferencia entre un valor particular de la variable explicada Yo y su media aritmética
Y es una desviación de la variable Y
Si se toman todos los valores de dicha variable se puede calcular la suma del
cuadrado de las desviaciones de la variable y con respeto a la media aritmética, o
simplemente suma de cuadrados de y, la que mide la variabilidad total de la variable Y.

Suma del producto XY


El producto de la diferencia entre un valor particular de la variable explicativa X0 y su
media aritmética X y de la diferencia entre un valor particular de la variable explicada
Y0 y su media aritmética Y es una desviación conjunta

Si se toman todos los pares de valores de dichas variables se puede calcular la suma
del producto de las desviaciones de cada variable con respecto a sus respectivas
medias aritméticas, o simplemente suma del producto XY, la que mide la variabilidad
conjunta total entre las variables X e Y.
La recta de regresión estimada tiene la propiedad de compensar los desvíos que se
producen entre cado valor muestral de la variable explicativa y el correspondiente valor
de la recta. Se cumple que:

Medidas de variabilidad en la regresión


Se llama desviación total a la diferencia entre un valor individual de Y y el promedio
Se llama desviación explicada por la regresión a la diferencia entre el valor de la recta
de regresión estimada, correspondiente al valor x0, y el promedio de la variable Y.
La diferencia entre un valor individual de Y y el valor de la recta de regresión estimada
correspondiente al valor X, se llama desviación residual.
Sumas de cuadrados total
La suma del cuadrado de las n desviaciones totales es una medida de la variación de
los valores de Y en torno a su media Y.

Suma de cuadrados explicada por la regresión


La suma del cuadrado de todas las n desviaciones explicadas por la regresión es una
medida de la variación de los valores de la recta de regresión muestral en torno a su
medida Y .
Suma de cuadrados residual
La suma del cuadrado de las n desviaciones residuales es una medida de la variación
de los valores de variable explicada y los correspondientes de la recta de regresión
muestral.
Coeficiente de determinación
Es un coeficiente que mide la proporción de la variación total que esta explicada por la
regresión.

Varianza residual muestral


Es un estimador insesgado de la varianza residual poblacional. Es el cociente entre la
suma de cuadrados residual y sus correspondientes grados de libertad.
Análisis de correlación
Es un método estadístico que permite medir el grado de asociación entre las variables.
Análisis de correlación lineal simple se lleva a cabo cuando la función de regresión que
explica el comportamiento conjunto de las variables es la función afín, o sea, una
recta.

Números índices
Son aquellas medidas estadísticas que ponen de manifiesto, en forma cuantitativa, las
variaciones relativas de un fenómeno complejo, a través del tiempo, del espacio o de
cualquier otra circunstancia.
Indican la variación porcentual de una variable o grupo de variables, entre una
situación inicial (situación base de comparación), y otra situación final (situación objeto
de la comparación).
Se llama canasta al conjunto de bienes económicos que intervienen en la construcción
de un número índice.
Se llama periodo base al periodo cronológico que se utiliza como situación inicial o
base de la comparación
Se llama periodo actual al periodo cronológico que se quiere comparar con el periodo
base.
El periodo actual “t” es un momento particular en el tiempo. Un número índice
construido en ese momento, mide el tamaño relativo porcentual de laguna variable, o
grupo de variables, con relación al tamaño que tenían en el periodo base.
Para lograr que el número índice ponga de manifiesto, con mayor objetividad, los
cambios relativos en los valores de las variables, al seleccionar el periodo base para
construir un índice particular, se deben observar dos reglas:
• El periodo base seleccionado debe ser un periodo de normalidad o estabilidad
económica, ya que un periodo que este cerca de una cúspide, en una economía en
expansión, o de una sima, en una economía declinante o en recesión, pueden
proporcionar comparaciones que no reflejen adecuadamente los aspectos dinámicos
de las variables que se están analizando.
• El periodo base no debería estar muy alejado de los periodos que serán objeto de
comparación, a fin de que estas comparaciones no resulten afectadas sin necesidad,
por cambios en la tecnología, calidad del producto, o en las actitudes, intereses,
gustos y hábitos de los consumidores.
Clasificación de los números índices
Según la variable cuya variación se pretende medir, se clasifican en:
• Índice de precios: refleja el cambio porcentual de los precios de uno o más bienes.
• Índice de cantidad: Refleja el cambio porcentual de las cantidades demandadas de
uno o más bienes.
• Índice de valor: Refleja el cambio porcentual de lo gastado en uno o más bienes.

Según el método de construcción, se clasifican en:


• Índices simples: Aquellos que tienen en cuenta solamente las variaciones relativas,
sin considerar la importancia de las variables dentro del contexto, es decir, no se les
asigna ningún tipo de peso o ponderación.
• Índices ponderados: Aquellos que si tienen en cuenta la importancia de cada variable
dentro del contexto donde están medidas, es decir, se les asigna un determinado peso
o ponderación.
Según la elección de la base, los índices pueden ser:
• Índice de base fija: El periodo tomado de referencia, el periodo base, se mantiene fijo
a lo largo de toda la serie.
• Índice de base variable o en cadena: Son aquellos en los cuales la base se renueva
constantemente, para evitar ciertos problemas que se plantean en la elección de la
base.
Precio relativo
Es el cociente entre el precio del bien ese periodo y el precio del bien en el periodo
base

Índices Simples
Para un solo bien: Relativo simple, es el precio relativo multiplicado por 100. Este
índice indica la variación porcentual del precio del i-esimo bien de la canasta.

Índice para un grupo de bienes


Aunque un índice de precios para cualquier bien individual, puede resultar de interés
para determinados trabajos, resulta más importante un índice que refleje la variación
conjunta de todos los bienes de la canasta.
Promedio aritmético simple de los relativos: Este índice se obtiene calculando el
promedio aritmético simple, de los precios relativos de los k bienes de la canasta y
multiplicando este resultado por 100.
Agregativo simple: El índice agregativo simple se obtiene haciendo el cociente entre la
suma de todos los precios correspondiente a la canasta en el periodo actual, t, y la
suma de todos los precios correspondiente a la canasta en el periodo base, y
multiplicando este resultado por 100.
El Índice de precio agregativo simple representa los cambios en los precios, a través
del tiempo, para toda la cansa, mientras que el índice del promedio simple de precios
relativos refleja el promedio de los cambios en los precios, a través del tiempo, de
cada bien considerado en el índice.
El índice de precio agregativo simple es más fácil de calcular que el índice de
promedio simple de precios relativos.
El índice del promedio de precios relativos es más útil que el índice de precio
agregativo simple, porque es posible observar los cambios en los precios relativos,
individualmente, y también se puede considerar el cambio de los precios combinando
todos los artículos.
El índice del promedio simple de precios relativos no está influido por las unidades de
medida utilizadas en la comercialización de los bienes.
Índices ponderados
Tanto el índice de promedio simple de precios relativos como el índice de precios
agregativo simple presentan el inconveniente de no considerar la importancia que
tienen cada uno de los bienes dentro de la cansa. Ello hace que estos indicen no sean
significativos para explicar cómo los cambios en los precios afectan a los
consumidores. Por este motivo, al promediar los precios relativos, hay que recurrir a
los promedios ponderados, utilizando factores de ponderación adecuados para cada
bien de la canasta, de modo tal que quede reflejado cuales son los más demandados
por las unidades de consumo. Las ponderaciones utilizadas generalmente son:
a) Las cantidades demandadas de cada uno de los bienes, q1.
b) El valor de lo gastado en cada uno de los bienes. (p1.q1)
Promedio ponderado de los precios relativos
a) Ponderado por la cantidad
Este índice se construye calculando el promedio aritmético ponderado de los precios
relativos, utilizando como factor de ponderación, las correspondientes cantidades
demandadas, en el periodo base, de los bienes que constituyen la canasta.

b) Ponderado por el valor del año base


Este índice se construye calculando el promedio aritmético ponderado de los precios
relativos, utilizando como factor de ponderación, el valor gastado en el periodo base,
en cada uno de los bienes que constituyen la canasta.
c) Ponderado por el valor del año base con cantidades del año actual
Este índice se construye calculando el promedio aritmético ponderado de los precios
relativos, utilizando como factor de ponderación, el valor que se hubiese gastado en el
periodo base, en casa uno de los bienes que constituyen la canasta si hubiesen
demandado las cantidades del año actual.

Índice de Laspeyres

Este índice mide la variación porcentual del gasto total en los k bienes, si en el año
actual se hubiesen demandado las cantidades del año base. Es criticado, en primer
lugar, porque, según las leyes económicas, las variaciones en los precios provocan
variaciones en las cantidades demandadas (generalmente en sentido contrario, luego,
el numerado carecería de validez ya que no reflejaría la realidad. En segundo lugar,
este índice no tiene en cuenta los cambios tecnológicos y los cambios en los gustos de
los consumidores, lo que hace que las cantidades sufran variaciones de importancia,
llegando al extremo de ser casi nulas en algunos casos, no obstante, en la
construcción del numero debe seguir figurando la cantidad demandada en el año base,
con la consecuente distorsión de la realidad.
Índice de Paasche

Este índice mide la variación porcentual del gasto total en los k bienes, si en el año
base se hubiese demandado las cantidades del año actual. Es criticado porque, en
primer lugar, igual que con el índice de Laspeyres, no se tiene en cuenta las
variaciones en las cantidades demandadas provocadas por las variaciones en los
precios. Esto significa que si los precios del año base son menores a los del año
actual, las cantidades demandadas serán mayores, luego, el denominador carecería
de validez, ya que no reflejaría la realidad. En segundo lugar, por cuestiones
tecnológicas o de gustos del consumir, algunos bienes consumido en el año actual
podrían no conocerse en al año base, por lo tanto no tendrían precio, y el índice no se
podría calcular. En tercer lugar, si se quiere mantener una serie cronológica obligaría a
recalcularla en cada período, ya que las cantidades demandadas cambian de periodo
a periodo.
Índice de Fischer

Índices de cantidad
Una cantidad relativa para cada uno de los bienes de la canasta, en un momento dado
en el tiempo, el periodo actual t, es el cociente entre la cantidad del bien en ese
periodo y la cantidad del bien en el periodo base.

Índices simples
Para un solo bien: La cantidad relativa multiplicada por 100, es el índice relativo
simple.

Para un grupo de bienes:


a) Promedio aritmético simple de los relativos: Este índice se obtiene calculando el
promedio aritmético simple, de cantidades relativas de los k bienes de la canasta y
multiplicando este resultado por 100.

b) Agregativo simple: Se obtiene haciendo el cociente entre la suma de todas las


cantidades correspondientes a la canasta en el periodo actual t, y la suma de todos las
cantidades correspondientes a la canasta en el periodo base, y multiplicando este
resultado por 100.

Índices ponderados
a) Ponderado por el precio: Se construye calculando el promedio aritmético ponderado
de las cantidades relativas, utilizando como factor de ponderación los
correspondientes precios, en el periodo base, de los bienes que constituyen la
canasta.

b) Ponderado por el valor del año base: Se construye calculando el promedio


aritmético ponderado de las cantidades relativas, utilizando como factor de
ponderación, el valor gastado en el periodo base, en cada uno de los bienes que
constituyen la canasta

c) Ponderado por el valor del año base con los precios del año actual: Se construye
calculando el promedio aritmético ponderado de las cantidades relativas, utilizando
como factor de ponderación, el valor que se hubiese gastado en el periodo base, en
cada uno de los bienes que constituyen la canasta si se hubiesen pagado los precios
del año actual.

Método para la construcción de números índices


1) Definir claramente cual deberá ser la canasta para evaluar la evolución de los
precios y/o cantidades a lo largo de un determinado lapso.
2) Determinar cuál de los periodos de ese lapso será el periodo base.
3) Mediante encuestas, se establece cual es el precio por unidad de comercialización,
pago por los consumidores por cada uno de los bienes de la cantas y qué cantidad se
ha demandado de ellos.
4) Decidir cuál es el índice que proporciona la mejor información sobre la referida
evolución de los precios y/o cantidades.

Se llama deflactacion estadística a un método estadístico, que permite eliminar los


efectos que las variaciones de los precios, entre el periodo base y el periodo actual,
provocan sobre las variaciones de valores monetarios.
Un valor monetario antes de la deflactacion se llama valor nominal o corriente, y
después de la deflactacion se llama valor real o constante del año base
Se llama índice deflactor a un determinado número índice que se utiliza para realizar
una deflactacion estadística.
Propiedades de un buen numero índice:
1. Reversibilidad con respecto al tiempo: El producto entre el índice de base en el
periodo o para el periodo t ( en tanto por uno) y dicho índice tomando como base el
periodo t y calculando para el periodo o (en tanto por uno) debe ser igual a la unidad.

2. Circularidad: Generalización de la reversibilidad con respecto al tiempo

3. Reversibilidad de los factores: El producto entre un índice de precios de base en el


periodo o para el periodo t (en tanto por uno) y el índice de cantidad para el mismo
periodo y la misma base (en tanto por uno) debe ser igual al índice del valor (en tanto
por uno).

4. Identidad: El índice de la base (en tanto por uno) debe ser igual a la unidad

5. Homogeneidad: EL índice no debe variar si se cambian las unidades de medidas en


que están expresadas las cantidades.
6. Proporcionalidad: Si los precios de todos los bienes cambian en la misma
proporción, el índice de precios correspondiente debe cambiar en esa proporción.

Você também pode gostar