Você está na página 1de 10

2.1.

3 MEDIDAS ALEGEBRÁICAS DE LAS DISTRIBUCIONES DE


FRECUENCIA

2.1.3.1 Medidas de exactitud

La exactitud de un instrumento de medida es el grado de concordancia entre su resultado


y el valor de la magnitud medida. El valor de la magnitud, también denominado
verdadero valor o valor real aunque ambos calificativos, verdaderos y reales, son
redundantes, es el valor que se obtendría al medirla con un instrumento perfecto. Dado
que ningún instrumento es perfecto, el valor de una magnitud es un valor indeterminado,
y que substituye por el denominado valor (convencionalmente) verdadero, que es el
obtenido al medir la magnitud con un método o instrumento de referencia; por ello se
denomina también valor de referencia.
La exactitud es un concepto meramente cualitativo pues no existe una expresión numérica
global de la exactitud definida a partir de la cuantificación de sus dos componentes:
veracidad y precisión. Simplemente, un instrumento es tanto más exacto cuanto menores
sean su sesgo y sus límite de precisión. (Pallàs, 2006)

2.1.3.2 Medidas de precisión

La precisión es el grado de concordancia entre resultados de medida independientes


obtenidos en las condiciones de repetitividad y las condiciones de reproductibilidad.
La precisión se cuantifica mediante una varianza de precisión, o su raíz cuadrada positiva,
que es la desviación típica de precisión, a partir de la cual se calcula un límite de
precisión, que es un valor numérico que representa la diferencia máxima probable, con
un nivel de probabilidad dado, entre dos resultados de medida obtenidos en las
condiciones de precisión especificadas. Normalmente se considera un nivel de
probabilidad de 0,95. (Pallàs, 2006)

Creus (2005), da el siguiente ejemplo: Un manómetro de intervalo de medida de 0 a 10


bar, puede tener un error de cero considerable marcando 2 bar sin presión en el proceso
y diversas lecturas de 7,049; 7,05; 7,051; 7,052 efectuadas a lo largo del tiempo y en las
mismas condiciones de servicio, para una presión del proceso de 5 bar. Tendrá un error
practico de 2 bar, pero los valores leídos estarán muy próximos entre sí con una muy
pequeña dispersión máxima de 7,052-7,049 = 0,003, es decir, el instrumento tendrá una
gran precisión.
Por lo tanto, los instrumento de medida estarán diseñados por los fabricantes para que sea
precisos, y como periódicamente se des calibran, deben reajustarse para que sean exactos.
A señalar que el término precisión es sinónimo de repetitividad.
Un indicador de la precisión es la desviación estándar.

En la siguiente figura se podrá observar la diferencia entre precisión y exactitud.


Figura 1. Diferencia entre exactitud y precisión.
Fuente: Como podemos determinar la validez de los datos antropométricos (Romero, s.f.)
La exactitud es la diferencia entre la media de las 10 medidas (1,05 mm) realizadas y el
valor real (1,00 mm) 1,05-1,00 = 0,05 mm (color morado).
La precisión es la desviación estándar de la media de las 10 medidas 0,08 mm (color
verde).
2.2. DISTRIBUCIONES MÁS COMUNES

2.2.1. Distribución normal


Según Levine et al. (s.f.) la distribución normal (en ocasiones llamada distribución
gaussiana) es la distribución continua que se utiliza más comúnmente en estadística. La
distribución normal es de vital importancia en estadística por tres razones principales:
.Muchas variables continuas comunes en el mundo de los negocios tienen distribuciones
que se asemejan estrechamente a la distribución normal.
.La distribución normal sirve para cercarse a diversas distribuciones de probabilidad
discreta, como la distribución binomial y la distribución de poisson.
.La distribución normal proporciona la base para la estadística inferencial clásica por su
relación con el teorema de límite central.
La distribución normal se representa por la clásica forma de campana. Como se puede
observar en la figura 2 En la distribución normal, uno puede calcular la probabilidad
exacta de un valor particular dentro de una distribución continua, como la distribución
normal, es cero. Esta propiedad distingue a las variables continuas, que son medidas, de
las variables discretas, las cuales son contadas. Como ejemplo, el tiempo (en segundos)
se mide y no se cuenta. Por lo tanto, es factible determinar la probabilidad de que el
tiempo de descarga para una página principal en un navegador de la Web esté entre 7 y
10 segundos o que el tiempo de descarga este entre 7.99 y 8.01 segundos. Sin embargo,
la probabilidad de que el tiempo de descarga sea exactamente de 8 segundos es cero.

Figura 2. Forma acampanada de una distribución normal.


Fuente: Mapa para seleccionar un método estadístico (Levine et al, s.f)
En el siguiente ejemplo se puede observar cómo se aplica la distribución normal:

La temperatura durante setiembre está distribuida normalmente con media 18,7ºC y


desviación standard 5ºC. Calcule la probabilidad de que la temperatura durante setiembre
esté por debajo de 21ºC.

Ahora vamos a la tabla y para el valor Z=0.46 tenemos que la probabilidad es de 0,6772.

La probabilidad que la temperatura sea menor de 21 ºC es de 0.6772 o del 67.72%.

2.2.2. Distribución binomial

Según Berenson & Levine (1996) la distribución binomial es una distribución de


probabilidad discreta que es extremadamente útil para describir muchos fenómenos. La
distribución binomial posee cuatro propiedades esenciales:
1. Las observaciones posibles pueden obtenerse mediante dos métodos de muestreo
distintos. Cada observación puede considerarse como seleccionada de una
población finita con reemplazo.
2. Cada observación puede clasificarse en una de dos categorías mutuamente
excluyentes y colectivamente exhaustivas, usualmente denominadas éxito y
fracaso.
3. La probabilidad de que una observación se clasifique como éxito, p, es constante
de observación se clasifique como fracaso, 1-p, es constante sobre todas las
observaciones.
4. El resultado (es decir, el éxito o fracaso) de cualquier observación es
independiente del resultado de cualquier observación.
La variable aleatoria discreta o fenómeno de interés que sigue a la distribución binomial
es el número de éxitos obtenidos en una muestra de n observaciones. Así pues, la
distribución binomial ha gozado de numerosas aplicaciones:
. En juegos de azar
. En el control de calidad de productos
. En educación
. En finanzas
Como ejemplo se tiene:
Con objeto de estudiar el número de salmones de cierto río que llegan vivos al mar se
marca el 20% de la camada en el lugar de nacimiento. Posteriormente, en una estación de
seguimiento río abajo, se registra el paso de 10 salmones de dicha camada. ¿Cuál es la
probabilidad de que se registren 3 de los marcados? ¿Y con qué probabilidad se
registrarán 2 ó menos de los marcados?
X ≡ número de salmones marcados que se registran ∼ B(10, 0.2)

La probabilidad que se registrarán 2 o menos de los marcados es de 0.6778 o de 67.78%.

2.2.2. Distribución poisson


En algunas ocasiones, si deseamos ahorrarnos la tediosa tarea de calcular distribuciones
binomiales de probabilidad, podemos utilizar la distribución de Poisson. La distribución
de Poisson puede ser una razonable aproximación de la binomial, pero solo bajo ciertas
condiciones. Tales condiciones se presentan cuando n es grande y p es pequeña, esto es,
cuando el número de ensayos es grande y la probabilidad binomial de tener éxito es
pequeña. La regla que utilizan con más frecuencia los estadísticos es que la
distribución de Poisson es una buena aproximación de la distribución binomial
cuando n es igual a mayor que 20 y p es igual a menor a 0.05. (Levin & Rubín, 2004)
En los casos en que se cumplen estas condiciones, podemos sustituir la media de la
distribución binomial (np) en lugar de la media de la distribución de Poisson (λ), de modo
que la formula queda:

Por ejemplo: Si un banco recibe en promedio 6 cheques sin fondo por día, ¿cuáles son
las probabilidades de que reciba, a) cuatro cheques sin fondo en un día dado, b) 10
cheques sin fondos en cualquiera de dos días consecutivos?
Solución:
a) x = variable que nos define el número de cheques sin fondo que llegan al banco en
un día cualquiera = 0, 1, 2, 3, ....., etc, etc.
l = 6 cheques sin fondo por día
e = 2.718

b) x= variable que nos define el número de cheques sin fondo que llegan al banco en dos
días consecutivos = 0, 1, 2, 3, ......, etc., etc.
l = 6 x 2 = 12 cheques sin fondo en promedio que llegan al banco en dos días
consecutivos
Nota: l siempre debe de estar en función de x siempre o dicho de otra forma, debe
“hablar” de lo mismo que x.

2.2.2. Distribución Hipergeométrica

Supongamos una muestra de n unidades obtenidas de un lote N unidades, en el cual a


unidades son defectuosas. Esta muestra se ha obtenido del lote extrayendo sucesivamente
las unidades que permanecen en el lote tienen la misma posibilidad de quedar incluidas
en la muestra. Luego, en la primera extracción, la probabilidad de obtener una unidad
defectuosa es a/N, pero, en la segunda extracción, sólo seguiría siendo a/N si la primera
unidad sacada se volviera a meter. En otras palabras, la probabilidad de extraer una unidad
defectuosa en la segunda extracción es (a-1)/ (N-1) ó a/ (N-1), según que la primera
unidad sacada sea, o no, defectuosa. (Miller & Freund, 1963)

Como ejemplo:
Para evitar que lo descubran en la aduana, un viajero ha colocado 6 tabletas de narcótico
en una botella que contiene 9 píldoras de vitamina que son similares en apariencia. Si el
oficial de la aduana selecciona 3 tabletas aleatoriamente para analizarlas, a) ¿Cuál es la
probabilidad de que el viajero sea arrestado por posesión de narcóticos?, b) ¿Cuál es la
probabilidad de que no sea arrestado por posesión de narcóticos?

Solución:
a) N = 9+6 =15 total de tabletas
a = 6 tabletas de narcótico
n = 3 tabletas seleccionadas
x = 0, 1, 2, o 3 tabletas de narcótico = variable que nos indica el número de tabletas
de narcótico que se puede encontrar al seleccionar las 3 tabletas

p (viajero sea arrestado por posesión de narcóticos) = p (de que entre las 3 tabletas
seleccionadas haya 1 o más tabletas de narcótico)
Otra forma de resolver:

p(el viajero sea arrestado por posesión de narcóticos) = 1 – p(de que entre las
tabletas seleccionadas no haya una sola de narcótico)

b) p(no sea arrestado por posesión de narcóticos)

2.4.2. NO PARAMÉTRICAS

2.4.2.2. Prueba para K muestras relacionadas.

Cuando las k muestras están relacionadas de forma que las características de los i-ésimos
elementos de cada muestra son idénticas o lo más parecidas posible, las diferencias
observadas entre las muestras serán atribuidas únicamente al efecto del factor
diferenciador de los grupos. El contraste de la hipótesis de que las k muestras proceden
de una misma población o de poblaciones con la misma tendencia central no puede
realizarse mediante el análisis de la varianza, al incumplirse el supuesto, por lo menos,
de independencia de las muestras. En este caso puede utilizarse alguna de las alternativas
no paramétricas que se presentan a continuación. (xxx)

Prueba de Friedman

Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n grupos de
k elementos de forma que los elementos de cada grupo sean lo más parecidos posible
entre sí, y a cada uno de los elementos del grupo se le aplica uno de entre k ''tratamientos'',
o bien cuando a cada uno de los elementos de una muestra de tamaño n se le aplican los
k ''tratamientos''. (Universidad de Barcelona, s.f.)

La hipótesis nula que se contrasta es que las respuestas asociadas a cada uno de los
''tratamientos'' tienen la misma distribución de probabilidad o distribuciones con la misma
mediana, frente a la hipótesis alternativa de que por lo menos la distribución de una de
las respuestas difiere de las demás. Para poder utilizar esta prueba las respuestas deben
ser variables continuas y estar medidas por lo menos en una escala ordinal. (Universidad
de Barcelona, s.f.)

Los datos se disponen en una tabla en la que en cada fila se recogen las respuestas de los
k elementos de cada grupo a los k tratamientos:

Cuadro 1. Cuadro que se utiliza para realizar la prueba de Friedman

Fuente: Universidad de Barcelona (s.f.)


http://www.ub.edu/aplica_infor/spss/cap6-5.htm

A las observaciones de cada fila se les asignan rangos de menor a mayor desde 1 hasta k;
a continuación se suman los rangos correspondientes a cada columna, siendo RJ la suma
correspondiente a la columna j-ésima. Si la hipótesis nula es cierta, la distribución de los
rangos en cada fila se debe al azar, y es de esperar que la suma de los rangos
correspondientes a cada columna sea aproximadamente igual a n(k + 1)/2. La prueba de
Friedman determina si las RJ observadas difieren significativamente del valor esperado
bajo la hipótesis nula. (Universidad de Barcelona, s.f.)

El estadístico de prueba es:

Si H0 es cierta y el número de columnas y/o de filas es moderadamente grande la


distribución de F se aproxima a una chi-cuadrado con k - 1 grados de libertad; de forma
que se rechaza la hipótesis nula para valores de F superiores al valor crítico para el nivel
de significación fijado. (Universidad de Barcelona, s.f.)

Prueba Q de Cochran

Cuando sobre n elementos se observa la serie de respuestas de cada uno de ellos a k


''tratamientos'' esta prueba permite contrastar la hipótesis nula de que no existe diferencia
significativa entre los k ''tratamientos''. También es posible utilizarla si cada tratamiento
se aplica a uno de los elementos de n grupos de k elementos elegidos de forma que los
elementos de cada grupo se asemejen lo más posible entre ellos. (Universidad de
Barcelona, s.f.)

Esta prueba es adecuada cuando la respuesta a cada tratamiento es una variable


dicotómica, siendo X = 1 si la respuesta es ''éxito'' y X = 0 si es ''no éxito'' Si la respuesta
es susceptible de medición en por lo menos una escala ordinal también es posible
dicotomizarla, pero se pierde información y, por lo tanto, es preferible utilizar la prueba
de Friedman.

Los datos se disponen en una tabla de la misma forma que para la prueba de Friedman,
pero ahora las columnas de la tabla contienen únicamente ceros y unos, de forma que la
suma de los valores de la j-ésima columna, GJ , es el número de ''éxitos'' de la distribución
de las n respuestas al j-ésimo ''tratamiento''. Si la hipótesis nula es cierta las diferencias
entre el número de éxitos de cada columna se deben al azar, por lo que es de esperar que
sean pequeñas, es decir, que todas las G_{j estén muy próximas al número medio de
éxitos por muestra, (Universidad de Barcelona, s.f.)

El estadístico de prueba se basa en la dispersión del número de éxitos de cada


''tratamiento'' con respecto a :

El estadístico de prueba es:

Donde Li es el total de ''éxitos'' del primer elemento o grupo.

Si la hipótesis nula es cierta, la distribución de Q puede aproximarse


mediante una chi-cuadrado con k - 1 grados de libertad y se rechaza la hipótesis nula si
el valor de Q es superior al valor crítico para el nivel de significación deseado.
BIBLIOGRAFÍA
BERENSON, M. & LEVINE, D. (1996). Estadística Básica en administración.
Conceptos y aplicaciones. Editorial Pearson. México. P. 252
CREUS, A. (2005). Instrumentación Industrial. Séptima edición. Editorial marcombo.
España. P. 9
LEVIN, R.; RUBÍN, D. (2004) Estadística para administración y economía. Séptima
edición. Pearson. México.
LEVINE, D.; KREHBIEL, T.; BERENSON, M. (S.F.) Mapa para seleccionar un método
estadístico. P. 179
MILLER, I & FREUND, J. (1963). Probabilidad y Estadística para Ingenieros. Editorial
Reverté. España. P. 42
PALLÀS, R. (2006). Instrumentos electrónicos básicos. Editorial marcombo. España.
P.25, 26.
ROMERO, J. (S.F.). Como podemos determinar la Validez de los Datos
Antropométricos. Grupo de Investigación EPINUT-UCM.
UNIVERSIDAD DE BARCELONA (S.F.). Pruebas para K muestras dependientes.
Disponible: http://www.ub.edu/aplica_infor/spss/cap6-5.htm . Revisado el 20 de
septiembre del 2018.

Você também pode gostar