Escolar Documentos
Profissional Documentos
Cultura Documentos
1 Apuntes realzados por el Profesor Ismael Sánchez para la asignatura: Métodos Estadísticos para la Mejora de
1
2 Control de procesos por variables
Gráfico de Control
17
UCL = 16,90
16,6 Línea central =
LCL = 15,74
Media
16,2
15,8
15,4
15
0 5 10 15 20 25
Muestra
A pesar de su aparente simplicidad, la interpretación del gráfico de control ha de ser hecha con
cierta cautela. Como veremos más adelante, incluso si todos los puntos están dentro de los límites
de control, es posible que el proceso esté fuera de control y haya que dar la señal de alarma. En este
capítulo supondremos que la variable que se representa es medida en una escala numérica: tiempo,
longitud, peso, etc. Al control estadístico de este tipo de variables le denominaremos control por
variables.
tarda en prestar un servicio unos tiempos t1 , t2 , ..., tn . La media aritmética de dichos tiempos es un
estadístico que se puede usar como indicador de la calidad de dicho servicio. Tendríamos, entonces,
que la magnitud que representaríamos en el gráfico sería
t1 + · · · + tn
τ = t̄ = ,
n
para sucesivas muestras de n individuos. Dicho estadístico τ será una variable aleatoria, pues su
valor depende de los n individuos concretos que analicemos. El gráfico de control será, por tanto, la
representación de sucesivas realizaciones de la variable aleatoria τ . Sea μτ el valor medio de dicho
estadístico (es decir E(τ ) = μτ ) y sea σ τ su deviación típica (es decir, Var(τ ) = σ 2τ ). La estructura
de un gráfico de control es la siguiente
Límite de control superior (LCS) = μτ + Ls σ τ
Línea central = μτ
Límite de control inferior (LCI) = μτ − Li σ τ
donde Ls y Li son las distancias de los límites de control a la línea central en términos de la
desviación típica del estadístico que se emplea. En general, se emplea la misma distancia para el
límite superior e inferior, es decir, Ls = Li = L. La idea es elegir L de tal manera que si el proceso
esté bajo control sea muy probable que la evolución de τ se desarrolle dentro de los límites, pero
que si el proceso sale de control sea muy probable que τ se coloque fuera de dichos límites y se
pueda dar una señal de alarma. Si L es muy alto, será muy poco probable que, si el proceso está en
estado de control, las observaciones estén fuera de los límites; es decir, una falsa alarma será muy
poco probable. Sin embargo, si el proceso está fuera de control por poco margen, sería muy difícil
detectarlo. Por el contrario, si L es muy bajo, será muy probable detectar que el proceso está fuera
de control, pero será también muy probable dar falsas alarmas. Usualmente, se elige L = 3. La
principal razón para justificar el valor L = 3 es que, en el caso en que el estadístico τ utilizado siga
una distribución normal, o razonablemente aproximada, el intervalo de μτ ± 3στ corresponderá
con el 99,7 % de la población, como ya se vió en el tema anterior. Por tanto, bajo normalidad y
si el proceso está bajo control, la práctica totalidad de las observaciones estarán dentro de dicho
límites. Existe, no obstante, una probabilidad de 0.003 (0.3 %) de que se esté fuera de los límites
sin estar fuera de control. En ese caso se estaría dando una falsa alarma. La utilización de L = 3 ha
proporcionado muy buenos resultados en la vida real. La forma más general de gráfico de control
es, por tanto,
LCS = μτ + 3σ τ
Línea central = μτ (4.1)
LCI = μτ − 3σ τ
De esta forma, si las causas de variabilidad se mantienen estables, la distribución de τ no cam-
biará (la media será siempre μτ y la varianza σ 2τ ). Los distintos valores observados de τ serán
debidos sólo a la variabilidad muestral y, en el caso de τ normal, estarán entre los límites con
probabilidad 0.997, sin embargo, si se produce un desajuste en el proceso que haga cambiar la
media μτ y/o la varianza σ2τ la evolución de τ será diferente, y empezará a tomar valores fuera de
los límites con mucha mayor probabilidad.
2. Una vez construido el gráfico, se representa la evolución de las muestras obtenidas en tiempo
real, y se controla así el proceso. El gráfico no se vuelve ya a modificar, salvo que haya
transcurrido mucho tiempo y se quieran actualizar sus límites.
El periodo de tiempo en el que se tomen los datos iniciales para la etapa de construcción del
gráfico debe ser lo suficientemente amplio para permitir que haya cambios de turno, variabilidad
en la materia prima, horas punta del servicio y horas valle, etc. La estimación de los parámetros
será, además, una tarea que ha de someterse a revisión periódica. Veamos a continuación cómo ha
de hacerse la estimación de μ y σ.
de tiempo y en cada muestra hay n elementos. Sea xij el valor del elemento j-ésimo (j = 1, .., n)
de la muestra i-ésima (i = 1, ..., k). El conjunto total de datos será:
(x11 , x12 , ..., x1j , ..., x1n ),(x21 , x22 , ..., x2j , ..., x2n ), ...,(xi1 , xi2 , ..., xij , ..., x2n ), ...,(xk1 , xk2 , ..., xkj , ..., xkn ).
| {z }| {z } | {z } | {z }
muestra 1 muestra 2 muestra i-ésima muestra k
Si el proceso estuviese bajo control durante toda la recogida de estos nk datos, éstos constituirían
una muestra aleatoria simple (de tamaño nk) de una población normal N (μ, σ2 ). El gráfico se
construye, entonces, de la siguiente manera:
1. Se calcula la media y varianza de cada muestra. Por ejemplo, para los n datos de la primera
muestra:
Pn
j=1 x1j
x̄1 = ,
n
Pn 2
2 j=1 (x1j − x̄1 )
s1 = ,
n
Pn 2
j=1 (x1j − x̄1 )
ŝ21 = .
n−1
Se tendrán, por tanto, k medias y k varianzas.
2. Se calcula la media total. La media total será:
Pk
x̄
¯ = i=1 i .
x̄
k
Este estimador será centrado si la media μ del proceso ha sido constante durante la recogida de
la información. Sin embargo, puede demostrase que los estimadores s1 y ŝ1 no son estimadores
insesgados de σ aun estando el proceso bajo control (E(s1 ) 6= σ; E(ŝ1 ) 6= σ). El sesgo depende,
además, del tamaño de la muestra n. No obstante, el sesgo para poblaciones normales está
tabulado. La desviación típica muestral s es una variable aleatoria que verifica
E(sj ) = c2 σ, (4.3)
donde los valores de c2 están tabulados para distintos tamaños muestrales. Por tanto se tiene
que
E(sj )
σ= ,
c2
y, entonces, si /c2 sí es un estimador insesgado de σ. Podremos construir un estimador inses-
gado de σ promediando los estimadores insesgados sj /c2 de las k muestras:
s̄
σ̂ = , (4.4)
c2
Pk
i=1 si
. s̄ = (4.5)
k
Otra posible opción sería utilizar un estimador insesgado para la varianza de cada muestra.
Por ejemplo, para la muestra 1:
sP
n 2
j=1 (x1j − x̄1 )
ŝ1 = ,
n−1
6 Control de procesos por variables
24
LCS
22
20
media
18
LCI
16
14
0 2 4 6 8 10 12 14 16 18 20
tiempo
Figura 4.2: Gráfico de control para las medias. Datos de20 muestras de tamaño 5.
E(ŝj ) = c4 σ, (4.6)
Var(ŝj ) = (1 − c24 )σ 2 . (4.7)
Por tanto,
E(ŝj )
σ= ,
c4
donde c4 está tabulado en funcion de n. Un estimador insesgado de σ será
ŝT
σ̂ = , (4.8)
c4
Pk
i=1 ŝi
ŝT = . (4.9)
k
El análisis realizado con este procedimiento no es muy distinto al que se realice utilizando sj
y el correspondiente coeficiente c2 . Si utilizamos ŝj para medir la desviación típica de cada
muestra, el gráfico de control teórico para la media será
E(sj )
LCS = μ + 3 √
c2 n
Línea central = μ (4.10)
E(sj )
LCI = μ − 3 √
c2 n
y el estimado
s̄
LCS = x̄¯+3 √
c2 n
¯
Línea central = x̄ (4.11)
s̄
¯−3 √
LCI = x̄
c2 n
4.2 Gráfico de control para la media 7
Por el contrario, si se utiliza el estimador ŝj se tendrá el siguiente gráfico de control teórico
para la media
E(ŝj )
LCS = μ + 3 √
c4 n
Línea central = μ (4.12)
E(ŝj )
LCI = μ − 3 √
c4 n
y el estimado será
ŝT
LCS = x̄¯+3 √
c4 n
¯
Línea central = x̄ (4.13)
ŝT
¯−3 √
LCI = x̄
c4 n
Recordemos que estamos aún en la etapa de construcción del gráfico de control, y que para
ello estamos suponiendo que los datos que se poseen son representativos del proceso en estado de
control. Esta suposición hemos de corroborarla con este gráfico inicial. Si algún punto saliese de
los límites de este gráfico concluiremos que el proceso estaba fuera de control y lo eliminaremos. A
continuación se recalculará x̄¯ y s̄ (o ŝT ) con las muestras restantes, dibujaremos un nuevo gráfico
y repetiremos el proceso hasta que todas las muestras estén dentro de los límites. La figura 4.2
es un ejemplo de este tipo de gráficos donde se tienen 20 muestras de tamaño 5 cada una. Puede
observarse que todas las medias se encuentran entre los límites de control.
Otra opción para realizar este gráfico es utilizar el rango como medida de variabilidad. El rango
de una muestra es la diferencia entre los valores extremos. Por ejemplo, en la muestra 1:
E(R)
σ= .
d2
8 Control de procesos por variables
5
LCS
4.5
3.5
d.t. 2.5
1.5
0.5
LCI
0 2 4 6 8 10 12 14 16 18 20
tiempo
p p
donde B6 = c4 +3 1 − c24 , B5 = c4 σ −3 1 − c24 σ están tabulados en función del tamaño muestral.
Como σ es desconocido, se utilizará el estimador insesgado
ŝT
σ̂ = .
c4
Por tanto, el gráfico de control para las desviaciones típicas es
ŝT
LCS = B6 = B4 ŝT
c4
ŝT
Línea central = c4 = ŝT
c4
ŝT
LCI = B5 = B3 ŝT
c4
donde B3 y B4 están tabulados. La estimación ŝT es la obtenida en la sección anterior con las
muestras iniciales. Si algún dato cae fuera de los límites se considerará que el proceso ha estado
fuera de control en ese momento, por lo que ese datos no puede emplearse para la construcción
de ningún gráfico de control. Por tanto, la muestra hay que eliminarla tanto para el cálulo
del gráfico de medias como de desviaciones típicas. Hay que recalcular, por tanto, ambos
gráficos.
La figura 4.3 es un ejemplo de gráfico de control para la desviación típica. Los datos con los
que se ha realizado este gráfico y el de la media son los mismos, por lo que puede considerarse que
el proceso ha estado bajo control durante la recogida de datos.
Gráfico de rangos
16
LCS
14
12
10
8
Rangos
LCI 0
0 2 4 6 8 10 12 14 16 18 20
tiempo
R̄ R̄
LCS = d2 + 3d3 = D4 R̄
d2 d2
R̄
Línea central = d2 = R̄
d2
R̄
LCI = d2 − 3d3 dR̄2 = D3 R̄
d2
donde D3 = (1 − 3d3 /d2 ) y D4 = (1 + 3d3 /d2 ) están tabulados en función del tamaño muestral.
La figura 4.4 es un ejemplo de este gráfico. La interpretación de este gráfico es como en los casos
anteriores. Si el proceso ha estado bajo control todos los puntos estarán dentro de los límites de
control. En caso contrario no podremos usar ese dato para la construcción de gráfico y habrá que
eliminar dicha muestra y recalcular tanto este gráfico como el de las medias
Una vez que hemos construido el gráfico para la media y para la dispersión con el conjunto
de muestras iniciales, daremos por concluida la etapa de diseño de los gráficos de control y los
mantendremos ya fijos. Pasaremos entonces a utilizarlos en tiempo real, analizando la estabilidad
del proceso con nuevas muestras tomadas a intervalos regulares de tiempo. Si una muestra cae
entonces fuera de los límites de control habrá que analizar rápidamente qué ocurrió para recuperar
el control del proceso. Cada cierto tiempo es conveniente actualizar los límites de control con nuevas
mediciones.
Es necesario, por tanto, determinar dicho tamaño muestral así como la frecuencia con que se com-
putará.
Sin embargo, en algunos casos, las mediciones de la característica de calidad pueden tener un
coste alto, por lo que no será factible tomar muestras grandes. Por otra parte, para poder tener
una muestra grande será necesario esperar mucho tiempo, por lo que se tardará más en detectar
fallos, con el consiguiente coste. Sea p la probabilidad de que un punto del gráfico esté fuera de
los límites de control. El cálculo de esta probabilidad es sencillo y dependerá del tamaño muestral
seleccionado y del estado del proceso (ver hoja de problemas). Por las propiedades de la distribución
geométrica, se sabe que el número medio de sucesos hasta que un punto esté fuera de los límites
(hasta que suceda el suceso de probabilidad p) es:
1
Número medio de muestras hasta la detección= .
p
De esta forma se puede saber el tiempo que se tardará en detectar desajustes. Esta información es
de mucha utilidad para decidir tanto la frecuencia de muestreo como el tamaño muestral, aunque
la decisión final puede estar influida por más factores. Al número medio de muestras hasta la
detección del desajuste se le llama también ARL, que proviene de las siglas en inglés Average Run
Length, (longitud media de la racha) (ver problema 1.d)
4. Una vez asegurado que los datos proceden de un proceso en estado de control se ha de verificar
la hipótesis de normalidad de los datos mediante algún procedimiento estadístico (contraste
de normalidad, gráfico en papel probabilístico-normal, etc).
5. La estimación de la capacidad será, si se utiliza la desviación típica de cada muestra sin
corregir por grados de libertad:
s̄
Capacidad estimada=6σ̂ = 6 .
c2
Si se utiliza la desviación típica corregida:
ŝT
Capacidad estimada=6σ̂ = 6 .
c4
Si se utiliza el rango para medir la variabilidad, se tendrá la siguiente estimación de la
capacidad
R̄
Capacidad estimada=6σ̂ = 6 .
d2
No debe confundirse la capacidad de un proceso (o máquina o tarea concreta) con las tolerancias
técnicas del producto. Las tolerancias son los requerimientos técnicos para que el producto sea
admisible para su uso, mientras que la capacidad es una característica estadística del proceso que
elabora dicho producto. Para comparar ambas características se define el índice de capacidad
de un proceso Cp de la siguiente manera:
Intervalo de Tolerancias LTS-LTI
Cp = = ,
Capacidad 6σ
donde LTS es el límite de tolerancia superior y LTI el inferior. Si Cp > 1 se dice que el proceso
es capaz, pues prácticamente todos los artículos que produzca estarán dentro de las tolerancias
requeridas. Si Cp < 1 se dice que el proceso no es capaz. Si Cp ≈ 1 habrá que vigilar muy de
cerca el proceso, pues cualquier pequeño desajuste provocará que los artículos no sean aceptables.
3. Calcular rangos móviles entre pares de individuos. Estos rangos móviles se obtienen de la
siguiente manera: el primer rango consiste en
En circunstancias excepcionales podría calcularse rangos móviles con más de dos observa-
ciones (tres o cuatro). Por ejemplo, con cuatro observaciones se tendría:
R1 = máx(x1 , x2 , x3 , x4 ) − mı́n(x1 , x2 , x3 , x4 ),
R2 = máx(x2 , x3 , x4 , x5 ) − mı́n(x2 , x3 , x4 , x5 ),
..
.
Rk−3 = máx(xk−3 , xk−2 , xk−1 , xk ) − mı́n(xk−3 , xk−2 , xk−1 , xk ).
4. Obtener el rango móvil medio. En el caso de rango móvil de pares de observaciones se tendrá:
Pk−1
Ri
i=1
R̄ = .
k−1
5. Calcular los límites de control para la media a distancia de tres desviaciones típicas respecto
a la línea central marcada por x̄:
R̄
LCS = x̄ + 3 ,
d2
R̄
LCI = x̄ − 3 ,
d2
LCS = D4 R̄,
LCI = D3 R̄.
14 Control de procesos por variables
Se suele interpretar en primer lugar los gráficos de la variabilidad (rango o desviación típica),
pues un aumento de la variabilidad puede provocar un aumento de la media muestral, mientras que
el fenómeno inverso no ocurre. Los aspectos a analizar son: puntos fuera de los límites, tendencias
o rachas, patrones no aleatorios.
Gráfico de control
24
LCS +3dt
Zona A
22 +2dt
Zona B
+1dt
20 Zona C
L. central
Zona C
-1dt
18 Zona B
-2dt
Zona A
LCI -3dt
16
14
0 2 4 6 8 10 12 14 16 18 20
tiempo
Figura 4.5:
1. Los elementos de la muestra son independientes entre sí. Por tanto, el valor que tome uno
de ellos no condicionará al de los demás. Esta independecia se puede conseguir seleccionando
los elementos al azar.
Sea X nuestra variable aleatoria de interés, y sean X1 , X2 , ..., Xn los elementos de una muestra
de tamaño n de dicha variable aleatoria X. Entonces, antes de ver los valores concretos que tomará
la muestra formada por X1 , X2 , ..., Xn , tendremos que la muesta X1 , X2 , ..., Xn será un conjunto
de variables aleatorias independientes e idénticas a X.
características de la población, es decir, en todas las longitudes posibles. Supongamos que tenemos
una muestra de n = 100 artículos y hemos medido sus longitudes. Supongamos que calculamos un
conjunto de medidas características de dicha muestra de 100 longitudes: la media, la varianza, etc.
¿Son dichos valores los de la población? Está claro que no. La media de las n = 100 longitudes no
tiene por qué coincidir con la media de toda la población. La media de la población será el promedio
de TODOS sus infinitos datos, y sólo por casualidad será igual al promedio de los n = 100 datos
que hemos seleccionado al azar. El problema es que si no tenemos todos los infinitos datos, no
podremos conocer las medidas características de la población. Sólo tendremos lo que podamos
obtener de la muestra. Por tanto, una primera conclusión que podemos extraer al intentar predecir
(inferir) las medidas características de una población utilizando una muestra es la siguiente:
Conclusión 1: Los valores de las medidas características que se obtienen de una mues-
tra serán sólo una aproximación de los valores de las medidas características de
la población.
Otra segunda limitación de intentar averiguar cómo es una población a partir de la informa-
ción de una muestra, es que nuestras conclusiones dependen de la muestra concreta que hayamos
obtenido. Con otras muestras tendríamos otros valores en nuestras medidas características y po-
dríamos sacar conclusiones diferentes sobre la población. Supongamos que tomamos una muestra
de n = 100 artículos y medimos esas 100 longitudes obteniendo una longitud media de X̄ = 23,5
cm ¿Quiere esto decir que cada vez que tomemos una muestra al azar de 100 de dichos artículos
y los midamos, su media muestral será siempre X̄ = 23,5 cm? Pues obviamente no. Será mucha
casualidad que dos muestras distintas nos den exáctamente la misma media. Como son muestras
de una misma población, las medias será más o menos similares, pero no tienen por qué coincidir.
Por tanto, se puede concluir los siguiente:
Conclusión 2: Los valores de las medidas características que se obtienen de una mues-
tra dependen de los elementos que la constituyen. Muestras diferentes darán por
tanto valores diferentes.
Como los elementos han sido seleccionados al azar, se dice que los valores de las medidas
características de una muestra dependen del azar del muestreo. En lugar de hablar de me-
didas características de una muestra, hablaremos de forma más general de operaciones matemáticas
realizadas con la muestra. Vamos a introducir entonces un nuevo concepto: llamaremos estadístico
a cualquier operación realizada con una muestra. Por ejemplo, la media muestral es un estadís-
tico, así como la varianza, el rango, o cualquier otra medida característica. El estadístico es
la operación matemática, no el resultado obtenido. El estadístico tomará, de acuerdo a
la conclusión 2 anterior, un valor diferente en cada muestra. Un estadístico será, por tanto,
una variable aleatoria pues el valor concreto que obtengamos dependerá del azar del muestreo.
El resultado obtenido con una muestra concreta será una realización de dicha variable aleatoria.
Cada vez que realicemos el experimento de computar el valor de un estadístico en una
muestra diferente, obtendremos una realización diferente del estadístico. En la práctica,
tendremos una sola muestra, y por tanto una sola realización del estadístico.
Si queremos dar alguna interpretación al valor de la realización de un estadístico en una muestra
concreta, necesitamos conocer cómo varía el valor que puede tomar el estadístico de unas muestras a
otras (ese será uno de los objetivos de este tema). Por ejemplo, supongamos el caso de las longitudes
de los artículos antes mencionados. Supongamos también que sabemos por información histórica
que si el proceso productivo funciona adecuadamente, la longitud media (μ) de los artículos que
4.7 Interpretación de los gráficos de control 19
produce debe ser de μ =25 cm. ¿Cómo podemos entonces interpretar que en una muestra de
tamaño n = 100 se haya obtenido que X̄ = 23,5 cm? ¿Es esa diferencia (25-23.5) evidencia de
que la media se ha reducido y por eso la muestra tiene una media menor? ¿O la media no ha
cambiado y esa discrepancia (25-23.5) puede atribuirse a la variabilidad debida al muestreo? Si no
conocemos la función de densidad de X̄ no podremos valorar si 23.5 es un número muy alejado de
25, y por tanto sospechoso de que algo ha ocurrido en el proceso; o por el contrario que sea muy
frecuente que muestras de una población de media μ = 25 den alejamientos tan grandes como 23.5.
Supongamos ahora que extraemos una segunda muestra de tamaño n = 100 tras haber realizado
algunos ajustes a la máquina y que obtenemos que la nueva media muestral es X̄(2) = 24. ¿Quiere
decir que los ajustes han provocado un aumento en la media (de 23.5 a 24)?¿o ese cambio (23.5-24)
puede explicarse simplente por ser muestras diferentes de una misma población de media 25?.
El tipo de preguntas que se plantean en el párrafo anterior son muy importantes en la práctica,
y serán las que querramos resolver con la estadística. Para responder a este tipo de preguntas,
es necesario conocer las características del estadístico que nos interese (en el caso del ejemplo, la
media muestral). A la distribución de un estadístico debido a la variabilidad de la muestra se le
denomina, distribución del estadístico en el muestreo. Esta distribución dependerá de cada
caso concreto.
Es importante darse cuenta de que estamos manejando dos niveles de variables aleatorias.
En un primer nivel, más superficial, estaría nuestra variable aleatoria de interés X. En nuestro
ejemplo sería X = longitud de un artículo genérico de nuestro proceso productivo. Para conocer
las propiedades de dicha variable aleatoria extraemos una muestra aleatoria simple de tamaño n.
Las longitudes de esos n elementos serán X1 , X2 , ..., Xn . Como hemos dicho anteriormente, antes de
extraer la muestra, no sabremos qué valores tomarán X1 , X2 , ..., Xn . Y al tratarse de una muestra
aleatoria simple, estos n elementos pueden interpretarse como un conjunto de n variables aleatorias
independientes, e idénticas a nuestra variable de interés X. Nuestro objetivo es utilizar la muestra
para saber cómo es X. Para ello, computamos el valor de un conjunto de estadísticos de interés
con los datos de la muestra: X̄, Sx2 , etc. Esos estadísticos constituirán, debido a la variabilidad del
muestreo, un segundo nivel de variables aleatorias con características diferentes a X. Para fijar
mejor estos conceptos, en la sección siguiente veremos el caso de la media muestral.
importante, pues nos dice que de los posibles valores que podamos obtener al cambiar la muestra,
el centro de gravedad de ellos es la media poblacional.
Para ver la dispersión de los distintos valores de medias muestrales alrededor de μ, calcularemos
la varianza de X̄. Llamaremos Var(X) = σ2 . Por tanto Var(Xi ) = σ 2 , i = 1, 2, ..., n. Entonces,
µ ¶
X1 + X2 + · · · + Xn Var (X1 + X2 + · · · + Xn )
Var(X̄) = Var = .
n n2
Al ser una muestra aleatoria simple, los Xi serán variables aleatorias independientes, y por tanto
tendremos que
1. La varianza disminuye con el tamaño muestral. Por tanto cuantos más datos se tengan será
más probable que la media muestral sea un valor próximoa μ.
2. La dispersión de X̄ alrededor de μ depende de la dispersión de la variable original X. Así,
si σ 2 es muy grande hará falta un tamaño muestral grande si queremos asegurarnos que la
media muestral esté cerca de la poblacional.
Finalmente, vemos que la media muestral puede escribirse como suma de variables aleatorias.
Reescribiendo (4.19) tenemos que
X1 X2 Xn
X̄ = + + ··· + ,
n n n
y por tanto, por el Teorema Central del Límite (ver tema anterior) tenemos que, indepen-
dientemente de cómo sea X, si el tamaño muestral n es suficientemente grande X̄ será
aproximadamente una distribución normal. Se tiene por tanto que si n es grande (en la
práctica, con más de 30 datos) µ ¶
σ2
X̄ ∼ N μ, . (4.22)
n
Por tanto, la media muestral realizada con un número suficiente de datos es una variable aleato-
ria simétrica y muy concentrada alrededor de la media poblacional, independientemente de cómo
sea la naturaleza de X. De esta forma, la media muestral con un tamaño muestral suficientemente
grande proporciona una forma bastante precisa de aproximar la media poblacional μ. No olvidemos
que en la práctica tendremos una sola muestra, y por tanto una sola realización de X̄. Por esta
razón, es muy útil disponer de resultados teóricos tan interesantes como (4.22), que nos ayuden a
valorar la fiabilidad de la media muestral. Nótese que el resultado (4.22) es independiente de la
distribución que siga X si n es grande. En los próximos temas obtendremos más conclusiones y
construiremos procedimientos estadísticos basados en este resultado.
4.7 Interpretación de los gráficos de control 21
A continuación se muestran los índices de capacidad más habituales. En este apéndice se uti-
lizará la siguiente notación:
Asímismo, para la interpretación de los índices, se supondrá que la variable de interés se dis-
tribuye normalmente.
Índice de capacidad Cp
Este índice se define como
LTS-LTI
Cp = ,
6σ
por tanto si Cp < 1, el proceso no será capaz de cumplir las especificaciones. Tradicionalmente se
dice también que si Cp ≥ 1 el proceso es capaz. Actualmente, sin embargo, un índice de capacidad
cercano a uno se considera insuficiente. Es frecuente utilizar el valor Cp = 4/3 ≈ 1,33 como límite
inferior de la calidad que debe tenerse en la práctica. Esto implica que
LTS-LTI 4
= ⇒ LTS-LTI = 8σ
6σ 3
por tanto serían defectuosos aquellos artículos que estén a más de 4σ de la media; esto es, aproxi-
madamente, 64 piezas por millón (bajo normalidad). Por esta razón se dice que
¯ − LTI
x̄
CpL = ,
3σ
LTS-x̄¯
CpU = .
3σ
Cuando cualquiera de estos dos índices es menor que 1, el proceso no cumplirá las especificaciones.
Por tanto, son también útiles cuando existen ambas especificaciones, mínima y máxima. Por ejem-
¯ no coincidir con el centro del intervalo de
plo, el proceso podría estar descentrado (la media x̄
especificaciones (LTS+LTI)/2). Es fácil comprobar que
LTS-LTI ¯) + (x̄
1 (LTS − x̄ ¯—LTI) CpL + CpU
Cp = = = .
6σ 2 3σ 2
Por tanto uno de los coeficientes podría ser menor que uno y compensarse con el otro y dar un
coeficiente Cp > 1, produciendo la falsa impresión de que el proceso es capaz. Por esta razón es
siempre útil calcular estos dos índices.
Existen procesos en los que se conoce el valor nominal que debe cumplir la característica de
calidad. Por ejemplo, la resistencia nominal de un componente eléctrico, o el radio de un cilindro,
¯ habrá que usar dicho valor nominal μN . En ese
etc. En esos casos, en lugar de la media muestral x̄
caso, la definición de los índices sería:
μN − LTI
CpL = ,
3σ
LTS-μN
CpU = .
3σ
LTS-LTI
Cpm = ,
6σ̂ m
Pk
j=1 sj,m
σ̂ m = ,
r Pkn
i=1 (xi,j − μN )2
sj,m = .
n
Este índice es más conservador que Cp (es decir, suele salir más bajo). Suele ser más recomendable
cuando se poseen pocos datos.
Coeficiente K
Este coeficiente es una medida de la descentralización del proceso. Se define como:
¯x̄ − μN
K= 1 .
2 (LTS-LTI)
Si K > 0, el proceso tiene un sesgo hacia valores superiores al nominal (sesgo positivo), mientras
que si K < 0, el sesgo es hacia valores inferiores al nominal (sesgo negativo). Este índice no está
relacionado con la capacidad, por lo que un proceso puede ser no capaz y tener un valor de K bajo.
Coeficiente n-sigma
Este coeficiente consiste en la expresión de los límites de tolerancia en función de la desviación
típica del proceso de la forma LTS-LTI=2nσ. Por tanto
LTS-LTI
n=
2σ
Esta definición de las tolerancias equivale a LTS= μ + nσ y LTI= μ − nσ. Por tanto, un índice de
capacidad Cp = 1 equivale a 3-sigma y Cp = 2 equivale a un nivel de calidad 6-sigma (en inglés
six sigma). Actualmente se considera que una organización ha alcanzado un cota muy alta de
calidad si su nivel es 6-sigma. Por esta razón a los programas de formación en técnicas estadísticas
para la calidad se les suele denominar ’six-sigma training’, y muchas organizaciones y empresas
relacionadas con la calidad y la estadística suelen ponerse la etiqueta ’six-sigma’ en sus nombres.
ejemplo, si el proceso está en estado de control y el nivel de calidad es 3-sigma, el 0.0027 % de los
artículos son defectuosos. También puede decirse en este caso que 2700 artículos por millón serán
defectuosos.
Por ejemplo, un artículo defectuoso de entre 160 artículos equivale a una proporción de
1
= 0,00625 = 6250 × 10−6 ⇒ 6250 por millón,
160
que es, aproximadamente, un nivel de calidad de 4-sigma y equivale a un índice de capacidad de
8σ 4
Cp = = = 1,33,
6σ 3
que es considerado, como se mencionó anteriormente, el nivel mínimo de calidad que se debe tener.
De esta forma, un sistema con nivel de calidad 6-sigma (six sigma) producirá, por término medio,
3.4 artículos defectuosos por millón (ver artículo de Larry Seese, pag 38)
4.7 Interpretación de los gráficos de control 25