domingo, 20 de diciembre de 2015

Un poco de historia... Las 4 Generaciones de la Calidad

Haciendo un poco de historia, la Calidad fue evolucionando notablemente con el paso del tiempo. El objetivo principal siempre fue el mismo: la satisfacción del cliente, el cumplimiento de las especificaciones. Entre la inspección visual basada en el criterio propio del fabricante y la mejora continua de las organizaciones actuales, se fueron incorporando diferentes conceptos fundamentales que harían lo que hoy conocemos como Calidad

Edwards, Shewhart, Deming y Juran
Cuatro personalidades fundamentales en la evolución de la Calidad

Se pueden definir claramente cuatro generaciones bien marcadas:

La Primera Generación: El Control de la Calidad por Inspección

Para garantizar que el cliente no recibiese productos defectuosos, se realizaba una inspección visual a cada uno de los productos fabricados. Sólo se trabajaba sobre los efectos. Existían claramente dos desventajas de este método: el porcentaje de rechazos era altísimo y los criterios para considerar si un producto era defectuoso o no los definía el propio fabricante (lo cual no necesariamente coincidía con la expectativa del cliente o con algún estándar preestablecido).

La Segunda Generación: Aseguramiento de la Calidad

Aquí aparecieron conceptos importantísimos, que hoy se mantienen vigentes:
  • En primer lugar, se comenzaron a utilizar instrumentos de medición para la evaluación del producto final y productos intermedios. 
  • Por otro lado se establecieron métodos de muestreo, evitando la inspección del 100% de los productos fabricados reduciendo los tiempos y los costos operativos.
  • Se comenzaron a utilizar las gráficas de control, punto de partida del Control Estadístico de la Calidad (Walter A. Shewhart fue su principal diseñador).
Los motores principales de estos cambios fueron dos: un aporte bienintencionado de empleados de la Bell Telephone Laboratories por la mejora de los procesos y la demanda de calidad de los productos que exigía la Segunda Guerra Mundial.

Sumado a esto, dos personalidades muy influyentes comenzaron a brindar importantísimos conceptos:
  • George D. Edwards definió alrededor de 1946 el concepto de Aseguramiento de la Calidad que establece que:
    • La Calidad es la consecuencia de la actividad de todos los empleados, pero es responsabilidad de la Dirección.
    • Los controles no se deben realizar únicamente sobre el producto final sino que deben comenzar desde la recepción de la materia prima, incluyendo los procesos intermedios. Se deben establecer, además, los puntos críticos de control.
  • W. Edwards Deming tomó los conceptos de Shewhart de Control Estadístico, difundiéndolos y aplicándolos en la industria japonesa. Deming también fue uno de los socios fundadores de una organización clave en el Aseguramiento de la Calidad: la ASQC (Sociedad Americana de Control de la Calidad) que inició sus actividades en 1946. En la década del 50, Deming impartió sus conocimientos estadísticos en varias empresas de Estados Unidos y Japón, país que comenzó a convertirse en potencia industrial mundial a partir de esta influencia. En su análisis Deming destacó la responsabilidad de la Gerencia, de la Alta Dirección, en los resultados.

La Tercera Generación: Calidad Total

Sumado al aporte de Deming, Joseph M. Juran reforzó durante sus visitas a Japón la importancia del compromiso de la Alta Dirección en los resultados de la Calidad. La calidad empieza y termina en el cliente.

Con el paso de los años se fue entendiendo que la calidad no sólo era una cuestión de la línea de manufactura, del área productiva, sino que estaban involucradas todas las áreas de la organización. El involucramiento de todo el personal en la calidad, así como el desarrollo de proveedores, llevaron al concepto de Calidad Total.

La Cuarta Generación: Mejora Continua de los Procesos

Aquí aparecen conceptos de suma importancia: la formación sistémica del personal como base de la mejora de los procesos y la reducción de los costos que esto conlleva. Crece, además, la interrelación entre áreas de la organización.
Se le da mayor importancia a las expectativas del cliente, reduciendo notablemente la brecha con él y poniéndolo en la cima de la pirámide.

Las 4 Generaciones de la Calidad

 

lunes, 7 de diciembre de 2015

¿Mi proceso está bajo control? Gráficas de control y cómo detectar desvíos

El Control Estadístico de la Calidad es una poderosa herramienta para analizar cómo está funcionando nuestro proceso. Si bien se asocia habitualmente su aplicación a procesos de manufactura, puede ser utilizada en infinidad de aplicaciones. Uno de los grandes pilares de la Gestión de la Calidad Total (TQM) es la conformidad con las especificaciones. El Control Estadístico de la Calidad o Control Estadístico de los Procesos (SPC, por sus iniciales en inglés) nos permite conocer si el resultado de cualquier proceso que esté bajo análisis cumple con lo especificado o no. Sin mayor profundidad estadística ni matemática intentaremos dar una noción de su importancia y sus aplicaciones. En futuras publicaciones se ahondará más en sus detalles.

¿Cuál es el primer paso? Conocer la variabilidad de nuestro proceso.

Por más controlado que se encuentre nuestro proceso, posee indefectiblemente una variabilidad de los resultados que produce. Todas las piezas que salen de una lìnea son diferentes, todos los resultados de una campaña de marketing son diferentes, la facturación mes a mes es diferente. Podemos conocer las causas más importantes de esta variabilidad, estimarlas muy bien pero nunca conoceremos exactamente qué sucederá.
Podemos tener comportamientos aleatorios (causas comunes), que podemos representar a través de una distribución estadística. Logrando este comportamiento (mediante la eliminación de las causas sistemáticas o causas asignables), podemos avanzar en el conocimiento de nuestro proceso. Con esto estaremos seguros que la variabilidad del proceso sigue una distribución conocida.

Segundo paso: Eliminar las causas asignables.

Se deben identificar las causas asignables y se deben eliminar. Por ejemplo, si el proceso produce resultados erráticos porque una máquina esta funcionando incorrectamente, se debería reparar. Aquí desaparecería esta fuente de variabilidad que afecta a la distribución habitual.

Tercer paso: Conocer la distribución de las causas comunes

No es factible conocer cuáles son las causas comunes, pero se puede acotar su comportamiento a una distribución estadística. Esto permite contar con un patrón de comportamiento facilitando su análisis. En general, poseen una distribución normal.

La distribución de las causas comunes se caracteriza por 3 parámetros fundamentales:
  • La media. Es el promedio aritmético de las observaciones.
  • La dispersión. El desvío estàndar nos indica qué dispersión tienen los valores de todas las observaciones con respecto a la media.
  • La simetría. Indica si el patrón de la distribución es simétrico con respecto a la media o es sesgado.

¿En qué consiste el Control Estadístico de los Procesos?

Consiste básicamente en medir los resultados de los procesos y determinar si los mismos se encuentran bajo control. Es decir, si los valores obtenidos en las mediciones correspondientes se encuentran dentro de los patrones esperados.
Existen dos maneras de medir la calidad de los procesos:
  • Una es la medición por atributos. Aquí se mide una característica del producto (o servicio) y se determina si es aceptable o no. Es un pasa / no pasa.
  • La otra es la medición por variables. Se mide de manera continua una variable del proceso. Aquí generalmente aparecen todas las variables que tomen valores continuos (por ejemplo: longitud, peso, temperatura, facturación, rentabilidad, número de accidentes, no conformidades, etc).

¿Cómo se utilizan las Gráficas de Control?

Las Gráficas de Control son diagramas ordenados en el tiempo en donde se representan los valores obtenidos durante la observación. Se determina un valor nominal, el que deseamos que la variable tome, el que esperamos.
Luego se determinan dos lìmites de control. Un acotamiento de control superior (UCL) y un acotamiento de control inferior (LCL). Su valores están directamente relacionados con la distribución estadística de la variable.Si los valores observados caen por fuera de estos límites, se considera que nuestro proceso está fuera de control. Se deben identificar las causas asignables que correspondan y se deben eliminar.
Algo importante a observar es que, muchas veces, es positivo que nuestro proceso se vaya por fuera de los límites. Por ejemplo, si lo que estamos graficando corresponde a la rentabilidad de una empresa no habrá problemas en tener puntos por encima del UCL.
Pero no sólo con puntos fuera de los acotamientos se puede determinar que un proceso se encuentra fuera de control. Existen algunos comportamientos predefinidos que siguen un patrón que pueden considerarse propios de un proceso fuera de control

Procesos bajo control

Un proceso con comportamiento normal debería verse armónico, con suaves variaciones, sin exceder las cotas y sin tendencias. Por ejemplo, la siguiente gráfica corresponde a un proceso bajo control:
Comportamiento Normal - Proceso bajo control

Procesos fuera de control

Existen diversos casos en los que se deben analizar las causas (y actuar sobre ello), en los que se considera que el proceso está fuera de control:

Comportamiento errático
Un punto fuera del lìmite inferior
Un punto fuera del lìmite superior
5 puntos consecutivos bajo la línea central
5 puntos consecutivos sobre la línea central
2 puntos consecutivos cerca del lìmite inferior 
2 puntos consecutivos cerca del lìmite superior
5 puntos consecutivos con tendencia ascendente
 5 puntos consecutivos con tendencia descendente

Errores en su uso

Las gráficas de control son una excelente herramienta orientativa acerca del estado de nuestro proceso. Pero no son infalibles. Podemos cometer errores en los criterios tomados. Existen dos tipos de errores en los que podemos caer:
Errores del Tipo I: Se rechaza un conjunto de datos o lote de buena calidad (que debería haber sido aceptado).
Errores del Tipo II: Se acepta un conjunto de datos o lote de mala calidad (que debería haber sido rechazado).