Pág. 1
Pág. 2
Métodos estadísticos para el control de la calidad y la productividad
Ulises Octavio Irigoin Cabrera, Julio Oswaldo Goicochea Espino, Erlin Guillermo Cabanillas
Oliva, Victor Sánchez Cáceres, Gregorio Rodolfo Heredia Quezada, Keuson Saldaña Ferreyra
© Ulises Octavio Irigoin Cabrera, Julio Oswaldo Goicochea Espino, Erlin Guillermo Cabanillas
Oliva, Victor Sánchez Cáceres, Gregorio Rodolfo Heredia Quezada, Keuson Saldaña Ferreyra,
2023
Jefe de arte: Yelitza Sánchez
Diseño de cubierta: Yelitza Sánchez
Ilustraciones: Ysaelen Odor
Editado por: Editorial Mar Caribe de Josefrank Pernalete Lugo
Jr. Leoncio Prado, 1355 – Magdalena del Mar, Lima-Perú. RUC: 15605646601
Libro electrónico disponible en http://editorialmarcaribe.es/?page_id=2001
Primera edición – diciembre 2023
Formato: electrónico
ISBN: 978-612-5124-25-8
Hecho el Depósito Legal en la Biblioteca Nacional del Perú N°: 202312115
Pág. 3
Métodos estadísticos para el control de la calidad y la productividad
Ulises Octavio Irigoin Cabrera
Julio Oswaldo Goicochea Espino
Erlin Guillermo Cabanillas Oliva
Victor Sánchez Cáceres
Gregorio Rodolfo Heredia Quezada
Keuson Saldaña Ferreyra
Perú, 2023
Pág. 4
Tabla de Contenido
Introducción .....................................................................................................................................5
Capítulo 1 .........................................................................................................................................9
Control de Calidad ...........................................................................................................................9
El triángulo de calidad ......................................................................................................... 11
Espiral de calidad ................................................................................................................. 12
El control evolutivo .............................................................................................................. 13
Edwards W. Deming ............................................................................................................. 14
Calidad ................................................................................................................................. 18
La Variabilidad: pensamiento estadístico ............................................................................. 24
La estadística descriptiva ..................................................................................................... 28
La aplicación del control estadístico .................................................................................... 40
Capítulo 2 .......................................................................................................................................47
Control de Procesos .......................................................................................................................47
El control estadístico de los procesos ................................................................................... 47
Procesos en la gestión de calidad ......................................................................................... 67
Mejora y el desarrollo de procesos ....................................................................................... 89
Capítulo 3 .....................................................................................................................................103
Productividad ...............................................................................................................................103
Definición y medición de la productividad ........................................................................ 103
La estimación de la eficiencia: datos panel ........................................................................ 107
Los modelos de eficiencia técnica variante en el tiempo ................................................... 115
La estimación de la eficiencia y productividad con métodos no paramétricos .................. 117
Reflexiones finales .......................................................................................................................126
Bibliografía ..................................................................................................................................127
Pág. 5
Introducción
La definición de calidad varía según la industria o negocio en el que uno participa. En el
ámbito de la producción, la calidad se puede definir como el grado en que un producto se alinea
con las especificaciones deseadas en términos de sus atributos y cumple con las expectativas del
cliente. Como resultado de su naturaleza subjetiva, muchas empresas tienden a pasar por alto la
importancia de gestionar sus procesos, asumiendo que no pueden controlar todos los factores que
impactan la calidad. Sin embargo, esta suposición es incorrecta ya que una gestión eficaz de los
procesos es esencial para garantizar resultados de alta calidad.
Existen numerosos elementos que juegan un papel en los procesos de producción, y todos
ellos pueden examinarse y rastrearse para mejorar constantemente los procesos. Esto incluye todo,
desde el equipo que se utiliza hasta el seguimiento de los programas de software e incluso la
eficacia de los trabajadores involucrados.
Por lo tanto, es importante señalar que la gestión de la calidad abarca más que simplemente
el aseguramiento de la calidad. También implica garantizar que todos los productos finales
mantengan un nivel constante de calidad, de modo que cumplan el mismo conjunto de requisitos
en igual medida.
Para evaluar el nivel de calidad es necesario realizar una serie de controles y pruebas. El
control de calidad es el procedimiento vital que garantiza la consistencia, confiabilidad, facilidad
de mantenimiento y producción de un producto o servicio en particular. Para lograrlo, existen
diversas herramientas y metodologías estadísticas diseñadas específicamente para la inspección,
identificación y gestión de procesos. Al adquirir conocimientos sobre estas herramientas y
comprender su funcionamiento, podemos mejorar la calidad general del producto o servicio, lo
que posteriormente conducirá a una mayor productividad y rentabilidad.
Así, se puede afirmar que el control de calidad ofrece numerosos beneficios, como
minimizar la necesidad de inspecciones excesivas, evitar retrasos, disminuir la cantidad de
unidades defectuosas que deben descartarse o reelaborarse y optimizar la utilización de recursos
humanos, maquinaria y materiales. Si bien, es importante señalar que el alcance de estas ventajas
puede variar dependiendo del modelo de negocio específico en el que se implementen las prácticas
de control de calidad.
Lidiar con la fluctuación inherente en los procesos es un desafío que enfrentamos
regularmente. La variabilidad se refiere al grado de diversidad dentro de un conjunto de valores o
puntuaciones, que esencialmente representa el rango entre los valores observados más bajos y más
altos. También sirve como medida de qué tan bien un proceso puede alcanzar el nivel de calidad
deseado. En esencia, nos enfrentamos a dos formas distintas de variabilidad:
Pág. 6
Causas comunes o naturales de variación: Son características inherentes que surgen debido
a factores fortuitos que afectan a todo el proceso productivo. Aunque suelen ser numerosos,
su contribución a la variabilidad total no es tan grande, por lo que se observan cuando se
controla el proceso. Son el resultado de cambios inherentes al proceso (por ejemplo,
cambios de temperatura y humedad en las granjas porcinas). Aun así, todavía necesitan
realizar análisis de capacidades para minimizar su impacto.
Causas de variación asignables o especiales: Son causas que provocan que un proceso ya
no pueda controlarse y, aunque son raras, su impacto es significativo. La probabilidad de
que los datos superen los límites naturales es muy baja. Entonces, si tomamos una muestra
de datos del proceso y algunos de ellos exceden el límite, es muy probable que algo inusual
esté sucediendo con ese elemento. Se denominan causas especiales, que ocasionalmente
afectan a una etapa concreta del proceso (por ejemplo, error humano o ajuste incorrecto de
una máquina).
La variación es un aspecto inherente de la vida que no puede clasificarse como
inherentemente positivo o negativo. Si bien es un fenómeno natural que no podemos eliminar por
completo, tenemos la capacidad de minimizar su impacto. El objetivo principal del control
estadístico de procesos es mantener el control sobre el proceso e identificar rápidamente cualquier
desviación causada por factores únicos, así como determinar sus causas fundamentales. Hay
circunstancias específicas en las que no es posible disminuir la variabilidad y, en algunos casos,
incluso puede ser necesario aumentarla para mejorar la eficiencia del proceso. Uno de esos
escenarios es cuando la reducción de costos conduce a un aumento de la variabilidad, lo que resulta
en un compromiso en la calidad, sin dejar de mantenerse dentro de los límites especificados. Es
esencial que comprendamos y determinemos plenamente hasta qué punto estamos dispuestos a
priorizar ciertos valores sobre otros.
A lo largo de la historia, se han desarrollado e implementado innumerables métodos y
enfoques para mejorar la calidad general de diversos procesos. Entre ellas, una estrategia
ampliamente reconocida y utilizada se conoce como Six Sigma, que tiene sus raíces en el idioma
inglés. El objetivo fundamental de Six Sigma es amplificar tanto la productividad como la
rentabilidad minimizando y controlando los niveles de variabilidad que existen dentro de un
sistema u operación determinado.
Así, las organizaciones que lo integran en sus marcos operativos tienen como objetivo
mejorar cada paso de sus procesos y mejorar constantemente sus productos o servicios para
minimizar cualquier falla en el resultado final. Además, se esfuerzan por lograr cambios
sostenibles que puedan mantenerse durante un período prolongado.
Six Sigma es una metodología que tiene como objetivo alcanzar un nivel de calidad en el
que solo hay 3,4 defectos por millón de eventos u oportunidades (DPMO), definiéndose un defecto
Pág. 7
como cualquier caso en el que un producto no cumple con los requisitos especificados. El término
"Six Sigma" en sí mismo se refiere a estar a seis desviaciones estándar de la media, lo que indica
un alto nivel de precisión y coherencia. Al implementar los principios de Six Sigma, las
organizaciones se esfuerzan por minimizar la variación en sus procesos, asegurando que la mayoría
de los resultados estén dentro del rango deseado y que cualquier desviación se mantenga al
mínimo. Este enfoque riguroso de la gestión de la calidad ha demostrado ser muy exitoso a la hora
de impulsar la eficiencia, reducir los defectos y mejorar la satisfacción del cliente.
El Control Estadístico de Procesos (SPC) se basa en el uso de gráficos de control, que son
herramientas gráficas con dos dimensiones. El eje vertical de estos gráficos representa la variable
que se observa o mide. Dentro de este eje se representan tres líneas: la línea central (CL), que
significa el valor promedio de la característica de calidad que se examina y sirve como medida de
centralización; y dos líneas adicionales conocidas como límite de control superior (LCS) y límite
de control inferior (LCI). Estos límites de control generalmente se ubican a ±3 desviaciones
estándar de la línea central. Esta relación entre SPC y Six Sigma se basa en que estos límites de
control ayudan a identificar y monitorear variaciones dentro del proceso, contribuyendo así al
objetivo de alcanzar los niveles de calidad Six Sigma.
Los límites de control del proceso se determinan analizando los datos estadísticamente.
Estos límites indican el rango en el que deberían caer la mayoría de los puntos de datos si el proceso
funciona correctamente. Este rango se calcula en base a las mediciones del proceso y abarca más
del 99% de los datos observados.
Se considera que un proceso está bajo control o en "estado de control" cuando la
característica de calidad que se observa en el proceso permanece consistentemente cerca de un
valor promedio predeterminado y está influenciada principalmente por factores aleatorios.
Cuando los valores caen fuera de los límites de control establecidos, indica que el proceso
no está operando dentro de parámetros aceptables y hay una razón específica para esta desviación
que debe abordarse y resolverse.
En realidad, el CEP (Protocolo de Ambiente Controlado) implica una comparación
continua de diferentes hipótesis para determinar si un proceso determinado está operando dentro
de parámetros aceptables. Para realizar correctamente este análisis, es necesario recolectar
muestras a intervalos regulares.
Es fundamental enfatizar que el control de procesos y la especificación de procesos no
deben confundirse, ya que son dos conceptos distintos. Es posible que un proceso cumpla con las
especificaciones sin estar completamente controlado y, a la inversa, es posible que un proceso
controlado no cumpla con todas las especificaciones. Como resultado, los límites de control se
emplean para evaluar el desempeño general de un proceso, mientras que los mites de
Pág. 8
especificación se utilizan para determinar si los productos finales cumplen con los requisitos
necesarios.
El CEP, o proceso de mejora continua, desempeña un papel crucial en nuestra capacidad
de prever problemas potenciales que pueden surgir en el futuro, lo que dificulta nuestra capacidad
para cumplir requisitos específicos. Al identificar estos problemas con anticipación, podemos
tomar acciones correctivas inmediatas, evitando así que afecten el producto final y, en última
instancia, lleguen al cliente. Asimismo, al comparar los límites de control, que están determinados
por la variación natural del proceso, con los límites de especificación, podemos medir
efectivamente la capacidad del proceso.
Pág. 9
Capítulo 1
Control de Calidad
A pesar del reconocimiento y el debate frecuente sobre productividad y calidad, estos
conceptos a menudo no se adoptan plenamente. Lo mismo se aplica al pensamiento científico.
Numerosos estudios han demostrado que incluso con grandes esfuerzos en educación y formación,
existe una renuencia a adoptar estos paradigmas y alinear las acciones en consecuencia. El siglo
actual se caracteriza por rápidos avances en ciencia y tecnología, que inevitablemente seguirán
remodelando la sociedad y la productividad.
Estos cambios constantes están impulsados por el uso extensivo del conocimiento, lo que
dio lugar al término "el siglo de la información y el conocimiento", debido en gran medida a la
capacidad de la tecnología para procesar y comunicar grandes cantidades de datos. La humanidad
está adoptando cada vez más una metodología y tecnología generalizadas para aplicar el
conocimiento de manera efectiva en tareas científicas, técnicas y de la vida cotidiana. Esto requiere
la integración de ideas y métodos de diversas disciplinas como la gestión, la informática y la
estadística.
La gestión del conocimiento y sus estrategias, métodos y herramientas son ahora
consideraciones esenciales. Ya en las décadas de 1980 y 1990, la Revolución de la Calidad enfatizó
la importancia de la calidad como medio para lograr los objetivos organizacionales. Esta
perspectiva ha tenido un profundo impacto en los logros y desempeños, haciendo de la evaluación
de la calidad y de las metodologías para su diseño, análisis y mejora conocimientos fundamentales
para los profesionales de todos los niveles.
Así, la productividad ha sido un objetivo de larga data de la humanidad, con técnicas y
metodologías desarrolladas para analizarla y mejorarla en diversos campos. La ingeniería y la
tecnología han desempeñado un papel importante en esta búsqueda, y disciplinas como la
investigación de operaciones y la optimización han ganado importancia en los ámbitos científico
y profesional. Por lo tanto, los estadísticos, ha adquirido conocimientos sobre los desafíos que
implica aprender conceptos estadísticos clave, entendiéndose la estadística como una metodología
y tecnología que permite la adquisición y aplicación del conocimiento.
En consecuencia, gran parte del trabajo se ha centrado en organizaciones productivas como
industrias y empresas. Si bien, también se ha reconocido la importancia de las estadísticas, sus
principios y métodos en sectores gubernamentales como la educación. Entre tanto, se enfatiza la
importancia de promover el pensamiento estadístico entre profesores y estudiantes de nivel
secundario y superior; siendo en este contexto fundamental comprender que los datos por sí solos
no constituyen información y que la información en sí misma no es conocimiento. Ya que, el valor
Pág. 10
del conocimiento radica en su asociación con la acción y su capacidad para regular y guiar la toma
de decisiones.
En el mundo actual, las herramientas estadísticas se han vuelto cada vez más populares y
son muy valoradas por su capacidad para respaldar el diagnóstico, identificar problemas y mejorar
procesos. Esto no sólo es cierto en entornos industriales y manufactureros, donde las estadísticas
se han aplicado y desarrollado ampliamente, sino también en otros campos del desarrollo
empresarial. Es importante señalar que se necesita una comprensión integral de la metodología
estadística, no sólo para herramientas especializadas, sino también para herramientas y métodos
básicos que han demostrado valor práctico en países como Japón y Estados Unidos.
En Japón, por ejemplo, el conocimiento estadístico se enseña en el nivel medio y superior
y se aplica en todas las áreas de las organizaciones productivas. Incluso el público en general
conoce y aplica métodos estadísticos. Esto se debe a que la toma de decisiones en la sociedad
actual requiere de racionalidad y del uso de conocimientos técnicos y científicos. El uso de la
metodología estadística es fundamental para mejorar la eficiencia y la productividad dentro de una
organización. Sin embargo, aprender y utilizar estadísticas puede resultar un desafío debido a
varios mitos y dificultades.
El mito más común es que las estadísticas son difíciles y requieren cálculos complejos. Sin
embargo, esto está lejos de la verdad. Hoy en día, el software estadístico y el acceso a
computadoras hacen que el aprendizaje de estadísticas sea mucho más simple y menos laborioso.
La atención ya no debe centrarse en procedimientos de cálculo o en la creación de tablas y gráficos,
ya que estas tareas se pueden realizar fácilmente con soporte informático.
En cambio, el énfasis debería estar en desarrollar las habilidades para identificar y plantear
problemas, así como diseñar estrategias eficientes para resolverlos. Comprender cuándo y cómo
utilizar un método o herramienta estadística, así como interpretar los resultados correctamente, es
fundamental. Esto requiere una sólida comprensión de la metodología estadística y el proceso de
aplicación de la misma. Si bien estos conceptos no son difíciles de comprender o poner en práctica,
sí requieren un cambio de perspectiva sobre la disciplina de la estadística.
Las estadísticas han adquirido cada vez más importancia en diversas áreas de la actividad
productiva, incluidas la manufactura, las industrias de servicios y las empresas en su conjunto.
Este movimiento global, conocido como La Revolución de la Calidad, enfatiza conceptos como
productividad, competitividad, excelencia y calidad total, y los sitúa a la vanguardia de los modelos
de mejora continua. Aunque estas ideas y procedimientos existen desde hace cadas, enfoques
filosóficos recientes los han revitalizado y presentado como algo nuevo. Aun cuando, es importante
señalar que las herramientas y técnicas utilizadas en estadística no son realmente nuevas, aunque
algunas pueden haber sido propuestas más recientemente. Esta revaluación de la metodología
Pág. 11
establecida ha resaltado la importancia de la capacitación y el desarrollo, aunque los principios y
métodos estadísticos a menudo se presentan de manera no relacionada.
El triángulo de calidad
La gestión de la calidad abarca diversas disciplinas, incluidas la psicología, la
administración, la estadística y la ingeniería. La calidad total, que forma parte de la gestión de la
calidad, es un enfoque que tiene en cuenta la naturaleza holística de la calidad, reconoce que la
calidad no es estática, sino más bien un concepto dinámico que implica satisfacer continuamente
los requisitos del cliente. Además, la calidad total enfatiza la importancia de la optimización de
costos, buscando el precio más bajo posible. Para lograrlo, es crucial que todas las partes
involucradas en el proceso estén comprometidas y participen activamente. Este enfoque se basa
en tres aspectos complementarios que contribuyen a la mejora continua y están representados en
el triángulo de la calidad.
La clave para la mejora continua radica en definir claramente los objetivos, propósitos y
metas del sistema, ya sea un proceso, empresa, fábrica o cualquier otra entidad. Sin embargo, no
basta con tener el simple deseo de mejorar. Es igualmente importante entender cómo lograr esas
mejoras, y esto es posible gracias al método científico y al conocimiento de los principios,
procedimientos y técnicas utilizados para diagnosticar, intervenir y monitorear el proceso. Esta
metodología, a su vez, también debe considerar el factor humano como aspecto fundamental para
alcanzar el objetivo deseado.
Es crucial que todos los involucrados en el sistema comprendan y estén comprometidos
con su rol, además de estar motivados para contribuir a los esfuerzos de mejora continua. Cuando
se trata de lograr una mejora en la calidad, no existen modelos establecidos a seguir. Más bien, es
necesario buscarlos sistemáticamente a medida que avanza el conocimiento del proceso,
Pág. 12
registrando y analizando datos e interpretando los resultados. Esta búsqueda de mejora puede darse
en diversos contextos, como dentro de las instituciones educativas o en el lugar de trabajo. Existen
herramientas estadísticas y tecnologías avanzadas para brindar apoyo en este esfuerzo.
Si bien las estadísticas pueden competir con la provisión de metodologías, también ofrecen
apoyo al proporcionar los principios y conceptos básicos necesarios para adoptar una metodología
adecuada. Esto incluye considerar causas tanto atribuibles como aleatorias que puedan afectar la
operación del proceso. Además, existen principios y métodos de diversos campos, como el trabajo
gerencial, la ingeniería y la gestión de recursos humanos, que deben tenerse en cuenta al diseñar
un sistema adaptado a las necesidades y condiciones específicas de una organización. Para
garantizar la calidad, una institución educativa, por ejemplo, requiere un sistema de gestión que se
centre en el desempeño y los resultados, así como en la mejora continua.
Espiral de calidad
La introducción de tendencias de la moda en el uso de modelos para garantizar la calidad
ha dado lugar a una gran cantidad de malentendidos en lo que respecta al control de calidad, la
mejora continua y la gestión de la calidad. El control de calidad total, o gestión de la calidad, como
se le conoce comúnmente, es un enfoque lógico y sistemático que enfatiza la importancia de que
los tres aspectos trabajen juntos en armonía. Si bien pueden existir modelos generales para diseñar
e implementar sistemas para el control de calidad total, es crucial considerar siempre las
características únicas del proceso específico que se controla y mejora.
Esto requiere considerar tres aspectos fundamentales: una comprensión integral del
proceso, incluyendo su propósito, funcionamiento y puntos críticos, lo que requiere una fase de
diagnóstico exhaustivo; la implementación de intervenciones estratégicas para lograr los cambios
deseados en el proceso; y la evaluación del impacto de estas intervenciones a través de medidas
de diagnóstico posteriores.
Pág. 13
El concepto de mejora continua constituye la base de esta idea, ya que supone avanzar
hacia un mayor nivel de calidad en cada ciclo completado. Las herramientas estadísticas juegan
un papel crucial en el proceso de diagnóstico. Para describir con precisión el proceso e identificar
puntos críticos, es necesario utilizar técnicas estadísticas para el análisis de datos. Además, se
emplean principios estadísticos para definir variables y recopilar datos mediante muestreo y diseño
experimental.
Un diagnóstico integral del funcionamiento del proceso implica identificar factores que
influyen en las revisiones de calidad y señalar puntos críticos o problemas dentro del proceso. A
partir de la información obtenida se realiza una interpretación racional para crear un plan de
intervención que mejore la eficiencia del proceso. Si bien muchas de las técnicas utilizadas en esta
fase son fundamentales y requieren conocimientos estadísticos básicos, también requieren una
comprensión profunda del proceso en sí. La fase de intervención implica el seguimiento, que
también debe realizarse utilizando principios y técnicas estadísticas. La espiral de calidad,
propuesta por el estadístico Shewhart en la década de 1930, está estrechamente relacionada con
esta idea y se explorará más a fondo en el quinto capítulo, junto con el análisis de los gráficos de
control.
El control evolutivo
Entre los diversos enfoques estadísticos para la mejora continua, una de las propuestas es
el llamado control evolutivo, también conocido como EVOP (Evolutionary Operation) en inglés.
Este enfoque proporciona un conjunto de principios y procedimientos que sirven como pautas
generales para diagnosticar, intervenir y monitorear la evolución de un proceso con el objetivo de
mejorar sus índices de calidad. Además, este enfoque incorpora el uso de diseño estadístico de
Pág. 14
experimentos y técnicas de planificación para modelar, ajustar y diagnosticar modelos estadísticos
lineales. Sin embargo, debido al alcance de este texto, sólo se mencionarán algunas generalidades.
Es evidente que este enfoque ha sido ampliamente estudiado y aplicado en procesos
industriales. Su mayor ventaja reside en que los experimentos se realizan a gran escala, es decir,
se planifican y ejecutan mientras la planta está en funcionamiento. Aun cuando, estas metodologías
también se pueden aplicar a innovaciones educativas a nivel de subsistema. Trabajar con estas
metodologías requiere pasar por una serie de etapas en el diagnóstico e intervención de procesos,
que son similares a establecer un sistema de mejora de la calidad y la productividad.
Por lo tanto, es crucial considerar el marco de referencia para la gestión de la calidad
educativa. Tanto en Japón como en Estados Unidos, donde se recomienda encarecidamente el uso
de herramientas estadísticas en tareas de mejora de la calidad, se emplean ampliamente diseños
experimentales y la construcción de modelos empíricos. Además de EVOP, otro enfoque notable
de experimentación es el Método Taguchi, que enfatiza el diseño de calidad en tres áreas: diseño
de sistemas, diseño de parámetros y diseño de tolerancias. Ambos enfoques enfatizan el valor de
la metodología estadística. Para aplicar el enfoque de control evolutivo, se deben cumplir ciertas
condiciones:
En primer lugar, la persona que ocupa el máximo cargo de responsabilidad del proceso
debe comprender el concepto y reconocer su utilidad.
En segundo lugar, los superintendentes de procesos y los ingenieros deben poseer
conocimientos suficientes para iniciar, desarrollar e interpretar el programa.
Por último, los operadores de procesos deben tener una comprensión clara de los objetivos
del programa y recibir una formación adecuada sobre el método operativo y la evaluación
de sus efectos.
No se puede negar la importancia de la experimentación en el diseño y mejora de la calidad,
y se basa en dos aspectos clave:
Existe una necesidad continua de estudiar y centrarse en mejorar el proceso para identificar
oportunidades de mejora. Esto también implica identificar factores que influyen en el
proceso y proponer estrategias de mejora.
Existe un reconocimiento cada vez mayor de la necesidad de un enfoque centrado en la
calidad en el diseño de procesos en lugar de depender únicamente de la inspección masiva.
Edwards W. Deming
El aventura de Deming comenzó cuando viajó por primera vez a Japón con la misión de
ayudar a la nación en la reconstrucción después de la devastación de la Segunda Guerra Mundial.
Pág. 15
Su conocimiento y experiencia fueron muy valorados por científicos, ingenieros y empresarios que
escucharon con entusiasmo sus seminarios. A través de sus enseñanzas, Deming explicó por qué
Estados Unidos había abandonado la práctica del control de calidad e introdujo su visión a través
de las Siete Enfermedades Mortales y sus obstáculos.
También presentó los famosos Catorce Puntos, un método general para establecer y
fortalecer un sistema que priorice la mejora continua de la calidad. Nacido en el siglo XX, Deming
hizo importantes contribuciones a las técnicas estadísticas y publicó numerosos artículos
científicos y libros técnicos. Sin embargo, su verdadera fama radica en su filosofía del control de
calidad, lo que le valió el tulo de padre del control de calidad. Sus ideas fueron fundamentales
para el milagro japonés de la década de 1980, una época en la que la experiencia de Deming salió
a la luz en su propio país, Estados Unidos.
Antes de eso, era conocido principalmente en un pequeño sector industrial y en la
comunidad estadística. Además, Deming revolucionó el concepto de administración al introducir
un enfoque sistémico y enfatizar el papel esencial de las herramientas estadísticas en el diagnóstico
y diseño de procesos. Todas estas enseñanzas que impartió en Japón se derivaron de la observación
de las prácticas defectuosas de la gestión empresarial estadounidense. A pesar de que las técnicas
estadísticas se utilizan desde 1936, fueron abandonadas en la década de 1940 por considerarse
innecesarias debido a la gran demanda de productos.
Deming creía que la causa fundamental de la mala calidad residía en prácticas poco éticas
y una filosofía de gestión inadecuada. El estadístico Edwards W. Deming falleció en diciembre de
1993, pero su impacto en el campo de la estadística y el control de calidad todavía se siente hoy.
A lo largo de su vida, Deming se dedicó incansablemente a su trabajo, dejando un legado notable
que resuena en personas de todo el mundo. Las ideas de Deming enfrentaron críticas,
particularmente en relación con sus puntos de vista sobre la gestión organizacional, lo que llevó al
desarrollo de un nuevo método de gestión. Después de 1980, colaboró con varias empresas
estadounidenses destacadas, guiándolas en la implementación de sistemas de mejora de la calidad
y enseñándoles los principios de sus Catorce Puntos. A través de multitud de seminarios, Deming
pretendía convencer a las empresas de los beneficios de adoptar su filosofía, dejando tras de sí un
legado duradero que aún espera el reconocimiento total de su verdadero valor para la humanidad.
Pág. 16
En conclusión, la vida y obra de Edwards W. Deming estuvieron dedicadas al avance del
campo de la estadística y el control de calidad. Sus aportes a la filosofía de la calidad y sus
enseñanzas sobre la mejora continua han dejado una huella imborrable en el mundo. A pesar de su
fallecimiento, las ideas de Deming continúan dando forma a la forma en que las organizaciones
abordan el control y la gestión de calidad, un testimonio del profundo impacto que tuvo en este
campo.
Es importante señalar que tanto la filosofía como la metodología del enfoque de Deming
deben basarse en el método científico, teniendo en cuenta también el factor humano. En esencia,
la clave es trabajar sistemáticamente, sin perder nunca de vista la idea central dentro del proceso
de mejora de la calidad. Implementar un cambio basado en la teoría de Deming requiere la
adopción de una mentalidad revolucionaria dentro de la organización. Implica establecer objetivos
a mediano y largo plazo, adoptar un enfoque sistémico y considerar la dimensión humana de la
fuerza laboral. También implica repensar la estructura organizacional en función de procesos y
flujos.
Como primer paso en la implementación de un programa basado en los Catorce Puntos, las
organizaciones deben tomar conciencia de las llamadas Siete Enfermedades Fatales y los
obstáculos a la calidad que prevalecen en muchas organizaciones. Estas son prácticas comunes que
deben abordarse y superarse. El segundo paso implica adoptar la filosofía y metodología
propuestas por Deming, que no es un modelo único ni un conjunto de instrucciones rígidas. Más
bien, requiere un enfoque integral que involucre a toda la organización. Al tomar en consideración
una lectura descontextualizada de los Catorce Puntos, se puede argumentar que estas
recomendaciones, como afirma Deming, pueden parecer inicialmente un buen consejo. Sin
embargo, en muchas situaciones, no son fácilmente aplicables y pueden parecer tareas difíciles de
llevar a cabo, como se observa en seminarios o cursos.
Los participantes suelen expresar escepticismo sobre la viabilidad de adaptar un sistema
basándose en estas recomendaciones a menos que se realicen cambios significativos. Este fue
precisamente el enfoque adoptado por el propio Deming, quien, en una entrevista, reveló que
aconsejó a los japoneses en 1945 que si seguían sus recomendaciones verían resultados positivos
en cinco años, y le creyeron. Durante ese tiempo, las ideas de Deming no fueron bien recibidas en
Estados Unidos. Sin embargo, después de presenciar el éxito de las empresas japonesas y enfrentar
una situación de crisis en la década de 1980, la filosofía de Deming finalmente fue adoptada en su
país de origen. Actualmente existe un importante esfuerzo por parte de administradores, ingenieros
y promotores de calidad para promover las enseñanzas de Deming y adaptarlas a diversos modelos
de gestión mediante la creación de manuales y procedimientos.
En el enfoque de Deming, la participación de consultores externos juega un papel crucial
e indispensable. El individuo encargado de gestionar las tecnologías y metodologías para
implementar un sistema de mejora continua dentro de una organización debe ser quien diseñe una
Pág. 17
estrategia específica y supervise su implementación a lo largo de las distintas fases y componentes
vitales de la organización. Por lo tanto, los consultores a los que se les ha confiado esta
responsabilidad tienen un nivel significativo de responsabilidad y dedicación hacia la organización
que asesoran.
Cabe mencionar que los Catorce Puntos han sido adaptados y sirven como marco general
para las organizaciones, interpretando cada punto de manera que se adapte a sus actividades
específicas. Algunos de estos puntos pueden estar sujetos a controversia, pero en general han sido
reconocidos como una contribución significativa hacia un nuevo enfoque en la administración de
los procesos de producción y servicios. La ausencia de estadísticas es evidente en esta situación.
Sin embargo, Deming pudo revolucionar el concepto de control de calidad al enfatizar la
importancia del diseño y la operación del proceso en lugar de depender únicamente de las
inspecciones finales. Presentó un diagrama de flujo integral que incorporaba el proceso productivo
y destacó el papel crucial de las estadísticas en la identificación y resolución de problemas.
Tras un examen cuidadoso de la obra filosófica de Deming, resulta evidente que sus
enseñanzas tenían como objetivo reevaluar la importancia de la cultura estadística y disipar la
noción de soluciones rápidas, soluciones mágicas y modelos de moda. Destacó la importancia de
la educación, la formación y el método científico en el proceso de superación.
Desafortunadamente, a menudo se pasa por alto el alcance total de su legado, ya que sus propuestas
van más allá del mejoramiento personal para abarcar familias, organizaciones e incluso naciones.
En sus conferencias finales, Deming criticó la insuficiente atención prestada a la educación
en el desarrollo de las naciones, incluido su propio país, los Estados Unidos de América. Consideró
que la educación desempeñaba un papel crucial en el progreso social y pidió que se le prestara
mayor atención. Las enseñanzas de Deming giran en torno a la comprensión de que los procesos
exhiben inherentemente variabilidad. Sin embargo, creía que esta variabilidad puede explicarse y
controlarse mediante el uso de técnicas estadísticas apropiadas, lo que conduciría a mejoras en la
calidad. Ilustró este concepto a través de su famoso diagrama de reacción en cadena, demostrando
cómo las mejoras en la calidad tienen un impacto positivo en los indicadores de crecimiento de las
organizaciones.
Pág. 18
Es crucial enfatizar la importancia y utilidad de las estadísticas en el contexto de la
Revolución de la Calidad. Esta revolución no sólo es aplicable a los procesos de fabricación, sino
que abarca todo tipo de procesos, incluidos los servicios, la administración y la educación.
Comprender el proceso que se aborda es fundamental, y aquí es donde entran en juego las
herramientas básicas. Estas herramientas están diseñadas para identificar el proceso y sus
principales aspectos, y consisten en técnicas de recolección, organización, análisis e interpretación
de datos.
En el siglo XXI, es importante que los educadores y estudiantes de todos los niveles tengan
una visión integrada de la calidad. Todavía existen tendencias y enfoques que ven la calidad como
un área especializada reservada a los expertos. No obstante, con el aumento de la estandarización
y la certificación de procesos utilizando estándares internacionales ISO, es fundamental no pasar
por alto la importancia de la calidad. De hecho, ha ganado protagonismo un paradigma de mejora
continua y de implementación de sistemas de gestión de la calidad hacia la excelencia conocido
como Metodología Seis Sigma. Esta metodología se basa en un enfoque sistémico, metodología
científica y pensamiento estadístico.
La estadística, en este sentido, sirve como una herramienta poderosa en todos los niveles
de una organización. Por lo tanto, es deseable que los miembros de una organización tengan una
comprensión general de cuándo y cómo utilizar las herramientas estadísticas de manera efectiva y
cómo tomar decisiones informadas basadas en los resultados. A medida que el sistema de mejora
se vuelve más avanzado, aumenta la necesidad de más y mejores herramientas estadísticas. En
algunos casos, incluso puede ser necesario buscar la orientación de un experto en análisis
estadístico.
Existen determinadas corrientes que abogan por la importancia de la calidad y su principal
objetivo es inculcar una alta motivación en las personas. Sin embargo, estas corrientes a menudo
restan importancia a la importancia de las estadísticas y a los métodos necesarios para lograr
mejoras. Como resultado, las personas que están expuestas a estas "promociones positivas" pueden
sentirse frustradas cuando carecen del conocimiento y las herramientas para diagnosticar e
intervenir en el proceso. Esta contradicción entre el deseo de mejorar, que se encuentra
comúnmente en individuos y organizaciones, y la falta de una orientación adecuada pone de relieve
la necesidad de diferenciar entre un "predicador de calidad" y un asesor o formador que posee
tanto las ideas como las herramientas necesarias para mejorar.
Calidad
La dinámica sociocultural de la sociedad también ha desempeñado un papel significativo
en la formación de los patrones de consumo y la relación entre productores y consumidores. Estas
Pág. 19
dinámicas han llevado a cambios importantes en la forma en que percibimos y evaluamos la
calidad. El cliente, usuario o beneficiario puede interpretarse en un sentido amplio y puede referirse
a diferentes tipos de individuos. Por ejemplo, el cliente externo es la persona que compra, utiliza
o disfruta del producto o servicio final. Sin embargo, en algunos casos puede ser difícil determinar
quién es el cliente real. Así, una ama de casa que compra pañales para su bebé es la cliente externa,
pero el bebé es el usuario y beneficiario final. De manera similar, en el caso de un hospital privado
especializado en atención médica, el paciente a menudo se considera el cliente, cuando en realidad,
el cuerpo médico especializado es el cliente.
Existe una falta de consenso cuando se trata de definir la calidad debido a varios factores.
En primer lugar, la calidad no es un concepto absoluto y no se puede ver como un objetivo
independiente, es necesario considerar no solo el producto o servicio en sí, sino también las formas
en que se utiliza y se consumó determinar la calidad de algo implica "juicios de valor" subjetivos,
que pueden variar de una persona a otra. Además, el concepto de calidad se puede entender y
apreciar desde múltiples perspectivas y puntos de vista.
Desde el punto de vista de la producción, hay varios aspectos que se consideran en relación
con la calidad. Estos incluyen la reducción y eliminación de desperdicios, la eliminación de quejas,
la eliminación de operaciones de reprocesamiento, el cumplimiento de garantías y plazos de
entrega, cero defectos y la importancia de hacer las cosas bien desde el principio. En esencia, el
concepto de calidad es complejo y multifacético, con diferentes perspectivas, criterios y elementos
a considerar. Está influenciado por las dinámicas socioculturales y abarca varios conceptos
asociados.
Definir la calidad requiere entender las necesidades del cliente, usuario o beneficiario y
asegurar que el producto o servicio posea las características necesarias para satisfacer esas
necesidades. Al discutir sobre la calidad, entran en juego varios conceptos asociados, como la
perfección, la consistencia, la puntualidad, la satisfacción, la confiabilidad, el servicio, la atención,
la disponibilidad, la seguridad y la comodidad, entre otros. Cada uno de estos conceptos contribuye
a nuestra comprensión de la calidad y agrega complejidad a su definición.
Se reconocen diferentes criterios o puntos de vista al evaluar la calidad. Estos incluyen
criterios basados en el producto, criterios basados en el usuario, criterios basados en el valor y
criterios basados en la fabricación. Cada criterio ofrece una perspectiva única sobre la calidad y
enfatiza diferentes aspectos del producto o servicio. Asimismo, el producto o servicio es el
elemento clave que permite satisfacer las necesidades del cliente; y posee una variedad de
características y propiedades, que pueden variar en naturaleza, relevancia e importancia. Estas
características incluyen rendimiento, confiabilidad, apariencia, seguridad, durabilidad, facilidad
de reparación y mantenimiento, facilidad de uso, servicio al cliente, disponibilidad, cumplimiento,
garantías, instrucciones y documentación, relación costo-beneficio, compatibilidad, amigabilidad,
Pág. 20
comodidad, textura, sabor, olor, precisión, tamaño, peso, volumen, fidelidad, eficiencia, dureza,
pureza, exclusividad, elegancia, resistencia, flexibilidad y muchas otras.
En términos de definición, la norma ISO 8402 define la calidad como el conjunto de
propiedades o características de un producto o servicio que le permiten satisfacer necesidades
expresas o implícitas. Esta definición destaca la importancia de entender las necesidades del
cliente, usuario o beneficiario y asegurar que el producto o servicio posea las características
necesarias para satisfacer esas necesidades. Sin embargo, identificar estos elementos y comprender
sus interrelaciones puede ser desafiante, ya que a menudo son complejos y dinámicos.
El ciclo de la calidad
El Ciclo de la Calidad, se define como el proceso en el que un productor asegura la
idoneidad de un producto o servicio para su uso, abarca una serie de actividades que involucran
varios pasos, como realizar investigaciones de mercado para comprender las necesidades del
cliente o usuario, crear un producto o servicio que satisfaga esas necesidades, desarrollar procesos
de producción, adquirir recursos esenciales como talento, tecnología, equipos, materias primas e
insumos, ejecutar el fase de producción, inspeccionando las entradas y salidas del proceso
productivo para mantener el control de calidad, comercializando y vendiendo el producto o
servicio, y ofreciendo servicios postventa. La idea del ciclo de calidad, implica reformular
información o ideas de una manera que las haga más claras y fáciles de entender; esto es
particularmente importante en el ciclo de la calidad, ya que una comunicación precisa es vital para
la implementación exitosa de iniciativas de mejora de la calidad.
La calidad del diseño es un aspecto fundamental para garantizar la satisfacción del cliente.
Para satisfacer las expectativas de los clientes, las organizaciones deben identificar su público
objetivo y comprender sus necesidades, lo que permite diseñar productos o servicios que se alineen
con las expectativas del cliente incorporando los atributos requeridos y garantizando el
cumplimiento de las demandas del cliente. Así, el objetivo de cualquier sistema de calidad es
proporcionar satisfacción continua al cliente, lográndolo mediante el aseguramiento de la calidad,
que abarca acciones planificadas y sistemáticas para garantizar que los productos o servicios
cumplan con los requisitos de calidad establecidos.
Por lo tanto, al implementar medidas de garantía de calidad, las organizaciones pueden
infundir confianza en sus productos o servicios y mantener la satisfacción del cliente. Asimismo,
la calidad del suministro juega un papel fundamental en el mantenimiento de la calidad general del
producto, implicando establecer una comunicación efectiva con los proveedores e implementar
procedimientos para asegurar el cumplimiento de las especificaciones de las materias primas e
insumos necesarios para la producción. Al mantener relaciones sólidas con los proveedores y
monitorear la calidad de los insumos, las organizaciones pueden garantizar la calidad de sus
productos finales.
Pág. 21
Así, un sistema integral de gestión de la calidad abarca varios elementos como
procedimientos, calidad del diseño, aseguramiento de la calidad, calidad del proceso, servicio al
cliente, estructura organizacional, cultura de la calidad, calidad del suministro, registros de calidad
y calidad de conformidad. Al implementar e integrar eficazmente estos elementos dentro de una
organización, las empresas pueden lograr resultados de calidad consistentes, garantizando la
satisfacción del cliente y manteniendo una ventaja competitiva en el mercado. Por último, la
calidad de conformidad se refiere al cumplimiento continuo de las especificaciones y
características requeridas por el producto. Implica monitorear y mantener continuamente la calidad
del producto para cumplir con los estándares deseados.
Al evaluar y ajustar constantemente los procesos, las organizaciones pueden garantizar que
sus productos cumplan constantemente con las expectativas de los clientes y cumplan con los
requisitos de calidad. La integración de estos elementos de calidad dentro de una organización da
lugar al concepto de sistema de calidad. Según la norma ISO 8402, un sistema de calidad se define
como la estructura organizativa de responsabilidades, procedimientos, procesos y recursos
establecidos para llevar a cabo la gestión de la calidad. Este sistema garantiza que la calidad se
gestione eficazmente en todos los niveles de la organización, promoviendo la coherencia y el
cumplimiento de los estándares de calidad.
Los registros de calidad también son esenciales para mantener la integridad del sistema de
calidad; y definen los procedimientos, formatos y métodos de almacenamiento de la
documentación relacionada con la calidad. Al mantener registros precisos y organizados, las
organizaciones pueden rastrear y monitorear la calidad de sus productos o servicios, asegurando
que cumplan constantemente con los estándares deseados.
La calidad del proceso es otro factor crucial para lograr los resultados de calidad deseados.
Es esencial diseñar e implementar procesos de producción efectivos que entreguen
consistentemente productos de alta calidad, requiriendo establecer procesos eficientes que
garanticen la producción de productos con los atributos requeridos. Al centrarse en la calidad del
proceso, las organizaciones pueden garantizar la producción de productos confiables y
satisfactorios.
La implementación de un sistema de calidad requiere componentes específicos. En primer
lugar, las organizaciones deben definir su estrategia, objetivos y políticas de calidad para garantizar
que la concepción de calidad sea compartida por todos sus miembros. Además, el sistema de
calidad requiere el diseño de una estructura organizacional que defina claramente
responsabilidades, niveles de autoridad y formas de relación con otras unidades y áreas de la
empresa.
Construir una cultura de calidad dentro de la organización también es crucial para la mejora
continua, esto se trata de diseñar y ejecutar acciones para promover una cultura de calidad en todos
Pág. 22
los niveles y áreas de la organización, puesto que al inculcar una cultura de calidad, las
organizaciones pueden esforzarse continuamente por lograr la mejora y la excelencia. Entonces,
se tiene que en torno a la calidad del producto, las organizaciones también deben priorizar un
servicio al cliente de calidad para garantizar la satisfacción del cliente, implicando diseñar e
implementar sistemas de información y procesos de comunicación que brinden soporte, atención,
resolución de problemas y asesoramiento oportuno a los clientes durante todo su recorrido, desde
la reventa hasta la posventa. Al fomentar relaciones sólidas con los clientes y abordar sus
necesidades de manera efectiva, las organizaciones pueden mejorar la satisfacción y lealtad del
cliente.
Los procedimientos desempeñan un papel crucial en el mantenimiento de una gestión de
calidad coherente dentro de las organizaciones, puesto que describen los pasos y actividades
necesarios para diversos procesos, asegurando que las operaciones se lleven a cabo de manera
eficiente y efectiva. Dependiendo de la estructura organizacional, los procedimientos se clasifican
en diferentes niveles, que van desde procedimientos de nivel gerencial que involucran
planificación y establecimiento de objetivos, hasta procedimientos de nivel operativo que
pertenecen a actividades específicas de producción, compras y ventas.
La utilización de métodos estadísticos en el control de calidad se remonta hasta la década
de 1930 en los Laboratorios Bell de Estados Unidos, cuando el Dr. W. A Shewhart introdujo un
gráfico de control. Este enfoque de control de calidad se adoptó ampliamente durante la Segunda
Guerra Mundial, ya que ayudó a optimizar la producción en las industrias norteamericanas.
Posteriormente, Japón adoptó este método y su implementación mejoró enormemente la
fabricación de diversos productos, lo que llevó a un aumento significativo de las exportaciones del
país. Los estándares industriales japoneses definen el control de calidad como un sistema de
métodos de producción que produce económicamente bienes o servicios de alta calidad,
cumpliendo con los requisitos del consumidor. En la actualidad el enfoque moderno del control de
calidad incorpora métodos estadísticos y comúnmente se lo conoce como control de calidad
estadístico.
Este cambio de enfoque ha llevado a que las actividades de control de calidad sean
manejadas principalmente por niveles de supervisión y ha llamado la atención de la dirección de
las empresas, cambiando por completo sus concepciones sobre la administración. Figuras
influyentes en este movimiento, como el Dr. W. Edwards Deming, el Dr. J. M. Juran y el Dr. Kaoru
Ishikawa, han introducido conceptos novedosos, incluida la consideración de los clientes como
parte del proceso y la implementación de círculos voluntarios de control de calidad. Asimismo, se
han utilizado herramientas estadísticas relativamente simples para tomar decisiones más racionales
en lugar de confiar únicamente en la intuición.
El control estadístico de calidad en su forma japonesa se centra principalmente en el control
de procesos, lo que implica investigación de mercado, diseño, producción y ventas. El enfoque
Pág. 23
difiere de los métodos tradicionales de control de calidad que se basan únicamente en la inspección
de los productos terminados. Según K. Ishikawa, si las empresas pueden evitar la producción de
artículos defectuosos desde el principio controlando los factores del proceso que causan los
defectos, pueden ahorrar una cantidad significativa de dinero que de otro modo se gastaría en
inspección.
Ishikawa clasifica estas herramientas como métodos estadísticos elementales debido a su
facilidad de uso, incluyen:
teoría del muestreo,
inspección estadística por muestreo,
estimaciones y pruebas estadísticas,
pruebas sensoriales y
diseño de experimentos.
Los métodos estadísticos avanzados incluyen:
métodos avanzados de diseño experimental,
análisis multivariado e
investigación de operaciones.
Se aplica control estadístico en cada fase, considerando la variabilidad natural del proceso,
proporcionando a los decisores la información necesaria para tomar decisiones ante variaciones
que no son inherentes al sistema. También permite a la gerencia innovar y realizar cambios que
reduzcan la variabilidad natural, mejorando así continuamente la calidad en función de los
requisitos del consumidor final.
Las herramientas fundamentales para lograrlo son: los gráficos de control, que son el foco
de este trabajo. En cuanto a la aceptación de lotes mediante planes de muestreo, el Dr. Deming
destaca su importancia afirmando que parafraseando: es un aspecto importante para considerar en
las prácticas de control de calidad. Implementar prácticas de control de calidad según este marco
significa ejercer control en cada fase del proceso de producción, expandiendo el concepto de
calidad más allá de un solo componente a toda la cadena de producción.
Cada grupo de trabajo involucrado en agregar valor a las materias primas se convierte en
“cliente” del grupo anterior y atiende al siguiente hasta llegar al consumidor final. Ishikawa destaca
que hasta el 95% de los problemas de una empresa se pueden resolver utilizando estas
herramientas. Algunas de estas herramientas incluyen el diagrama de Pareto, que sigue el principio
vital de pocos y trivial de muchos, el diagrama de causa y efecto (también conocido como diagrama
Pág. 24
de espina de pescado), estratificación, hojas de verificación, hojas de verificación, diagramas de
dispersión y gráficos de control (que se originan a partir de Shewart).
La Variabilidad: pensamiento estadístico
La variabilidad es algo común en nuestra vida diaria, lo experimentamos en varios
aspectos, como el tiempo que lleva viajar de casa al trabajo o la escuela, la temperatura ambiente
fluctuante a lo largo del día e incluso el dulzor inconsistente de una bebida preparada en casa. La
variación no se limita a las experiencias personales, sino que también existe dentro de los procesos
de las empresas, razón por la cual el control estadístico de los procesos es crucial. No sólo es
importante determinar la tendencia central, o media, de un proceso sino también comprender su
variabilidad.
Para ilustrar la importancia de los procesos de baja variación, consideremos dos empresas
que ofrecen el mismo producto. La empresa A tarda entre 10 y 22 días en procesar los pedidos,
mientras que la empresa B tarda entre 13 y 19 días. Aunque ambas empresas tienen el mismo
tiempo promedio de cumplimiento de 16 días, los clientes de la Empresa B tendrían menos
incertidumbre sobre cuándo se completarían sus pedidos debido a la menor variación en el proceso.
En la búsqueda de mejorar la calidad y la productividad de los procesos, como lo defiende la
metodología Six Sigma
1
, las técnicas y el pensamiento estadístico son invaluables. Estas técnicas
proporcionan metodologías que ayudan en la planificación, el análisis y la toma de decisiones.
Al utilizar herramientas estadísticas, podemos identificar áreas problemáticas, analizar
datos para comprender las fuentes de variabilidad, detectar anomalías y evaluar objetivamente el
impacto de las acciones. Este enfoque nos permite centrarnos en los problemas y causas más
críticos, analizar las mejoras sistemáticamente y basar las decisiones en datos fácticos en lugar de
creencias o experiencias personales. Cada una de las 6 M
2
introduce su propia variación en un
proceso. Por ejemplo, los materiales utilizados pueden no ser idénticos y las personas involucradas
pueden poseer diferentes habilidades y niveles de capacitación. Por lo tanto, se hace necesario
comprender y minimizar la variación asociada con cada una de las 6 M. Además, el monitoreo
continuo de los procesos es vital, ya que pueden ocurrir cambios en las 6 M con el tiempo.
Los cambios pueden incluir la introducción de materiales inadecuados, errores humanos,
desequilibrios de las máquinas y deterioro de las herramientas. Para monitorear eficazmente los
procesos y detectar cambios, comúnmente se utilizan gráficos de control. Por ejemplo, en un
1
Six Sigma es un enfoque muy eficaz para mejorar los procesos de negocio que tiene como objetivo aportar
coherencia y reducir las inconsistencias en el producto final. Es una metodología sólida que las organizaciones
adoptan para perfeccionar sus operaciones y lograr resultados óptimos. Al implementar Six Sigma, las empresas
pueden optimizar eficazmente sus procesos, minimizar las variaciones y, en última instancia, mejorar la calidad
de su resultado final.
2
Están conformada por: los materiales, la mano de obra, las mediciones, el medio ambiente, las máquinas y los
métodos que conforman un proceso.
Pág. 25
hospital se lleva un registro del tiempo que los pacientes esperan para ser atendidos, esto se puede
analizar de la siguiente forma: se toma una selección aleatoria de 40 tiempos de espera y los
resultados pueden variar mucho. Los tiempos de espera oscilaron entre 0,7 minutos y 18,1 minutos.
Aunque el tiempo de espera promedio se calculó en 11,1 minutos, es evidente que existe una
variación significativa entre los tiempos de espera de los clientes.
Reducir la variación del proceso es un objetivo principal del control estadístico y Six
Sigma. Para lograrlo, es esencial comprender los factores que contribuyen a la variación. En
cualquier proceso, ya sea industrial o administrativo, la interacción de materiales, máquinas, mano
de obra, mediciones, entorno y métodos influye en la variabilidad y calidad del resultado del
proceso. Estos seis elementos, conocidos como las 6 M, determinan colectivamente el resultado
de cada proceso.
El pensamiento de tipo estadístico
El concepto de pensamiento estadístico abarca una filosofía que gira en torno a tres
principios fundamentales: el reconocimiento de que todo trabajo se lleva a cabo dentro de un
sistema de procesos interconectados, la comprensión de que existe variación en todos los procesos
y la creencia de que comprender y reducir esta variación es crucial para lograr el éxito. Para pensar
estadísticamente, uno debe recopilar información sobre un proceso para comprenderlo y luego
actuar de acuerdo con ese conocimiento adquirido:
El primer principio del pensamiento estadístico enfatiza la naturaleza interconectada de los
procesos internos. Destaca que los procesos no operan de forma aislada; en cambio,
interactúan con el sistema más grande. Esto resalta la importancia de considerar cómo se
relaciona un proceso con el resto del sistema. No tener esto en cuenta puede tener
consecuencias no deseadas, ya que la optimización de una parte del sistema puede tener
efectos perjudiciales en otros componentes. Por lo tanto, es necesario un enfoque holístico
para garantizar la eficiencia y eficacia generales del sistema.
El segundo principio reconoce el hecho de que los resultados de todos los procesos están
sujetos a variación, como hemos discutido anteriormente y continuaremos explorando a lo
largo de este libro.
El tercer principio, se centra en minimizar la variabilidad para alcanzar el nivel deseado de
calidad Six Sigma.
El desafío importante radica en alentar a las empresas a adoptar la filosofía del pensamiento
estadístico, ya que no sólo facilita una mejor comprensión de la realidad con su variación inherente
sino que también permite una dirección más efectiva de los esfuerzos de mejora.
La solución de problemas en el ciclo de calidad
Pág. 26
Para mejorar la calidad y abordar eficazmente los problemas persistentes y de larga data,
es fundamental adherirse a una metodología bien estructurada que profundice en las causas
fundamentales de los problemas importantes en lugar de limitarse a abordar los síntomas y las
consecuencias. Muchos métodos de resolución de problemas se inspiran en el ciclo de la calidad
o ciclo PHVA (planificar, hacer, verificar, actuar). Este enfoque implica desarrollar un plan
detallado para abordar el problema, implementarlo a pequeña escala o mediante pruebas, evaluar
si se han logrado los resultados deseados y evaluar el alcance de las mejoras. Con base en este
análisis, se toman las acciones apropiadas, como ampliar el plan exitoso, implementar medidas
preventivas para garantizar que las mejoras sean sostenidas o revisar el plan si los resultados no
son satisfactorios. Este proceso iterativo permite la mejora continua. El ciclo PHVA se puede
dividir en ocho pasos o actividades:
El primer paso en el proyecto de mejora es elegir y definir cuidadosamente el problema en
cuestión. Esto implica identificar un problema importante, determinar su alcance e
importancia y comprender su impacto en los clientes internos y externos. Los datos
estadísticos son cruciales para cuantificar la frecuencia con la que ocurre el problema, al
mismo tiempo que brindan información sobre el costo anual estimado asociado con él. Una
vez que el problema se caracteriza completamente, se establece el objetivo del proyecto de
mejora y se reúne un equipo dedicado de personas para abordar el problema de frente.
Para identificar eficazmente la causa raíz de un problema, es importante explorar a fondo
todas las causas potenciales sin entablar discusiones sobre ellas. Esto se puede lograr
mediante la aplicación de una sesión de lluvia de ideas. Durante esta sesión, es fundamental
centrarse en hechos generales en lugar de detalles específicos. Por ejemplo, si el problema
en cuestión implica el rechazo de lotes debido a su mala calidad, es más beneficioso
preguntar acerca de las razones detrás del rechazo general de los lotes, en lugar de centrarse
en un lote en particular. Al adoptar este enfoque, se puede lograr una comprensión integral
de todas las causas posibles.
El tercer paso implica realizar una investigación en profundidad sobre las posibles causas
identificadas en el paso anterior. El objetivo es determinar las causas más significativas de
la lista. Siempre que sea posible, se deben utilizar técnicas de análisis estadístico como el
análisis de Pareto o la estratificación para hacer esta determinación. En los casos en que el
análisis estadístico no sea factible, se puede emplear un enfoque de consenso o votación,
similar a la técnica de lluvia de ideas. Al final de este paso, el equipo debería haber
identificado las causas específicas que serán objeto de acciones correctivas para abordar el
problema de manera efectiva.
En el cuarto paso del proceso de resolución de problemas, es importante considerar la
posibilidad de tomar medidas correctivas. Durante este paso, es necesario determinar las
acciones específicas que se tomarán para cada causa que requiere acción. Es crucial
Pág. 27
encontrar medidas que aborden la causa raíz del problema y modifiquen la estructura
subyacente, en lugar de optar por soluciones superficiales que solo aborden los síntomas.
Para identificar las soluciones adecuadas para cada causa, es útil consultar los análisis
realizados en el paso anterior o participar en una sesión de lluvia de ideas para generar
ideas. Para cada causa, es importante brindar información detallada sobre las soluciones,
incluyendo el objetivo que se pretende lograr, dónde se implementarán, quién será el
responsable de llevarlas a cabo, un plan detallado que describa cómo se ejecutarán, el costo
estimado costo asociado con la implementación de la solución, el método para verificar su
efectividad y cualquier efecto secundario esperado que pueda surgir. Tomar estos pasos
garantizará que las medidas correctivas elegidas sean exhaustivas, efectivas y tengan un
impacto positivo en la resolución del problema en cuestión.
El paso cinco implica la implementación de medidas correctivas. Es crucial llevar a cabo
estas medidas según lo acordado de antemano, comenzando con un ensayo a pequeña
escala. Además, se recomienda encarecidamente cumplir estrictamente el plan desarrollado
en el paso anterior e involucrar a todas las personas afectadas por las medidas. También es
importante proporcionar una comunicación y explicación clara de los objetivos que se
persiguen a través de estas medidas correctivas. Si surge la necesidad de realizar
modificaciones al plan original, es imperativo obtener el acuerdo del equipo del proyecto
responsable de su ejecución.
Revisión de resultados. Aquí es necesario comprobar con datos estadísticos si las medidas
correctivas funcionaron. Una forma práctica es hacer una comparación estadística de la
magnitud del problema antes y después de tomar medidas. Si se encuentra resultados
positivos, deben cuantificarse en términos monetarios (si es posible).
Para evitar que vuelva a ocurrir el mismo problema, es importante revisar y evaluar
minuciosamente todas las acciones tomadas. Si las soluciones implementadas no dieron el
resultado deseado, es necesario analizar cuidadosamente todo lo que se hizo, aprender de
ello, reflexionar sobre las lecciones aprendidas y sacar conclusiones significativas. A partir
de esta reflexión, es crucial empezar de nuevo con un enfoque renovado. Por otro lado, si
las soluciones resultan efectivas, es esencial analizar y estandarizar la aplicación de esas
medidas correctivas. Asimismo, es vital acordar e implementar acciones para garantizar
que el problema no se repita en el futuro. Esto puede implicar estandarizar la nueva forma
de operar el proceso, documentar el procedimiento y establecer un sistema sólido de control
o monitoreo del proceso para garantizar la prevención continua del problema.
La conclusión, el paso final del proceso implica una revisión y documentación exhaustiva
de todo lo que se ha logrado. Esto incluye cuantificar los resultados y evaluar el logro de
los objetivos del proyecto, tanto mensurables como no mensurables. Además, es esencial
identificar cualquier causa o problema persistente que aún pueda persistir y sugerir posibles
Pág. 28
soluciones para abordarlos. Por último, es crucial compilar una lista de los beneficios
indirectos e intangibles que se han logrado mediante la implementación del plan de mejora.
Este paso garantiza que todos los aspectos del proyecto se analicen y documenten
minuciosamente, proporcionando una comprensión integral del éxito general y el impacto
de los esfuerzos de mejora.
Estos ocho pasos, cuando se aplican a problemas recurrentes o proyectos de mejora, pueden
parecer inicialmente una carga adicional con desviaciones innecesarias. Sin embargo, a largo
plazo, tienen el potencial de aliviar la necesidad de diversas actividades que actualmente no tienen
ningún impacto positivo en la calidad. En términos más simples, al seguir estos ocho pasos, el
enfoque pasa de la cantidad de acciones inmediatas a la calidad de esas acciones, lo que resulta en
soluciones más efectivas e impactantes. Es esencial que la adopción de estos ocho pasos se
convierta en una práctica habitual que sea fomentada y adoptada por todos los individuos dentro
de la empresa, independientemente de su puesto o nivel de gestión.
La estadística descriptiva
Para determinar si un proceso está funcionando bien, es importante asegurarse de que las
variables de salida o respuesta cumplan con ciertos objetivos y especificaciones. Para ello, el
control de calidad se centra en comprender la capacidad o habilidad del proceso; lo que implica
determinar el alcance de la variación natural en el proceso para una característica de calidad
específica. Al estudiar técnicas de estadística descriptiva se logra comprender mejor la capacidad
del proceso y determinar si la característica de calidad es satisfactoria, siendo particularmente
útiles estas técnicas al momento de analizar variables continuas.
En la realización de un estudio de capacidad, normalmente es necesario recopilar datos del
proceso durante un período prolongado, y la duración dependerá de la velocidad del proceso. Para
procesos de alta velocidad que generan una gran cantidad de productos cada día, comúnmente se
utiliza un período de referencia de cuatro a 10 días, muestreando una pequeña porción de los
productos producidos en intervalos específicos, con un tamaño de muestra total que oscila entre
120 y 150. Por otro lado, para procesos más lentos que producen sólo unos pocos productos por
día, el período de estudio necesita ampliarse para reunir un tamaño de muestra de al menos 50 o
60 productos. En ambos casos, recopilar más datos durante un período de tiempo más largo permite
una mejor comprensión del verdadero desempeño del proceso.
La medidas de tendencia central
Al analizar mediciones de una característica de calidad, el primer aspecto a explorar es
determinar la tendencia central de los datos. Esto implica identificar un valor que represente el
valor promedio o típico alrededor del cual los datos tienden a agruparse. Este conocimiento es
Pág. 29
crucial para comprender si el proceso está enfocado o no. En otras palabras, ayuda a determinar si
la tendencia central de la variable de salida se alinea estrechamente con un valor nominal deseado.
La media muestral
Cundo se tiene un conjunto de observaciones numéricas x1, x2, x3,..., xn que representan
una muestra. Para determinar la tendencia central de esta muestra, generalmente se utiliza la media
(o promedio) muestral, que se calcula encontrando la media aritmética de todos los puntos de
datos: la suma de x1, x2,.. xn dividida por el número total de puntos de datos n. Sumando todos
los datos y dividiéndolos por n, obtenemos la media muestral.
Por ejemplo:
En la anterior tabla que mide el grosos de los discos producidos, la media de los datos es
𝑋= 1,179 mm, lo que indica que el espesor promedio de los discos de muestra es 1,179 mm. Sin
embargo, es importante señalar que esto no significa que todos o la mayoría de los discos tengan
un espesor de 1.179 mm. De hecho, ninguno de los discos del ejemplo tiene tal espesor. En este
caso particular, donde la media de la muestra se deriva de una muestra grande en el lapso de una
semana, podemos inferir que el proceso podría estar ligeramente sesgado hacia valores más bajos
o desplazado hacia la izquierda, ya que el objetivo deseado para el espesor es 1,20 mm.
La Media poblacional o del proceso, μ
Pág. 30
Al calcular la media utilizando todos los elementos de la población, lo que se refiere a todos
los indicadores posibles, implica considerar todos los individuos, especímenes, objetos o
mediciones de interés en un estudio. Por ejemplo, esto podría incluir el espesor de todos los discos
producidos en un período de tiempo determinado. La media calculada en este caso se conoce como
media del proceso o media poblacional, representada por la letra griega μ (mu). Es importante
tener en cuenta que la media del proceso μ representa un valor específico, aunque no siempre se
conoce. Por otro lado, el valor de 𝑋 , se obtiene para cada muestra y varía de una muestra a otra,
ya que depende de las piezas concretas seleccionadas. 𝑋 se considera una variable y aleatoria.
Debido a esto, el valor observado de la media de la muestra es diferente de la media del proceso
μ.
Es fundamental tener cuidado al hacer afirmaciones basadas en la media muestral 𝑋, ya
que es posible que no representen con precisión la media de todo el proceso o la población.
Generalmente, las observaciones realizadas a partir de estadísticas muestrales reflejan el
comportamiento de los datos dentro de la propia muestra. Cuando la muestra es representativa y
grande, estas observaciones pueden proporcionar un cierto grado de aproximación a todo el
proceso. Sin embargo, es necesario utilizar técnicas estadísticas para evaluar el significado general
de estas observaciones dentro de todo el proceso.
La mediana o el percentil 50
La mediana X~ es otra forma de medir la tendencia central de un conjunto de datos. Es el
valor que divide los datos por la mitad cuando se ordenan de menor a mayor. El cálculo de la
mediana depende de si el número de puntos de datos es par o impar. Si es impar, la mediana es el
valor medio de la lista ordenada. Si es par, la mediana se calcula hallando el promedio de los dos
valores medios. Por ejemplo, en la tabla anterior, se determina que la mediana es 1,18 mm. Esto
significa que el 50% de los espesores de los discos de la muestra son menores o iguales a 1,18 mm,
mientras que el otro 50% son mayores o iguales a este valor.
La moda
La moda, que representa el punto de datos que aparece con más frecuencia. Si hay varios
puntos de datos con la misma frecuencia más alta, cada uno de ellos se considera una moda y el
conjunto de datos se denomina multimodal. Un factor importante por considerar al utilizar la media
es su susceptibilidad a datos extremos o atípicos. Por ejemplo, al calcular la media y la mediana
para el siguiente conjunto de datos: 100, 300, 1000, 1500, 800, 1600, 1100, la media es 1200 y la
mediana es 1100. Sin embargo, si agregamos un valor atípico como 2000, la media cambia
drásticamente a 2000, mientras que la mediana no se ve afectada. Esta situación no es aplicable
cuando la distribución de datos está sesgada. Por tanto, en tales casos, la mediana es una medida
de tendencia central más fiable. Con base en las observaciones anteriores, es crucial considerar
Pág. 31
tanto la media como la mediana, junto con la moda, al describir la tendencia central de un conjunto
de datos.
Cuando la media difiere significativamente de la mediana, indica la presencia de datos
atípicos o un sesgo significativo. En estas situaciones, es preferible informar la mediana como
medida de tendencia central e investigar la causa de los datos atípicos, ya que podría revelar ideas
importantes sobre el proceso subyacente. En el ejemplo de las medidas del disco, solo hay un modo
que es 1,17. Esta medición en particular ocurrió con mayor frecuencia, apareciendo 23 veces. Por
lo tanto, en este ejemplo, la media es 1,179, la mediana es 1,18 y la moda es 1,17. Es importante
señalar que la media a menudo se confunde con dividir los datos por la mitad o ser el punto de
datos más frecuente. Esta confusión surge al mezclar el concepto de media con el de mediana y
moda, respectivamente.
Las medidas de tendencia central, como la media, la mediana y la moda, no son suficientes
para determinar la calidad de un conjunto de datos. Por ejemplo, se requiere que un dato tenga una
longitud entre 800 ± 5. Para comprobar si se cumple este requisito, se toma una muestra aleatoria
grande y se obtienen los siguientes estadísticos: la media (X–) es 801 , la mediana (X~) es 801 y
la moda es 800. Según estas estadísticas, se podría suponer que los datos cumplen con las
especificaciones. Sin embargo, esta suposición puede no ser exacta porque la muestra podría
contener puntos de datos que van desde 750 a 850, con un promedio de 801. Por otro lado, el rango
de variación dentro de los datos podría ser tan estrecho como 797 a 803, aun cumpliendo las
especificaciones. Esto demuestra que las medidas de tendencia central por solas son insuficientes
como criterio de calidad porque no consideran la dispersión o dispersión de los datos, lo cual es
crucial para evaluar la calidad.
Las Medidas de dispersión o variabilidad
Para comprender completamente un conjunto de datos, es importante no sólo conocer la
tendencia central sino también comprender cuánto se desvían los valores entre sí. Esta medida de
variabilidad o dispersión es crucial para evaluar la capacidad del proceso. En este sentido, existen
cuatro métodos comúnmente utilizados para cuantificar la variabilidad. Aquí, x1, x2,..., xn
representan las observaciones numéricas de la muestra, n representa el tamaño de la muestra y x
denota la media de la muestra. La desviación estándar, S, esencialmente mide la distancia promedio
entre cada punto de datos y la media.
Por tanto, un valor mayor de S indica una mayor variabilidad en los datos. Es importante
tener en cuenta que la desviación estándar se expresa en las mismas unidades de medida que los
Pág. 32
datos (por ejemplo, gramos, milímetros). Además, la desviación estándar no proporciona
información sobre la magnitud de los datos; únicamente refleja qué tan lejos está cada punto de
datos de la media. De manera similar a la media, la desviación estándar está influenciada por
valores atípicos en los datos.
La Desviación estándar poblacional o del proceso, σ
Si la desviación estándar se calcula utilizando todos los elementos de la población o
proceso, se la denomina desviación estándar de la población, denotada con la letra griega sigma
(σ). Esto se puede lograr considerando como población las mediciones de toda la producción de
las últimas semanas u obteniendo los parámetros poblacionales (μ y σ) utilizando una gran cantidad
de mediciones tomadas como muestras, que generalmente oscilan entre 120 y 150 mediciones.
Esto se considera una buena cantidad de mediciones.
El coeficiente de variación, CV, es una medida de variación que tiene en cuenta la magnitud
de los datos. Compara la desviación estándar relativa a la media de los datos y se calcula de la
siguiente manera: CV = (S/ x) * 100. El CV es particularmente útil para comparar la variación de
variables que se miden en diferentes escalas o unidades, como metros versus segundos.
Por otro lado, el cuadrado de la desviación estándar, S2, se conoce como varianza muestral
y es crucial para la inferencia estadística. De manera similar, σ2 representa la varianza poblacional.
Otra medida de dispersión es el rango o camino, R, que calcula la diferencia entre los puntos de
datos más grandes y más pequeños de un conjunto de datos. El rango indica el grado de variación
de los datos y no está influenciado por la magnitud de los datos. Por ejemplo, si tenemos dos
conjuntos de datos: A = {10, 12, 14} y B = {159, 161, 163}, es evidente que las magnitudes de los
datos son diferentes, reflejado por sus respectivas medias de 12 y 161. Sin embargo, en términos
de variabilidad, ambos conjuntos de datos exhiben el mismo nivel de dispersión, como lo indica
la desviación estándar de 2 y el rango de 4 en ambos casos.
Relación entre 𝑿 y S: interpretación de la desviación estándar
Para comprender claramente la importancia de la desviación estándar como medida de cuán
dispersos están los datos alrededor del promedio, es necesario examinar la relación entre la media
y la desviación estándar. Esta relación puede explicarse mediante la desigualdad de Chebyshev y
la regla empírica. La desigualdad de Chebyshev proporciona dos hechos importantes: primero,
entre la media menos dos veces la desviación estándar y la media más dos veces la desviación
estándar, al menos el 75% de los datos muestrales estarán dentro de este rango. En segundo lugar,
dentro de este rango, existe la garantía de que no habrá valores que estén más alejados de la media
que este rango. La regla empírica, por otro lado, se basa en observaciones prácticas y establece
que en muchos conjuntos de datos de la vida real, los siguientes patrones son válidos:
aproximadamente el 68% de los datos de la muestra se encuentran dentro de una desviación
Pág. 33
estándar de la media en cualquier dirección, aproximadamente. El 95% se encuentra dentro de dos
desviaciones estándar y aproximadamente el 99,7% se encuentra dentro de tres desviaciones
estándar. Estos principios nos ayudan a comprender hasta qué punto los puntos de datos se desvían
del promedio y brindan información valiosa sobre la distribución del conjunto de datos.
Los intervalos mencionados anteriormente solo son aplicables a los datos de muestra y no
necesariamente se aplican a toda la población o proceso. Sin embargo, si los intervalos se calculan
utilizando el promedio y la desviación estándar de toda la población o proceso, entonces serán
válidos para toda la población. Por tanto, si se dispone de muestras aleatorias grandes y
representativas, los intervalos anteriores pueden proporcionar una comprensión aproximada de lo
que ocurre en el proceso.
El teorema de Chebyshev se aplica a todo tipo de datos, independientemente de su
comportamiento o distribución. La regla empírica, por otro lado, se derivó mediante observación
empírica y es más aplicable a casos que exhiben una distribución normal o de campana. Sin
embargo, ambos conceptos ilustran efectivamente cómo la desviación estándar mide la
variabilidad alrededor de la media. En el caso de los datos del espesor del disco, la aplicación de
la regla general revela que casi el 99% de las mediciones se encuentran dentro del rango de 1.098
a 1.260 mm. Este cálculo se deriva de restar 3 veces la desviación estándar (0,027) de la media
(1,179) para obtener el límite inferior de 1,098 y sumar 3 veces la desviación estándar a la media
para obtener el límite superior de 1,260. Al comparar estos límites con las especificaciones (EI =
1,10 y ES = 1,30), resulta evidente que 1,098 cae por debajo de la especificación inferior, lo que
indica que el proceso de inyección tiene una capacidad limitada para cumplir con las
especificaciones.
Límites reales o naturales
En un proceso, los límites reales o naturales representan el rango dentro del cual puede
variar el resultado del proceso; se determinan mediante la fórmula: Límite real inferior (LRI) = μ
y Límite real superior (LRS) = μ + 3σ. El cálculo de estos límites se basa en la regla empírica,
que se alinea con las propiedades de la distribución normal. En un estudio de capacidad, estos
límites reales se comparan con las especificaciones de calidad para una característica particular.
Por ejemplo, si la característica de calidad debe tener dimensiones de 800 ± 5, la especificación
inferior sería 795 y la especificación superior sería 805. Si se sabe que la media y la desviación
estándar para esta característica son μ = 800,6 y σ = 1,2 respectivamente, los límites reales serían:
LRI = 800,6 3(1,2) = 797,0 y LRS = 800,6 + 3(1,2) = 804,2. Por lo tanto, se espera que esta
característica de calidad oscile entre 797,0 y 804,2, con una media de 800,6. Al comparar estos
límites con las especificaciones, si los límites reales caen dentro del rango especificado, se puede
concluir que el proceso es capaz de cumplir con las especificaciones dadas.
Pág. 34
Los Histogramas y tablas de frecuencias
En los párrafos anteriores, se discutió la importancia de comprender la tendencia central y
la dispersión de un conjunto de datos para fines de análisis. Ahora, exploraremos cómo el
histograma y la tabla de frecuencia pueden ayudarnos a visualizar estos aspectos y obtener
información sobre la distribución de los datos dentro de su rango. El histograma, que consta de
barras, proporciona una representación gráfica de los datos o la distribución de variables. Clasifica
los datos en función de su magnitud en varios grupos o clases, estando cada clase representada por
una barra proporcional a la frecuencia de los valores que representa. Normalmente, el eje
horizontal muestra una escala numérica que indica la magnitud de los datos, mientras que el eje
vertical representa las frecuencias.
El histograma se deriva comúnmente de la tabla de frecuencia, que implica dividir el rango
de variación de los datos en un número específico de intervalos que abarcan todo el rango. Dentro
de cada intervalo, se determina la cantidad de datos que caen en él. Generalmente se recomienda
tener entre 5 y 15 intervalos o clases. Para determinar el número específico dentro de este rango,
hay varios criterios a considerar. Por ejemplo, un criterio sugiere que el número de clases debe ser
aproximadamente igual a la raíz cuadrada del número total de puntos de datos. Otro criterio,
conocido como regla de Sturgess, propone que el número de clases es igual a 1 más 3,3
multiplicado por el logaritmo en base 10 del número total de puntos de datos.
Con esta tabla de frecuencias, se puede elaborar un histograma que representa los mismos
datos.
El eje vertical del histograma representa la frecuencia, aunque también podría haberse
utilizado una frecuencia relativa o porcentual. El histograma revela que la tendencia central de los
datos se centra en torno a 1,18. Además, no se observan puntos de datos inusuales o atípicos y la
distribución de los datos muestra un patrón en forma de campana.
Pág. 35
Si insertamos las especificaciones de espesor del disco de 1,10 y 1,30 en el histograma
podemos ver que la variación de los datos (amplitud del histograma) está ligeramente por debajo
de las especificaciones. Sin embargo, en comparación con el espesor óptimo de 1,20, el proceso
se desplaza moderadamente hacia la izquierda, lo que ya era evidente al calcular el promedio.
Además, el espesor del disco no es satisfactorio porque el lado izquierdo del histograma debería
estar más alejado de la especificación inferior (EI = 1,10), lo cual no es el caso. Es importante
señalar que si bien no existen datos por debajo del IE, debemos considerar que este estudio se
realizó con una muestra. Por lo tanto, si se recopilan más datos, es muy probable que se encuentren
mediciones fuera de las especificaciones, como lo sugiere la cola izquierda extendida de la curva
hipotética que suaviza el histograma. Con base en este análisis, el primer paso para mejorar la
capacidad del proceso de inyección del disco es mejorar su centrado.
El ejemplo anterior ilustra claramente los beneficios de utilizar un histograma. No solo nos
permite determinar fácilmente la tendencia central de los datos, sino que también mejora nuestra
comprensión de la variabilidad y promueve el pensamiento estadístico. Con solo un vistazo rápido
al histograma, podemos obtener información sobre la capacidad general de un proceso, lo que nos
ayuda a tomar decisiones informadas. Además, se evita depender únicamente de datos promedio o
raros, y podemos identificar patrones o distribuciones únicos en los datos. En las siguientes
secciones, profundizaremos en las complejidades de interpretar un histograma para comprender
plenamente su significado.
El histograma y su interpretación
Al crear un histograma, es importante tener una cantidad sustancial de datos, idealmente
más de 100 puntos de datos, para garantizar que represente con precisión el proceso que se analiza
durante un período de tiempo específico. En consecuencia, es recomendable tener en cuenta los
siguientes factores a la hora de interpretar el histograma:
En primer lugar, es importante analizar la tendencia central de los datos. Se trata de
identificar las barras en el eje horizontal o escala de medición que representan las
Pág. 36
frecuencias más altas. En el histograma anterior se puede observar que una porción
importante de las mediciones se encuentran dentro del rango de 1,14 a 1,20 mm.
Centrarse en procesos. Para ello es necesario confiar en el punto anterior y observar la
posición central del cuerpo del histograma con respecto a la calidad y características
técnicas óptimas. Por ejemplo, en el histograma anterior las regiones a) y b) muestra los
procesos centrados, donde la primera representa poca variabilidad y la segunda muestra lo
contrario. Mientras que en las áreas b) y d) se observan procesos descentrados, el primero
con pequeña variabilidad, el segundo con grande. Incluso si se cumplen las
especificaciones, si el proceso no está dirigido, la calidad del producto no es la adecuada
porque cuanto más se aleje del óptimo peor será la calidad. Por lo tanto, si se tiene un
proceso descentralizado, se realizan los ajustes o cambios necesarios para centralizarlo.
Para evaluar la variabilidad de un proceso, es importante comparar el rango de
especificaciones con el rango representado en el histograma. Para garantizar que la
dispersión esté dentro de límites aceptables, el ancho del histograma debe ajustarse
cómodamente a las especificaciones dadas. Los ejemplos proporcionados en la figura
demuestran este concepto, con las secciones a) y b) mostrando una variación mínima,
mientras que las secciones c) y d) muestran el patrón opuesto.
Para analizar la forma de un histograma, es importante considerar la aparición de una
distribución en forma de campana. Este tipo de distribución se observa comúnmente en las
salidas de los procesos y comparte características similares con la distribución normal. En
las regiones a), b), c) y d), es evidente que la distribución en forma de campana es el
resultado más común y esperado. Sin embargo, cuando la distribución se desvía de esta
forma, podría indicar que está teniendo lugar un evento importante en el proceso, que puede
tener un impacto negativo en la calidad. Por tanto, resulta fundamental evaluar si la forma
del histograma difiere mucho de la forma de campana. Hay varias formas que no se alinean
con una distribución de campana, y estas formas atípicas deben observarse e investigarse
más a fondo.
El histograma en la región e) muestra una distribución sesgada, donde la cola derecha de
la distribución es más grande que la izquierda. Esto indica que existe un sesgo en la variable
de salida. Este sesgo puede deberse a factores como el desgaste y los desequilibrios en el
proceso, procedimientos de medición defectuosos o ciertos desempeños excepcionales del
proceso donde valores inusualmente altos solo aparecen en un lado de la distribución. Es
importante señalar que ciertas características de calidad, como la vida útil y la resistencia
a la fatiga, naturalmente presentan sesgos. Para determinar si una distribución sesgada
significa una situación especial que debe abordarse, es aconsejable compararla con la
distribución de la misma característica o variables similares de un período de tiempo
Pág. 37
diferente. En general, si se sospecha que algo excepcional está causando la distribución
sesgada, se recomienda realizar más investigaciones para confirmar su presencia.
Distribución multimodal. En la región f) se puede ver un histograma que muestra
claramente dos modos o picos que muestran dos tendencias centrales diferentes. Este tipo
de distribución con dos o más modas refleja la presencia de dos o más realidades o
condiciones diferentes. Algunas situaciones que conducen a la distribución multimodal:
Una de las principales razones de las variaciones significativas en las materias primas
utilizadas en el proceso es el hecho de que provienen de diferentes proveedores o que
existe una variabilidad excesiva dentro de la oferta del mismo proveedor. Esto da como
resultado diferencias notables entre lotes del producto final.
Cuando en el proceso intervienen varios operadores, cada uno con su propio conjunto
de criterios y métodos de trabajo.
El histograma muestra mediciones de la variable de salida realizadas por varios
individuos o instrumentos. Como resultado, durante el proceso se utilizaron diferentes
estándares o instrumentos insuficientemente calibrados.
El procedimiento, si bien produjo los resultados de la distribución multimodal,
funcionó en circunstancias distintas (y cada modo tenía su propio conjunto de
condiciones).
En la mayoría de los casos, cuando una distribución es multimodal, significa que hay
factores claros y distintos que contribuyen a la variación y que deben identificarse y
abordarse. Esto es vital para mejorar la eficacia y eficiencia del proceso relacionado.
Para identificar estos factores, un enfoque eficaz es analizar los datos por separado en
función de varios factores, como diferentes lotes de materias primas, operadores,
instrumentos de medición, turnos de producción o días específicos. Al comparar los
resultados obtenidos de estos análisis separados, es posible determinar si existen
variaciones o discrepancias sustanciales que deban abordarse.
El histograma en la región g) muestra una distribución extremadamente plana, que carece
de la típica forma de campana. Este tipo de distribución puede ocurrir debido a factores
similares a los que causan una distribución multimodal, aunque las diferencias entre los
modos son menos pronunciadas. No obstante, estas variaciones pueden afectar
significativamente la eficiencia de un proceso y, por lo tanto, deben identificarse y
rectificarse utilizando el enfoque sugerido.
El histograma en la región h) muestra una distribución con un acantilado distinto en el lado
derecho. Este acantilado representa una caída o ruptura repentina en el declive de la
distribución. Varios factores podrían contribuir a la presencia de un acantilado, incluida la
Pág. 38
exclusión de artículos que no cumplan con las medidas mínimas o excedan las máximas
después de someterse a una inspección del 100% (como se muestra en la figura). Otras
causas potenciales pueden incluir problemas con el equipo de medición, errores en la
medición o inspección, o juicios sesgados de los inspectores que tienden a aceptar artículos
que casi cumplen con los requisitos y registran la medición mínima aceptable.
Generalmente, un acantilado se considera anormal y es importante investigar su causa
subyacente.
Pág. 39
Datos raros o atípicos. Los histogramas facilitan la identificación de un pequeño número
de mediciones muy extremas o atípicas porque una o más barras pequeñas aparecen
completamente separadas o aisladas del resto de las barras. Los datos poco comunes
reflejan circunstancias especiales que deben investigarse por posibles razones:
El motivo de los datos incorrectos podría atribuirse a varios factores, como
imprecisiones en el proceso de medición, errores cometidos durante el registro o errores
cometidos durante la entrada de datos en el sistema informático.
La medición se realizó sobre un objeto o persona que no está incluido en el mismo
grupo o población que los demás en el proceso.
Si ninguno de los dos escenarios anteriores puede explicar la medición, entonces se
debe atribuir a un hecho poco común o excepcional. En otras palabras, en el momento
de la medición, se estaba produciendo una situación única o extraordinaria dentro del
proceso
La estratificación puede ser una técnica útil cuando falta una forma específica en un
histograma, pero hay una cantidad significativa de variación, lo que indica una baja
capacidad del proceso. Al crear histogramas separados para diferentes fuentes, como
máquinas, proveedores, lotes, turnos u operadores, se puede obtener información valiosa
sobre qué fuente específica puede estar causando problemas. Este enfoque se alinea con
los puntos anteriores mencionados y se recomienda encarecidamente utilizar histogramas
y analizarlos en detalle al estudiar el resultado de un proceso. Al hacerlo, se pueden
identificar situaciones problemáticas y desarrollar posibles soluciones. Además, este
método proporciona una forma concreta de transformar los abundantes datos y mediciones
de procesos en información procesable para la toma de decisiones. Sin embargo, es esencial
garantizar que el histograma se obtenga con precisión, particularmente en términos de
seleccionar el número apropiado de clases y administrar el volumen de datos.
A pesar de ser una herramienta fundamental para analizar el desempeño de los procesos, el
histograma tiene ciertas limitaciones:
El histograma no tiene en cuenta el período de tiempo durante el cual se recopilaron los
datos. Como resultado, resulta difícil identificar patrones o tendencias que puedan haber
ocurrido a lo largo del tiempo. En consecuencia, no es una herramienta eficaz para estudiar
la estabilidad de un proceso en el tiempo, que se analiza mejor utilizando gráficos de
control.
El uso de esta técnica no es el más adecuado cuando se trata de comparar prácticamente
múltiples procesos o grupos de datos. En tales casos, se considera más apropiado y eficaz
el diagrama de caja o el diagrama de media.