gray vehicle being fixed inside factory using robot machines

Genichi Taguchi y Calidad Robusta

Cuando un producto falla, debe reemplazarlo o corregirlo. En cualquier caso, debe rastrearlo, transportarlo y disculparse por ello. Las pérdidas serán mucho mayores que los costos de fabricación, y ninguno de estos gastos necesariamente recuperará la pérdida de su reputación.

Taiichi Ohno, el renombrado ex vicepresidente ejecutivo de Toyota Motor Corporation, lo dijo de esta manera:

“Sea lo que sea que un ejecutivo piense que las pérdidas de mala calidad son, en realidad son seis veces mayores”

¿Cómo pueden las empresas manufactureras minimizarlas? Si los gerentes estadounidenses aprenden sólo un nuevo principio de la colección ahora conocida como Métodos Taguchi, que sea esto: La calidad es una virtud del diseño. La «robustez» de los productos es más una función del buen diseño que del control en línea, aunque sea riguroso, de los procesos de fabricación. De hecho, aunque no tan obvia, una falta inherente de robustez en el diseño de productos es el principal motor de los gastos de fabricación superfluos. Pero los gerentes tendrán que aprender más de un principio para entender por qué.

 

Cero defectos, productos imperfectos

Durante una generación, los gerentes e ingenieros estadounidenses han considerado que las pérdidas de calidad son equivalentes a los costos absorbidos por la fábrica cuando construye productos defectuosos: el valor desperdiciado de productos que no se pueden enviar, los costos adicionales de reelaboración, etc. La mayoría de los gerentes piensan que las pérdidas son bajas cuando la fábrica envía casi lo que construye; tal es el mensaje del control estadístico de calidad y otros programas tradicionales de control de calidad que subsumiremos bajo el seductor término «Defectos Cero».

Por supuesto, los clientes no dan un colgado sobre el registro de una fábrica de mantenerse «en especificaciones» o minimizar la chatarra. Para los clientes, la prueba de la calidad de un producto está en su rendimiento cuando se rapea, sobrecarga, caída y salpicadura. Entonces, demasiados productos muestran un comportamiento temperamental y degradaciones de rendimiento molestas o incluso peligrosas. Todos preferimos fotocopiadoras cuyas copias son claras a baja potencia; todos preferimos coches diseñados para conducir de forma segura y previsible, incluso en carreteras mojadas o con baches, en vientos cruzados, o con neumáticos ligeramente por debajo o sobreinflados. Decimos que estos productos son robustos. Ganan fidelidad constante al cliente.

Los ingenieros de diseño dan por sentado las fuerzas ambientales que degradan el rendimiento (lluvia, baja tensión, etc.). Tratan de contrarrestar estos efectos en el diseño de productos: cables aislantes, ajuste de las bandas de rodadura de los neumáticos, sellado de juntas. Pero algunas degradaciones de rendimiento provienen de la interacción de las partes mismas, no de nada externo que les sucede. En un producto ideal, en cualquier cosa ideal, las piezas funcionan en perfecta armonía. La mayoría de los productos reales, desafortunadamente, contienen perturbaciones de un tipo u otro, generalmente el resultado de un mallado defectuoso de un componente con los componentes correspondientes. Un eje de transmisión vibra y desgasta prematuramente una articulación universal; el motor de un ventilador genera demasiado calor para un microprocesador sensible.

Tales degradaciones de rendimiento pueden ser el resultado de algo que va mal en la fábrica o de un fallo inherente en el diseño. Un eje de transmisión puede vibrar demasiado debido a un torno desalineado o a una forma equivocada; un motor puede resultar demasiado caliente porque se ha montado incorrectamente o se ha introducido impetuosamente en el diseño. Otra forma de decir esto es que el trabajo en curso puede estar sujeto a amplias variaciones en el proceso de fábrica y el ambiente, y los productos pueden estar sujetos a amplias variaciones en las condiciones de uso del cliente.

¿Por qué insistimos en que la mayoría de las degradaciones resultan de este último tipo de fallas, fallas de diseño, y no de variaciones en la fábrica? Debido a que las variaciones ambientales o del proceso a las que se puede someter el trabajo en proceso en la fábrica no son tan dramáticas como las variaciones a las que se someten los productos en las manos de un cliente, obvias cuando se piensa en ello, pero ¿cuántos exponentes de cero defectos hacen? Cero Defectos dice: El esfuerzo por reducir la falla del proceso en la fábrica reducirá simultáneamente los casos de falla del producto en el campo. Decimos, El esfuerzo para reducir la falla del producto en el campo reducirá simultáneamente el número de defectos en la fábrica.

Aún así, podemos aprender algo interesante sobre las raíces de la robustez y los fracasos del control de calidad tradicional enfrentándonos a Cero Defectos en su propio terreno. Es en oposición a Cero Defectos que surgieron los Métodos Taguchi.

Robustez como consistencia

De acuerdo con Zero Defectos, los diseños se fijan esencialmente antes de que el programa de calidad se haga sentir; graves degradaciones de rendimiento resultan de la falla de las piezas para aparearse e interactuar exactamente así. Cuando los procesos de fabricación están fuera de control, es decir, cuando hay variaciones graves en la fabricación de piezas, no se puede esperar que los productos funcionen bien en el campo. Las piezas defectuosas hacen conexiones defectuosas. Un producto completo es la suma de sus conexiones.

Por supuesto, no se pueden hacer dos ejes de transmisión perfectamente igual. Los ingenieros que trabajan dentro de la lógica de Zero Defectos presuponen una cierta cantidad de varianza en la producción de cualquier pieza. Especifican un objetivo para el tamaño y la cota de una pieza y, a continuación, las tolerancias que suponen permitirán desviaciones triviales de este objetivo. ¿Qué hay de malo con un eje de transmisión que debería tener 10 centímetros de diámetro en realidad llegando a las 9.998?

– Nada. – ¿Qué? El problema —y está generalizado— se produce cuando los administradores de programas Cero Defectos hacen una virtud de esta necesidad. Se acostumbran a pensar en la calidad del producto en términos de desviación aceptable de los objetivos, en lugar del esfuerzo constante para alcanzarlos. Peor aún, los gerentes pueden especificar tolerancias que son demasiado amplias porque asumen que costaría demasiado para la fábrica reducirlas.

Considere el caso de Ford vs. Mazda (entonces conocido como Toyo Kogyo), que se desarrolló hace unos años. Ford posee alrededor de 25% de Mazda y pidió a la compañía japonesa que construyera transmisiones para un automóvil que estaba vendiendo en los Estados Unidos. Tanto Ford como Mazda se suponía que construyeran con especificaciones idénticas; Ford adoptó Zero Defectos como su estándar. Sin embargo, después de que los coches habían estado en la carretera por un tiempo, se hizo evidente que las transmisiones de Ford estaban generando costos de garantía mucho más altos y muchas más quejas de los clientes sobre el ruido.

En su crédito, Ford desmontó y midió cuidadosamente muestras de transmisiones hechas por ambas compañías. Al principio, los ingenieros de Ford pensaron que sus indicadores funcionaban mal. Las piezas Ford estaban todas dentro de las especificaciones, pero las cajas de cambios Mazda traicionaron ninguna variabilidad en absoluto de los objetivos. Podría Eso ser por qué Mazda incurrió en menores costos de producción, chatarra, reelaboración y garantía?1

Esa fue precisamente la razón. Imagine que en algunas transmisiones Ford, muchos componentes cerca de la límites exteriores de tolerancias especificadas, es decir, bien por las definiciones de cero defectos, fueron ensambladas al azar juntos. Entonces, muchas desviaciones triviales del objetivo tendieron a «acumularse». Una variación trivial en una parte exacerbó una variación en otra. Debido a las desviaciones, las piezas interactuaron con mayor fricción de la que podían soportar individualmente o con mayor vibración que los clientes estaban dispuestos a soportar.

Los gerentes de Mazda trabajaron consistentemente para traer piezas en el objetivo. Intuitivamente, tomaron un enfoque mucho más imaginativo para el control de calidad en línea que los gerentes de Ford; sin duda captaron la conformidad de fábrica de una manera que reemplazó el estilo de pensamiento de superación/falla, en especia/fuera de especificaciones asociado con cero defectos. Los gerentes de Mazda trabajaron en la suposición de que la robustez comienza de cumplir con los objetivos exactos consistentemente, no de permanecer siempre dentro de las tolerancias. Puede que no se hayan dado cuenta de esto en ese momento, pero habría sido aún mejor perder el objetivo con una consistencia perfecta que golpearlo al azar, un punto que está iluminado por esta simple analogía.

Sam y John están al alcance de la práctica de tiro. Después de disparar diez disparos, examinan sus objetivos. Sam tiene diez disparos en un grupo apretado justo fuera del círculo de la diana. John, por otro lado, tiene cinco disparos en el círculo, pero están dispersos por todas partes, tantos cerca del perímetro como cerca del centro muerto, y el resto de sus disparos están igualmente dispersos alrededor de él (ver «¿Quién es el mejor disparo?» diagrama).

¿Quién es el mejor disparo? Sam lo es. Su disparo es consistente y predecible. Un pequeño ajuste en sus miras le dará muchos ojos de buey perfectos en la siguiente ronda.

Los teóricos de Zero Defectos dirían que John es el tirador superior porque su actuación no traiciona fallas. ¿Pero a quién preferirías contratar como guardaespaldas?

El tiroteo de Sam es consistente y virtualmente predecible. Probablemente sabe por qué se perdió el círculo por completo. Un ajuste a sus vistas dará muchos ojos de buey perfectos durante la siguiente ronda. John tiene un problema mucho más difícil. Para reducir la dispersión de sus disparos, debe exponer prácticamente todos los factores bajo su control y encontrar una manera de cambiarlos en alguna combinación feliz. Puede decidir cambiar la posición de sus brazos, la estanqueidad de su cabestrillo o la secuencia de su disparo: respirar, apuntar, aflojar y apretar. Tendrá poca confianza de que obtendrá todas sus fotos en el círculo de la diana la próxima vez.

Cuando se extrapolan a la fábrica, un rendimiento similar a Sam promete una mayor robustez del producto. Una vez que se establece la consistencia, no es una hazaña importante, el producto de una atención implacable a los detalles del diseño y del proceso de ambos, ajustar el rendimiento al objetivo es una cuestión simple: el apilamiento se puede obviar por completo. Si cada eje de transmisión está 0,005 centímetros de distancia, los operadores pueden ajustar la posición de la herramienta de corte. En ausencia de un rendimiento consistente, conseguir más cerca del objetivo puede llevar mucho tiempo.

Pero hay otro lado en esto. Hay una probabilidad mucho mayor de acumulación catastrófica de desviaciones aleatorias que de desviaciones que muestran consistencia. Suponiendo que ninguna pieza es gravemente defectuosa, un producto hecho a partir de piezas que están fuera del objetivo exactamente de la misma manera es más probable que sea robusto que un producto hecho a partir de piezas cuyas desviaciones son dentro de las especificaciones pero impredecibles. Tenemos pruebas estadísticas de esto, pero un momento de reflexión debería ser suficiente. Si todas las piezas se fabrican de forma consistente, el producto funcionará de manera uniforme para los clientes y se perfeccionará más fácilmente en la próxima versión. Si todas las partes se fabrican de forma errática, algunos productos serán perfectos y algunos se desmoronarán.

Así que el caso contra Zero Defectos comienza con esto: la robustez deriva de la consistencia. Cuando la desviación es coherente, es posible ajustar el objetivo; es más probable que el apilamiento catastrófico se deba a la desviación dispersa dentro de las especificaciones que a la desviación consistente fuera. Este respeto por la coherencia, por estar en el blanco, tiene una aplicación fascinante y práctica.

La función de pérdida de calidad

Análisis de Ford general pérdidas en comparación con Mazda sugiere que cuando las empresas se desvían de los objetivos, corren un riesgo cada vez más costoso de pérdida. La pérdida general es pérdida de calidad más pérdida de fábrica. Cuanto más se desvía un fabricante de los objetivos, mayores serán sus pérdidas.

Según nuestra experiencia, la pérdida de calidad —la pérdida que se produce después del envío de los productos— aumenta a un ritmo geométrico. Se puede cuantificar aproximadamente como la función de pérdida de calidad (QLF), basada en una fórmula cuadrática simple. La pérdida aumenta en el cuadrado de desviación del valor objetivo, L=D2 C, donde la constante está determinada por el costo de la contramedida que la fábrica podría usar para llegar al objetivo.

Si sabes qué hacer para llegar al objetivo, entonces sabes lo que cuesta esta acción por unidad. Si se resiste a gastar el dinero, entonces con cada desviación estándar del objetivo, corre el riesgo de gastar más y más. Cuanto mayor sea la desviación de los objetivos, mayores serán los costos compuestos.

Digamos que un fabricante de automóviles decide no gastar, por ejemplo,$ 20 por transmisión para conseguir una marcha exactamente en el objetivo. QLF sugiere que el fabricante terminaría gastando (cuando los clientes se enojaron)$ 80 para dos desviaciones estándar del objetivo ($ 20 multiplicado por el cuadrado de dos),$ 180 por tres,$ 320 por cuatro, y así sucesivamente.

Esta es una aproximación simple, sin duda, no una ley de la naturaleza. No se puede esperar que los datos de campo reales reivindiquen con precisión QLF, y si su corporación tiene una forma más precisa de rastrear los costos de falla del producto, úselo. Pero el tremendo valor de QLF, aparte de su arco hacia el sentido común, es que traduce la noción del ingeniero de desviación de los objetivos en una simple estimación de costos que los administradores pueden utilizar. QLF es especialmente útil en las importantes etapas iniciales del desarrollo de nuevos productos, cuando se establecen tolerancias y se establecen objetivos de calidad.

Televisiones Sony: Tokio vs San Diego

La lógica convincente de QLF se ilustra mejor por el rendimiento de los televisores Sony a finales de la década de 1970. El caso demuestra cómo los datos de ingeniería y los datos económicos pueden (y deben) verse en tándem.

Los ingenieros de productos de Sony se habían cerciorado de que los clientes preferían imágenes con una densidad de color particular, llamémoslo una densidad nominal de 10. A medida que la densidad de color se desvió de 10, los espectadores se volvieron cada vez más insatisfechos, por lo que Sony estableció límites de especificación en no menos de 7 y no más de 13.

Sony fabricó televisores en dos ciudades, San Diego y Tokio. Los conjuntos enviados desde San Diego se distribuyeron uniformemente dentro de las especificaciones, lo que significaba que un cliente era tan propenso a comprar un conjunto con una densidad de color de 12,6 como uno con una densidad de 9,2. Al mismo tiempo, un conjunto de San Diego era tan probable que estuviera cerca de los límites de especificación corporativa de 13 o 7 como cerca del objetivo de satisfacción del cliente de 10. Mientras tanto, los envíos desde Tokio tendían a agruparse cerca del objetivo de 10, aunque en ese momento, alrededor de 3 de cada 1.000 conjuntos caían fuera de los estándares corporativos.

Akio Morita, presidente de Sony, reflexionó sobre la discrepancia de esta manera: «Cuando le decimos a uno de nuestros empleados japoneses que la medición de una parte determinada debe estar dentro de una tolerancia de más o menos cinco, por ejemplo, se esforzará automáticamente por lograr que esa parte se aproxime lo más posible a la tolerancia cero. Cuando comenzamos nuestra planta en los Estados Unidos, descubrimos que los trabajadores seguirían las instrucciones perfectamente. Pero si dijéramos que sea entre más o menos cinco, lo conseguirían en algún lugar cerca de más o menos cinco, muy bien, pero rara vez tan cerca de cero como lo hicieron los trabajadores japoneses».

Si Morita fuera a asignar calificaciones a las actuaciones de las dos fábricas, podría decir que Tokio tenía muchas más cosas que San Diego, aunque tuviera una D de vez en cuando; 68% de la producción de Tokio se encontraba en la gama A, 28% en el rango B, 4% en el rango C, y 0.3% en el rango. Por supuesto, San Diego hizo algunos conjuntos fuera de especificaciones; pero no enviaba sus Fs. Tokio envió todo lo que construyó sin molestarse en verificarlos. ¿Debería Morita haber preferido Tokio a San Diego?

La respuesta, recuerde, debe ser reducido a dólares y centavos, por lo que las convenciones de Cero Defectos no sirven aquí. Supongamos que compró un televisor con una densidad de color de 12.9, mientras que su vecino compró uno con una densidad de 13.1. Si ves un programa en su set, ¿serás capaz de detectar cualquier diferencia de color entre el tuyo y el suyo? Por supuesto que no. La calidad del color no presenta un problema llamativo en el límite de especificación de 13. Las cosas no se ponen repentinamente más caras para la planta de San Diego si un set sale a 13.1.

Las pérdidas comienzan a montarse cuando los clientes ven conjuntos en el valor objetivo de 10. Entonces, cualquier cosa lejos de 10 parecerá insatisfactoria, y los clientes exigirán visitas de personal de reparación o exigirán conjuntos de reemplazo. En lugar de gastar unos pocos dólares por set para ajustarlos cerca de los objetivos, Sony tendría que gastar mucho más para hacer bien en los conjuntos —alrededor de dos tercios de los conjuntos de San Diego— que en realidad eran clientes desagradables. (La insatisfacción ciertamente aumenta más entre 11.5 y 13 que entre 10 y 11.5.)

Lo que Sony descubrió es que no se gana prácticamente nada en el envío de un producto que apenas satisface el estándar corporativo en comparación con un producto que falla. San Diego envió conjuntos marginales «sin defectos», pero su calidad marginal resultó costosa.

Con QLF, Sony podría haber conseguido cifras aún más llamativas. Digamos que la compañía estimó que el costo de la contramedida requerida para poner cada conjunto a la derecha, una contramedida de línea de ensamblaje que coloca cada conjunto en un 10 virtual, era$ 9. Pero por cada conjunto de San Diego con una densidad de color de 13 (tres desviaciones estándar del objetivo), Sony gastó no$ 9 pero$ 81. La pérdida total de calidad en San Diego debería haberse esperado tres veces la pérdida total de calidad en la fábrica de Tokio.

Desviación: señal a ruido

Si Zero Defectos no funciona, ¿qué funciona? Hemos dicho que la calidad está diseñada principalmente en, no controlada desde fuera. En el trabajo de desarrollo, los ingenieros deben disciplinar sus decisiones en prácticamente cada paso comparando la pérdida de calidad esperada con el costo de fabricación conocido. Por otro lado, la fiabilidad de los cálculos QLF está bastante limitada por la precisión de medidas más preliminares. Es imposible discernir correctamente cualquier función de pérdida sin fijar primero los objetivos correctamente.

Cómo debería ingenieros de diseño y gerentes de fabricación establecen objetivos? Procedamos lentamente, reconsiderando lo que hacen los ingenieros cuando prueban componentes y subensamblajes y cómo establecen lo que ninguna parte en particular «quiere ser» en el contexto de las cosas que se interponen en su camino.

Cuando los ingenieros de Sony diseñaron sus televisores, asumieron que a los clientes discriminadores les gustaría un diseño que retuviera una buena imagen o «señal» lejos de la estación, en una tormenta eléctrica, cuando el procesador de alimentos estaba en uso, e incluso cuando la compañía eléctrica proporcionaba bajo voltaje. Los clientes estarían consternados si la imagen se degrada cada vez que suben el volumen. Rechazarían un televisor que desarrollaba nieve y otros molestos «ruidos» cuando se ven afectados por condiciones de funcionamiento desagradables, que a su vez se consideran ruidos.

En nuestra opinión, este lenguaje metafórico, la señal en comparación con el ruido, puede utilizarse para hablar de todos los productos, no sólo de televisores. La señal es lo que el producto (o componente o subconjunto) está tratando de entregar. Los ruidos son las interferencias que degradan la señal, algunas de ellas procedentes del exterior, otras de sistemas complementarios dentro del producto. Son muy similares a los factores de los que hablamos como factores que explican las variaciones en el rendimiento del producto, tanto las perturbaciones ambientales como las provocadas por las propias partes.

Por lo tanto, parece razonable definir la robustez como la virtud de un producto con una alta relación señal/ruido. A los clientes les molesta que se les diga: «No se esperaba que utilizara nuestro producto con alta humedad o temperaturas por debajo de la congelación». Quieren un buen rendimiento bajo condiciones operativas reales, que a menudo son menos que perfectas. Todos asumimos que un producto que funcione mejor en condiciones adversas será mucho más duradero en condiciones normales.

Las relaciones señal-ruido se diseñan en productos antes de que la fábrica suba. La fuerza de la señal de un producto, por lo tanto, su robustez, es principalmente responsabilidad de los diseñadores de productos. Las buenas fábricas son fieles a la intención del diseño. Pero los diseños mediocres siempre darán como resultado productos mediocres.

Selección de Destinos: Matrices ortogonales

Entonces, ¿cómo maximizan los diseñadores de productos las relaciones señal-ruido? Las empresas de clase mundial utilizan un proceso de toma de decisiones de tres pasos:

  1. Definen el objetivo específico, seleccionando o desarrollando la señal más apropiada y estimando el ruido concomitante.
  2. Definen opciones viables para los valores críticos de diseño, como las dimensiones y las características eléctricas.
  3. Seleccionan la opción que proporciona la mayor robustez o la mayor relación señal-ruido.

Esto es más fácil decirlo que hacerlo, por supuesto, y es por eso que tantas empresas en Japón, y ahora en los Estados Unidos, han pasado a algún tipo de ingeniería simultánea. Definir y seleccionar las señales y objetivos correctos no es una hazaña y requiere la experiencia de todos los especialistas en productos. Diseño de productos, fabricación, soporte de campo y comercialización: todo esto debe ser elaborado simultáneamente por un equipo interfuncional.

Los diseñadores de productos que han desarrollado una «sensación» para la ingeniería de productos particulares deben tomar la iniciativa en dichos equipos. Pueden salirse con la suya con sólo unos pocos experimentos limitados, donde la gente nueva tendría que realizar muchos más. Las empresas progresistas se esfuerzan por mantener a sus especialistas en productos trabajando en nuevas versiones en lugar de subirlos a puestos directivos. Sus planes de compensación recompensan a las personas por hacer lo que mejor hacen.

Pero las virtudes del trabajo en equipo plantean la cuestión más amplia de cómo desarrollar una estrategia experimental eficiente que no drene los recursos corporativos mientras trabaja para llevar prototipos a la satisfacción del cliente. La intuición no es realmente una respuesta. Tampoco lo es la interfuncionalidad ni una teoría de la organización. Los diseñadores de productos necesitan una forma científica de obtener robustez. Han dependido demasiado del arte.

La forma más práctica de establecer relaciones señal-ruido se basa en el trabajo de Sir Ronald Fisher, un estadístico británico cuyas brillantes contribuciones a la agricultura no se estudian mucho hoy en día. Lo más importante es su estrategia para la experimentación sistemática, incluyendo el plan sorprendentemente sensato conocido como la «matriz ortogonal».

Considere la complejidad de mejorar la dirección de un automóvil. Los clientes quieren que responda de manera consistente. La mayoría de los ingenieros saben que la capacidad de respuesta de la dirección depende de muchos parámetros de diseño críticos (rigidez del muelle, rigidez del amortiguador, dimensiones de los mecanismos de dirección y suspensión, etc.), todos los cuales podrían optimizarse para lograr la mayor relación señal-ruido posible.

Además, tiene sentido comparar el valor inicial del diseño con un valor mayor y un valor menor. Si la rigidez del muelle tiene actualmente un valor nominal de 7, es posible que los ingenieros deseen probar la dirección a las 9 y a las 5. Un ingeniero de automóviles con el que hemos trabajado estableció que en realidad hay 13 variables de diseño para la dirección. Si los ingenieros compararan valores estándar, bajos y altos para cada variable crítica, tendrían 1.594.323 opciones de diseño.

¿Proceder con la intuición? Más de un millón de posibles permutaciones ponen de relieve el reto —el de buscar a ciegas una aguja en un pajar — y la dirección es sólo un subsistema del coche. En Japón, los gerentes dicen que a los ingenieros «les gusta pescar con una caña»; los ingenieros son optimistas de que «el próximo reparto traerá el pez grande» —un experimento más y alcanzarán el diseño ideal. Naturalmente, el fracaso repetido conduce a más moldes. El nuevo producto, aún no robusto para las condiciones de los clientes, se ve obligado a entrar en el mercado por las presiones del tiempo, el dinero y la disminución de la cuota de mercado.

Para completar la optimización de la robustez más rápidamente, la estrategia de búsqueda debe obtener la máxima cantidad de información de unos pocos ensayos. No vamos a pasar por el álgebra aquí, pero la clave es desarrollar un sistema de pruebas que permita a los ingenieros de productos analizar el promedio efecto del cambio en los niveles de los factores en diferentes conjuntos de condiciones experimentales.

Y esta es precisamente la virtud de la matriz ortogonal (ver la inserción, «Orthogonal Arrays: Setting the Right Targets for Design»). Equilibra los niveles de rendimiento que demandan los clientes con las muchas variables (o ruidos) que afectan el rendimiento. Una matriz ortogonal para 3 niveles de rendimiento de dirección (bajo, medio y alto) puede reducir las posibilidades experimentales a 27. Los ingenieros podrían someter cada uno de los 27 diseños de dirección a alguna combinación de ruidos, tales como presión de neumáticos alta/baja, carretera rugosa y suave, temperatura alta/baja. Una vez finalizados todos los ensayos, se pueden utilizar valores de señal a ruido para seleccionar los mejores niveles para cada variable de diseño.

 

Si, por ejemplo, el valor promedio de los primeros nueve ensayos sobre la rigidez del muelle es de 32.4, entonces eso podría caracterizar el nivel uno de la rigidez del muelle. Si el valor promedio para el segundo grupo de ensayos es 26,7, y el promedio para el tercer grupo 28,9, entonces seleccionaríamos el nivel uno como el mejor valor para la rigidez del muelle. Este proceso de promediación se repite para encontrar el mejor nivel para cada una de las 13 variables de diseño.

La matriz ortogonal es en realidad un sofisticado «sistema de conmutación» en el que se pueden conectar muchas variables de diseño y niveles de cambio diferentes. Este sistema fue concebido para permitir que el diseñador relativamente inexperto extraiga el promedio efecto de cada factor en los resultados experimentales, por lo que puede llegar a conclusiones fiables a pesar del gran número de variables cambiantes.

Por supuesto, una vez que se establecen las características de un producto para que un diseñador pueda decir con certeza que los valores de diseño, es decir, las relaciones de señal a ruido optimizadas, no interactúan en absoluto, entonces las matrices ortogonales son superfluas. En su lugar, el diseñador puede proceder a probar cada variable de diseño de forma más o menos independiente, sin preocuparse por crear ruido en otras piezas o subensamblajes.

Prueba de verificación del sistema: El momento de la verdad

Después de maximizar las relaciones señal-ruido y optimizar los valores de diseño, los ingenieros crean prototipos. La robustez del producto completo se verifica ahora en la prueba de verificación del sistema (SVT), tal vez el evento más crítico durante el desarrollo del producto.

En el SVT, los primeros prototipos se comparan con el producto de referencia actual. Los ingenieros someten tanto el prototipo como el punto de referencia a las mismas condiciones extremas que pueden encontrarse en el uso real. Los ingenieros también miden las mismas relaciones de señal a ruido críticas para todos los contendientes. Es muy importante que el nuevo producto supere la robustez del producto de referencia. Si el voltaje nominal ideal es de 115 voltios, queremos televisores que tengan una señal de 10 incluso cuando el voltaje se deslice a un ruidoso 100 o subidas a un igualmente ruidoso 130. Cualquier desviación de la señal perfecta debe considerarse en términos de QLF, es decir, como un riesgo financiero serio.

El producto robusto, por lo tanto, es el que minimiza el promedio del cuadrado de la desviación del objetivo, promediado en las diferentes condiciones de uso del cliente. Supongamos que desea comprar una fuente de alimentación y aprender que puede comprar una con una desviación estándar de un voltios. ¿Deberías tomarlo? Si el valor medio del voltaje de salida es de 1.000 voltios, la mayoría de la gente pensaría que, en promedio, un error de solo un voltios es muy bueno. Sin embargo, si la salida promedio fue de 24 voltios, entonces una desviación estándar de uno parece muy grande. Siempre debemos considerar la relación del valor medio dividido por la desviación estándar.

El SVT da una indicación muy fuerte, mucho antes de que comience la producción, de si los clientes percibirán que el nuevo producto tiene una calidad y un rendimiento de clase mundial. Después de verificar que el nuevo diseño tiene una robustez superior, los ingenieros pueden proceder a resolver problemas de rutina, plenamente seguros de que el producto aumentará constantemente la lealtad del cliente.

Volver a la fábrica

La relación entre el campo y la fábrica demuestra ser sutil, la inversa de lo que uno podría esperar. Sabemos que si se controla la varianza en la fábrica, se reducen las fallas en el campo. Pero, como dijimos al principio, un esfuerzo concertado para reducir la falla del producto en el campo reducirá simultáneamente el número de defectos en la fábrica.

Esfuércese por reducir las variaciones en los componentes del producto y reducirá las variaciones en el sistema de producción como un todo. Cualquier fortalecimiento de un diseño, es decir, cualquier aumento marcado de la relación señal/ruido de un producto, reducirá simultáneamente las pérdidas de calidad de una fábrica.

¿Por qué debería ser así? Por muchas razones, lo más importante es la simetría entre el diseño para la robustez y el diseño para la fabricación. Piense en la cantidad de productos más robustos que se han convertido desde la introducción de plásticos moldeados y circuitos de estado sólido. En lugar de servir muchos cables y tubos interconectados y conmutadores, cualquiera de los cuales puede fallar, los ingenieros ahora pueden imprimir un millón de transistores en un chip prácticamente indestructible. En lugar de unir muchos componentes con tornillos y sujetadores, ahora podemos consolidar las piezas en subensamblajes y montarlas en marcos moldeados que se unen.

Todas estas mejoras reducen en gran medida las oportunidades de ruido que interfieren con la señal; fueron desarrolladas para hacer que los productos sean robustos. Sin embargo, también han hecho que los productos sean infinitamente más fabricables. Los principios de diseño para la robustez son a menudo indistinguibles de los principios de diseño para la fabricación: reducir el número de piezas, consolidar subsistemas, integrar la electrónica.

Un producto robusto puede tolerar mayores variaciones en el sistema de producción. Por favor, el cliente y usted complacerá al gerente de fabricación. Prepárese para las variaciones en el campo y preparará el camino para reducir las variaciones en el taller. Nada de esto significa que el gerente de fabricación debe dejar de intentar reducir las variaciones del proceso o lograr las mismas variaciones con procesos más rápidos y más baratos. Y hay obvias excepciones que prueban la regla, por ejemplo, la producción de chips, donde los controles de fábrica son cada vez más estrictos, aunque es difícil pensar en excepciones en productos como automóviles y electrónica de consumo.

La fábrica es un lugar donde los trabajadores deben tratar de cumplir, no desviarse de, los objetivos nominales establecidos para los productos. Es hora de pensar en la fábrica como un producto con objetivos propios. Al igual que un producto, se puede decir que la fábrica da una señal implícita, la producción consistente de productos robustos, y que está sujeta a las interrupciones del ruido, temperaturas variables, máquinas degradadas, polvo,. Con QLF, las opciones en la fábrica, como las opciones para el producto, pueden reducirse al costo de desviación de los objetivos.

Considere, por ejemplo, que una amoladora cilíndrica crea una forma cilíndrica más consistente que un torno. Los diseñadores de productos han defendido este tipo de máquinas dedicadas; quieren la mayor precisión posible. Los ingenieros de fabricación han favorecido tradicionalmente el torno menos preciso porque es más flexible y reduce los costes de producción. ¿Debería la administración favorecer la amoladora cilíndrica más precisa? ¿Cómo se compara el de cada grupo con respecto a la pérdida de calidad?

En ausencia del cálculo de QLF, el método más común para establecer tolerancias de fabricación es celebrar una reunión de concurrencia. Los ingenieros de diseño se sientan en un lado de la sala de conferencias y los ingenieros de fabricación en el lado opuesto. Los ingenieros de diseño de productos comienzan a cantar «Tolerancia más ajustada, Tolerancia más ajustada, Tolerancia más ajustada», y los ingenieros de fabricación responden con «Tolerancia más suelta, Tolerancia más suelta». Presumiblemente, la fábrica optaría por un torno si la fabricación cantaba más fuerte y más tiempo. Pero ¿por qué seguir un proceso tan irracional cuando las personas de diseño de productos y las personas de fabricación lata poner un valor en dólares en la precisión de la calidad?

La administración debe elegir el nivel de precisión que minimice el costo total, el costo de producción más la pérdida de calidad, los conceptos básicos de QLF. Los gerentes pueden comparar los costos de los procesos de fábrica competidores agregando el costo de fabricación y la pérdida promedio de calidad (de las desviaciones esperadas) de cada proceso. Ganan una precisión económica al evaluar procesos de producción alternativos viables, como el torno y la amoladora cilíndrica. ¿Cuál sería la pérdida de calidad si la fábrica utiliza el torno? ¿Los ahorros valen las pérdidas futuras?

Pueden aplicarse principios similares a los sistemas más grandes. En lo que puede llamarse «diseño de parámetros de proceso», los fabricantes pueden optimizar los parámetros de producción (velocidad del husillo, profundidad de corte, velocidad de avance, presión, temperatura) de acuerdo con una matriz ortogonal, al igual que la rigidez del muelle en un mecanismo de dirección. Cada fila de la matriz ortogonal puede definir una prueba de producción diferente. En cada ensayo, los ingenieros producen y miden varias partes y, a continuación, utilizan los datos para calcular la relación señal/ruido para ese ensayo. En un paso final, establecen el mejor valor para cada parámetro de producción.

 

¿El resultado? Un proceso robusto, que produce una uniformidad mejorada de las piezas y, a menudo, permite a los administradores acelerar simultáneamente la producción y reducir el tiempo de ciclo.

¿Cuánta intervención?

Por último, está la cuestión de cuánto intervenir durante producción.

Tome el tipo más común de intervención, verificación en línea y ajuste de maquinaria y proceso. En ausencia de supervisión del operador, las partes tienden a desviarse progresivamente del objetivo. Sin guía, los diferentes operadores tienen conceptos muy variados de (1) con qué frecuencia deben comprobar sus máquinas y (2) cuán grande debe ser la discrepancia antes de ajustar el proceso para acercar el valor de la pieza al objetivo.

Al aplicar QLF, puede estandarizar la intervención. El costo de la comprobación y el ajuste siempre ha sido fácil de determinar; basta con calcular el costo del tiempo de inactividad. Con QLF, los gerentes también pueden calcular el costo de no interviniendo, es decir, el valor en dólares a la empresa de variación de piezas reducidas.

Volvamos a los ejes de transmisión. El intervalo de comprobación es de tres, y el mejor objetivo de ajuste es 1/1.000 de pulgada. Si la discrepancia medida con respecto al objetivo es inferior a 1/1.000 de pulgada, la producción continúa. Si la discrepancia medida supera esto, el proceso se ajusta de nuevo al objetivo. ¿Esto realmente permite a los operadores mantener los productos cerca del objetivo de una manera que minimice el costo total?

Podría argumentarse que medir cada tercer eje es demasiado caro. ¿Por qué no cada diez? Hay una manera de resolver esto. Digamos que el costo de la intervención es de 30 centavos, y los ejes casi con certeza se desvían del valor objetivo cada quinta o sexta operación. Entonces, de cada diez producidos, al menos cuatro ejes defectuosos se apagarán, y las pérdidas de calidad se montarán. Si el séptimo eje sale a dos desviaciones estándar, el costo será$ 1.20; si el décimo sale a tres desviaciones estándar, el costo será$ 2.70; y así sucesivamente. Tal vez el mejor intervalo para comprobar es cada cuarto eje o cada quinto, no cada tercero. Si el cuarto eje es sólo una desviación estándar del valor objetivo, es probable que la intervención no valga el costo.

El punto, una vez más, es que estas cosas pueden y deben calcularse. No hay ninguna razón para ser fanático de la calidad si no puede justificar su fanatismo por QLF. Cerca del objetivo, la producción debe continuar sin ajustes; la pérdida de calidad es pequeña. Fuera del límite, el proceso debe ajustarse antes de que continúe la producción.

Este enfoque básico de la intervención también se puede aplicar al mantenimiento preventivo. El mantenimiento preventivo excesivo cuesta demasiado. El mantenimiento preventivo inadecuado aumentará excesivamente la pérdida de calidad. El mantenimiento preventivo optimizado minimizará el costo total.

En Japón, se dice que un gerente que cambia la calidad para ahorrar un poco de gasto de fabricación es «peor que un ladrón», un poco duro, quizás, pero plausible. Cuando un ladrón roba$ 200 de su empresa, no hay pérdida neta de riqueza entre ustedes dos, sólo un intercambio de activos. Las decisiones que crean enormes pérdidas de calidad desechan la productividad social, la riqueza de la sociedad.

El enfoque disciplinado y cuantitativo de QLF a la calidad se basa y mejora las actividades de participación de los empleados para mejorar la calidad y la productividad. Ciertamente, las actividades de mejora centradas en la fábrica no aumentan en general la robustez de un producto. Sin embargo, pueden ayudar a realizarlo reduciendo el ruido generado por la compleja interacción de los factores de calidad del taller: operadores, métodos de operación, equipos y materiales.

Los empleados comprometidos a golpear el blanco consistentemente echan una mirada más nítida en todas las características del entorno de la fábrica. Cuando su ingenio y la conciencia de los costos son comprometidos, las condiciones cambian drásticamente, los equipos prosperan y proliferan datos valiosos para apoyar un mejor diseño de productos y procesos. Un enfoque inicial y amplio de la empresa en el diseño robusto de productos puede incluso reducir el tiempo de desarrollo y suavizar la transición a la producción a gran escala.

Demasiado a menudo los gerentes piensan que la calidad es responsabilidad de sólo unos pocos controles de calidad en una esquina de fábrica. Debería ser evidente a estas alturas que la calidad es para todos, sobre todo para los estrategas del negocio. Es sólo a través de los esfuerzos de cada empleado, desde el CEO en adelante, que la calidad se convertirá en una segunda naturaleza. La ventaja más esquiva en la nueva competencia mundial es el orgullo galvanizado de la excelencia.

1. Véase el admirable relato de Lance A. Ealey sobre este caso en Calidad por diseño: Taguchi Methods® y la industria de los Estados Unidos (Dearborn, Mich.: ASI Press, 1988), págs. 61 a 62.


Genichi Taguchi
Via HBR.org

Total
0
Shares
Previous Post
cargando

Innovación empresarial, ¿qué le falta a tu empresa para innovar?

Next Post
Change neon light signage

Porqué la Innovación Disruptiva está Sobrevalorada (Y Qué Deberías Estar Haciendo En Su Lugar)

Related Posts

Aprende Lean Manufacturing

Aprende los básicos de Lean Manufacturing con certificado de finalización

 

¡Gratis!

Trabajo en equipo