miércoles, 26 de junio de 2013

Capacidad de procesos

La capacidad de un proceso de fabricación se suele interpretar como su aptitud para producir artículos de acuerdo con las especificaciones. También se suele interpretar como la aptitud del proceso o de una sola maquina para cumplir los limites de tolerancia.

El análisis estadístico de la capacidad del proceso suele comenzar con un estudio de este para realizar estimaciones de los parámetros fundamentales que definen su funcionamiento;especialmente, de los parámetros que determinan su variabilidad. Este ultimo aspecto es esencial, puesto que se puede considerar como un indicador de la uniformidad en el rendimiento. Se suelen analizar dos tipos de variabilidad:
La variabilidad instantánea, en un instante dado; que determina la capacidad del proceso a corto plazo
La variabilidad en el transcurso del tiempo, que determina la capacidad del proceso a largo plazo.
El análisis de la capacidad del proceso a través de su variabilidad requiere el conocimiento la estimación de la distribución de la característica estudiada, o bien la estimación de los parámetros que definen dicha variabilidad.

Para una variable aleatoria X que representa la característica de la calidad que se pretende controlar en el producto fabricado, la variabilidad de X determina el nivel de calidad del producto. Una primera aproximación es proporcionada por los limites de 6 sigma que definen una situación de control del proceso. Esta medida de la variabilidad del proceso esta asociada a la consideración de un escenario gaussiano donde el intervalo  +-3 sigma incluye aproximadamente al 99.7 % de los valores de la característica X considerada.

Se define entonces el indice de capacidad estándar del proceso como
IC =LSE - LIE/6sigma

Este indice relaciona la diferencia entre los limites de especifcación (establecidos) y un múltiplo de la desviación típica de la característica estudiada, que esta asociado a la variabilidad del proceso y, por tanto, a las tolerancias naturales. Para IC = 1 el proceso fabrica un 0;3 % de artículos defectuosos (bajo normalidad). Si IC < 1; el proceso fabrica una proporción de defectuosos superior al 0;3 %; dicha
proporción aumenta según nos alejamos de la unidad. En este caso habrá que actuar sobre el proceso para incrementar su capacidad. Si IC > 1; el proceso fabrica una proporción de defectuosos inferior al 0;3 %;
dicha proporción disminuye según IC se aleja de la unidad.

Conclusión.
La capacidad de procesos nos sirve para determinar la variabilidad de los procesos en la fabricación de un producto o servicio, haciendo eficiente estos procesos disminuyendo la variabilidad de los mismo y así tener la mas mínima producción de defectos.

http://www.ugr.es/~mruiz/temas/Tema_7.pdf

lunes, 24 de junio de 2013

HERRAMIENTAS DE LA CALIDAD 
parte 2

En la primera parte vimos algunas herramientas de la calidad, herramientas que nos ayudaran a entender este tema de la calidad.

Diagrama causa-efecto

El Diagrama Causa-Efecto es una representación gráfica que muestra la relación cualitativa e hipotética de los diversos factores que pueden contribuir a un efecto o fenómeno determinado.
Características principales
Impacto visual
Muestra las interrelaciones entre un efecto y sus posibles causas de forma ordenada, clara, precisa y de un solo golpe de vista.
Capacidad de comunicación
Muestra las posibles interrelaciones causa-efecto permitiendo una mejor comprensión del fenómeno en estudio, incluso en situaciones muy complejas.
Centra la atención de todos los componentes del grupo en un problema específico de forma estructurada y sistemática.

Un Diagrama Causa-Efecto proporciona un conocimiento común de un problema complejo, con todos sus elementos y relaciones claramente visibles a cualquier nivel de detalle.Su utilización ayuda a organizar la búsqueda de causas de un determinado fenómeno pero no las identifica y no proporciona respuestas a preguntas.


Por sus características principales la construcción de un Diagrama de Causa-Efecto es muy útil cuando:se quiere compartir conocimientos sobre múltiples relaciones de causa y efecto.Por ser una ordenación de relaciones lógicas, el Diagrama de Causa-Efecto es una herramienta frecuentemente utilizada para: obtener teorías sobre relaciones de Causa-Efecto en un proceso lógico paso a paso.Obtener una estructuración lógica de muchas ideas "dispersas", como una lista de ideas resultado de una Tormenta de Ideas.


FMEA O AMEF

El Análisis de modos y efectos de fallas potenciales, AMEF, es un proceso sistemático para la identificación de las fallas potenciales del diseño de un producto o de un proceso antes de que éstas ocurran, con el propósito de eliminarlas o de minimizar el riesgo asociado a las mismas.
Por lo tanto, el AMEF puede ser considerado como un método analítico estandarizado para detectar y eliminar problemas de forma sistemática y total, cuyos objetivos principales son:Reconocer y evaluar los modos de fallas potenciales y las causas asociadas con el diseño y manufactura de un producto.Determinar los efectos de las fallas potenciales en el desempeño del sistema ,identificar las acciones que podrán eliminar o reducir la oportunidad de que ocurra la falla potencial,analizar la confiabilidad del sistema,documentar el proceso.

La eliminación de los modos de fallas potenciales tiene beneficios tanto a corto como a largo plazo. A corto plazo, representa ahorros de los costos de reparaciones, las pruebas repetitivas y el tiempo de paro. El beneficio a largo plazo es mucho mas difícil medir puesto que se relaciona con la satisfacción del cliente con el producto y con sus percepción de la calidad; esta percepción afecta las futuras compras de los productos y es decisiva para crear una buena imagen de los mismos.


Diagrama de arbol
Un diagrama de árbol es un método gráfico para identificar todas las partes necesarias para alcanzar algún objetivo final. En mejora de la calidad, los diagramas de árbol se utilizan generalmente para identificar todas las tareas necesarias para implantar una solución. Se emplea para descomponer una meta u objetivo en una serie de actividades que deban o puedan hacerse. A través de la representación gráfica de actividades se facilita el entendimiento de las acciones que intervendrán. Permite a los miembros del equipo de trabajo
expandir su pensamiento al crear soluciones sin perder de vista el objetivo principal o los objetivos
secundarios. 


5 porqués 
La técnica requiere que el equipo de trabajo pregunte “Por Qué” al menos cinco veces, o trabaje a través de cinco niveles de detalle. Una vez que sea difícil para el equipo responder al “Por Qué”, la causa más probable habrá sido identificada.

¿Cuándo se utiliza?  
 Al intentar identificar las causas principales más probables de un problema.

¿Cómo se utiliza?
1. Realizar una sesión de Lluvia de Ideas normalmente utilizando el modelo del Diagrama de Causa y Efecto.
2. Una vez que las causas probables hayan sido identificadas, empezar a preguntar “¿Por qué es así?” o “¿Por qué está pasando esto?”
3. Continuar preguntando Por Qué al menos cinco veces. Esto reta al equipo a buscar a fondo y no conformarse con causas ya “probadas y ciertas”.
4. Habrá ocasiones en las que se podrá ir más allá de las cinco veces preguntando Por Qué para poder obtener las causas principales.
5. Durante este tiempo se debe tener cuidado de NO empezar a preguntar “Quién”. Es muy importante recordar que el equipo está interesado en las causas del problema y no en las personas involucradas.

5´s japonesas
El método de las 5S, así denominado por la primera letra del nombre que en japonés designa cada una de sus cinco etapas, es una técnica de gestión japonesa basada en cinco principios simples. 
Las 5S han tenido una amplia difusión y son numerosas las organizaciones de diversa índole que lo utilizan,tales como, empresas industriales, empresas de servicios, hospitales, centros educativos o asociaciones.
La integración de las 5S satisface múltiples objetivos. Cada 'S' tiene un objetivo particular:
Denominación Concepto Objetivo particular

Clasificación (Seiri).Separar innecesarios.Eliminar del espacio de trabajo lo que sea inútil.
Orden (Seiton).Situar necesarios.Organizar el espacio de trabajo de forma eficaz.
Limpieza (Seisō).Suprimir suciedad.Mejorar el nivel de limpieza de los lugares.
Estandarización  (Seiketsu).Señalizar anomalías. Prevenir la aparición de la suciedad y el desorden.

Mantener la disciplina (Shitsuke).Seguir mejorando.Fomentar los esfuerzos en este sentido.

La metodología pretende:
Mejorar las condiciones de trabajo y la moral del personal. Es más agradable y seguro trabajar en un sitio limpio y ordenado.Reducir gastos de tiempo y energía.Reducir riesgos de accidentes o sanitarios.Mejorar la calidad de la producción.Mejorar la seguridad en el trabajo.

Diagrama de afinidad
El Diagrama de Afinidad, es una herramienta que sintetiza un conjunto de datos verbales (ideas, opiniones, temas, expresiones,…) agrupándolos en función de la relación que tienen entre sí. Se basa en el principio de que muchos de estos datos verbales son afines, por lo que pueden reunirse bajo unas pocas ideas generales.

La aplicación del diagrama de afinidad está indicada cuando: Se quiere organizar un conjunto amplio de datos, se pretende abordar un problema de manera directa, el tema sobre el que se quiere trabajar es complejo o es necesario el consenso del grupo.

El método-KJ, denominado posteriormente diagrama de afinidad, fue desarrollado en la década de 1960 por el antropólogo japonés Jiro Kawakita. Esta herramienta sorprende por su potencia para organizar datos.

Todas estas herramientas son útiles para cualquier empresa, industria o institución que sea capaz de implementar un sistema de alta calidad y tener los mejores estándares en el mercado mundial.

http://www.fundibeq.org/opencms/export/sites/default/PWF/downloads/gallery/methodology/tools/diagrama_causa_efecto.pdf
http://www.monografias.com/trabajos6/amef/amef.shtml
http://www.dgplades.salud.gob.mx/descargas/dhg/DIAGRAMA_ARBOL.pdf
http://manuelgross.bligoo.com/content/view/1049038/Tecnicas-de-resolucion-de-problemas-Los-5-Por-Que.html
http://es.wikipedia.org/wiki/5S
http://www.hltnetwork.com/descargas/Significado5S.pdf
http://www.aiteco.com/diagrama-de-afinidad/

miércoles, 19 de junio de 2013

Mi punto de vista sobre " El libro de los 5 anillos" de Miyamoto Musashi ,1643

El Libro de los Cinco Anillos fue escrito en 1643 por Miyamoto Musashi, duelista invicto, samurai sin señor (ronin) y maestro independiente. Musashi fue un hombre de armas profesional nacido en una larga tradición de cultura marcial que al final llegó a dominar la totalidad de la política y de la sociedad japones.

En este libro que según relata Musashi que escribió mientras se encontraba en una cueva como "ermitaño" a una avanzada edad, nos habla del camino de la estrategia: en las artes marciales, en el arte de la espada, y de la propia estrategia militar japonesa.
Este libro esta dedicado a aquellos que quieran dominar a la perfección estas estas artes, ya que en sus paginas habla sobre diversas posturas; las mas fuertes, medias y débiles, sobre como pensar, como tener una mente fuerte y no débil, sobre la importancia de una visión mas allá de lo que podemos observar y darnos cuenta, el coraje, la determinación, la actitud, el espíritu, permanecer fuerte por dentro y no dejar que nuestros enemigos vean nuestra mente, las posiciones y el arte de empuñar un sable, la fuerza sobre el sable, cuando se esta en un combate muerte a muerte lo primero y único que se tiene en mente es matar, matar y matar a tu enemigo o a tu adversario.
claro todo esto no se aprende solo leyendo el libro si no con la practica, practica que puede llevar toda una vida para poder perfeccionar las estrategias y técnicas en estas artes, pero que logrando nada podrá detenernos.

Este libro si bien esta dedicado a aquellos que desean convertirse en maestros de las artes marciales, también puede ser interpretado de manera individual para entender los sentidos de la vida, que nos relatan los manuscritos de la tierra , el agua , el fuego y el viento, y enfrentar las dificultades de la vida conocer a nuestros enemigos, y nosotros mismos: nuestras debilidades, fortalezas y habilidades y nunca darse por vencido siempre atacar a matar, de otra manera ser los mejores en este competitivo mundo.
como dice el libro entre mas se lea el libro, más se encuentra entre sus paginas.

"cuando has comprendido el Camino de la Estrategia, no existe una sola cosa que no seas capaz de comprender", y "puedes ver el Camino en todas las cosas"
Miyamoto Musashi 1643


domingo, 16 de junio de 2013

HERRAMIENTAS DE LA CALIDAD
parte 1

Diversas son las herramientas para la correcta administración del control de la calidad dentro de una empresa. Aquí algunas.

Diagrama de Pareto

El Principio de Pareto afirma que en todo grupo de elementos o factores que  contribuyen a un mismo efecto, unos pocos son responsables de la mayor parte de dicho efecto.
El Análisis de Pareto es una comparación cuantitativa y ordenada de elementos o factores según su contribución a un determinado efecto.

Características.
Priorización
Identifica los elementos que más peso o importancia tienen dentro de un grupo.
Unificación de Criterios
Enfoca y dirige el esfuerzo de los componentes del grupo de trabajo hacia un objetivo prioritario común.
Carácter objetivo
Su utilización fuerza al grupo de trabajo a tomar decisiones basadas en datos y hechos objetivos y no en ideas subjetivas.

El Diagrama de Pareto es la representación gráfica de la tabla de  Pareto, y visualizar el análisis correspondiente.
Características fundamentales de las Tablas y los Diagramas de Pareto.
Simplicidad
Tanto la Tabla como el Diagrama de Pareto no requieren ni cálculos complejos ni técnicas sofisticadas de representación gráfica.
Impacto visual
El Diagrama de Pareto comunica de forma clara, evidente y de un "vistazo", el resultado del análisis de comparación y priorización.

El objetivo del Análisis de Pareto es utilizar los hechos para identificar la máxima concentración de potencial del efecto en estudio (Magnitud del problema, costes, tiempo, etc) en el número mínimo de elementos que a él contribuyen.Con este análisis buscamos enfocar nuestro esfuerzo en las contribuciones más importantes, con objeto de optimizar el beneficio obtenido del mismo.

Lluvia de ideas
También llamado "Brainstorming” o “Lluvia de ideas”, la herramienta por medio de la cual se puede potenciar la participación y la creatividad de un grupo de personas, enfocándolas hacia un objetivo común.
Resume los pasos y recomendaciones que permiten asegurarse que la distorsión de estos dos factores, creatividad y participación, sea mínima durante la sesión, y que los procesos de innovación, asociación y ampliación de ideas se desarrollen correctamente.
La lluvia de Ideas es una técnica de grupo que permite la obtención de un gran número de ideas sobre un determinado tema de estudio.

Características:
Participación
Favorecen la intervención múltiple de los participantes, enfocándola hacia un tema específico, de forma estructurada y sistemática.
Creatividad
Las reglas a seguir para su realización favorecen la obtención de ideas innovadoras. Estas son en general, variaciones, re ordenaciones o asociaciones de conceptos e ideas ya existentes.

La lluvia de Ideas es una puesta en común de las ideas de los componentes de un grupo sobre un tema en estudio. La información que de su utilización se extrae es una lista de posibilidades que serán el punto de partida para continuar el análisis.
La lluvia de Ideas no proporciona respuestas a preguntas.

La Estratificación

La estratificación es un método estadística utilizado para el control, análisis y mejora de la calidad consistente en clasificar los datos disponibles por grupos con similares características. A cada grupo se le denomina estrato.

Los estratos a definir lo serán en función de la situación particular de que se trate, pudiendo establecerse estratificaciones atendiendo a:

Personal.
Materiales.
Maquinaria y equipo.
Áreas de gestión.
Tiempo.
Entorno.
Localización geográfica.
Otros.

La estratificación puede apoyarse en distintas herramientas de calidad, si bien el histograma es el modo más habitual de presentarla.
Permite aislar la causa de un problema, identificando el grado de influencia de ciertos factores en el resultado de un proceso.
Puede apoyarse y servir de base en distintas herramientas de calidad.

Checklist o listas de verificación.
Los planes de trabajo detallados de la logística electoral pueden convertirse en documentos imposibles de manejar cotidianamente por el personal. Los calendarios y cronogramas, así como resúmenes de las fechas y de los aspectos clave del plan de trabajo, generalmente no constituyen el formato más efectivo para
monitorear y tener presentes las tareas pendientes. El uso de listas de verificación constituye un paso intermedio entre estos dos documentos esenciales de planeación y monitoreo.
Las listas de verificación pueden desarrollarse en diferentes niveles y adecuarse a:
Las responsabilidades individuales de los miembros del personal.Las actividades en localidades específicas.El monitoreo general de una actividad basada en un proyecto.
Un formato jerarquizado en el que las listas de verificación para la conclusión de todas las etapas de una actividad o función en cada localidad proveen información para la lista general de verificación que a su vez vigila el desarrollo general de la actividad en relación con los requerimientos del cronograma de la elección, constituye una herramienta administrativa muy efectiva. Cuando se cuenta con computadoras, las listas de verificación pueden capturarse e integrarse automáticamente para mejorar la eficacia en la transferencia de datos. La conclusión de las etapas de una tarea en particular en un lugar específico, actualiza automáticamente el progreso de las listas de verificación del cronograma general.
Al diseñar una lista de verificación, se debe tener muy claro su propósito. Los mejores diseños incluyen espacios e instrucciones para que el personal pueda marcar la conclusión de cada etapa y la conclusión de la actividad en su conjunto. Las listas de verificación para actividades individuales o funciones específicas deben incluir todas las acciones clave, en una secuencia temporal lógica, para el desarrollo y adecuado cumplimiento de cada tarea.

Control Estadístico de Procesos o SPC
El método general es prescriptivo y descriptivo, no es analítico. Al controlar estadísticamente los procesos no se trata de moldear la distribución de datos reunidos en un proceso dado. Lo que se trata es de controlar el proceso con ayuda de reglas de decisión que localicen discrepancias apreciables entre los datos observados y las normas del proceso que se controla. Se dice que un proceso esta bajo control estadístico cuando sólo se producen variaciones debidas a causas comunes. En otras palabras el objetivo y razón
de ser control Estadístico de Procesos es ayudar a identificar las causas especiales que producen variaciones en el proceso y suministrar información para tomar decisiones.

Se aplica a todo: a las cosas, a las personas y a los actos. Determina y analiza rápidamente las causas que pueden originar desviaciones para que no vuelvan a presentarse en el futuro.
Existen cuatro factores que deben ser considerados al aplicar el proceso de control. Cantidad, Tiempo, Costo y Calidad. Su aplicación incide directamente en la racionalización de la administración y
consecuentemente, en el logro de la productividad de todos los recursos de la empresa. Este control estadístico de puede aplicar en todos los tipos de empresas donde se tiene un conjunto de operaciones materiales ejecutadas para la obtención, transformación o transporte de uno o varios productos.


El Military Standard 
(MIL STD) fue diseñado en EEUU para su utilización en la II Guerra Mundial (MIL-STD-105D; ISO 2859; UNE 66020).
Se trata del control de recepción más utilizado en la actualidad. Consiste en seguir una serie de normas(estándares).
Niveles de inspección:
Nivel I: Coste bajo
Nivel II: Coste estándar
Nivel III: Coste Alto
 Niveles S-1 a S-4: Ensayos destructivos 
Planes de inspección:
Inspección rigurosa: se espera una calidad inferior al AQL (p > pA). El tamaño muestral es elevado. Inspección normal: la calidad que se espera del proveedor es similar al AQL.
Inspección reducida: la calidad que se espera es muy alta (p < pA). El tamaño muestral es inferior al plan normal. 
Cambios de planes de inspección:
Al comienzo de la tarea de inspección se toma el plan normal.
Se pasa de inspección normal a rigurosa si 2 de 5 lotes consecutivos han sido rechazados.
Se pasa del plan riguroso al normal cuando han sido aceptados 5 lotes consecutivos.
Se pasa del plan normal al reducido si se aceptan 10 lotes consecutivos.
Se pasa del plan reducido al normal cuando se rechaza 1 lote.
Si tras más de 10 lotes seguimos con el plan riguroso, concluye la inspección y se le pide al proveedor que aumente la calidad.
etc.

Las herramientas para el correcto control de la calidad son muy diversas pero muy relacionadas entre si, si bien nos ayuda un poco mas a entender todo esto de la calidad.

http://www.fundibeq.org/opencms/export/sites/default/PWF/downloads/gallery/methodology/tools/diagrama_de_pareto.pdf
http://homepage.cem.itesm.mx/alesando/index_archivos/MetodolDisMejoraDeProcesos/LluviaDeIdeas.pdf
http://www.fundibeq.org/opencms/export/sites/default/PWF/downloads/gallery/methodology/tools/tormenta_de_ideas.pdf
http://www.aiteco.com/estratificacion/
http://sisbib.unmsm.edu.pe/bibvirtualdata/tesis/ingenie/cusiyupanqui_cc/cap4.pdf
http://aceproject.org/main/espanol/po/pob02c.htm
http://www.repositoriodigital.ipn.mx/bitstream/handle/123456789/5507/MANUAL_CURSO_CONTROLESTADISTICODEPROCESOS.pdf?sequence=1
http://www.buenastareas.com/ensayos/Tablas-Militar-Standar/1160176.html


miércoles, 12 de junio de 2013

GRANDES PERSONAJES DEL CONTROL DE LA CALIDAD parte 2

Grandes personajes que  dedicaron su vida al estudio del control de la calidad, con grandes aportaciones a la calidad que hoy en nuestros días han repercutido.

Joseph M. Juran

Joseph M. Juran nació el 24 de diciembre de 1904 en la ciudad de Braila, Rumania, y se radicó en Estados Unidos en 1912. Graduado en ingeniería y leyes, ascendió hasta ocupar los puestos de gerente de calidad en la Western Electric Company, fue funcionario del gobierno, y profesor de ingeniería en la Universidad de Nueva York antes de iniciarse en la carrera de consultor en 1950.
Juran señala que la administración para lograr calidad abarca tres procesos básicos: la planificación de la calidad, el control de la calidad y el mejoramiento de la calidad. (Estos procesos son comparables a los que se han utilizado durante largo tiempo para administrar las finanzas). Su “trilogía”, muestra cómo se relacionan entre sí dichos procesos. Juran identifica los componentes de la revolución de la calidad en Japón de la siguiente manera: Los directivos de más alto nivel se hicieron cargo de la administración para lograr calidad. Capacitaron a toda la jerarquía en los procesos de la gestión de calidad Intentaron mejorar la calidad a un ritmo revolucionario.
Le dieron participación a la mano de obra. Agregaron metas de calidad en el plan empresarial.

El enfoque de Juran para el Mejoramiento de la Calidad
En la lista de prioridades de Juran, el mejoramiento de la calidad ocupa un primer lugar. En este sentido, ha elaborado una propuesta estructurada que expuso por primera vez en su libro Managerial Breakthrough (Idea revolucionaria de administración), en 1964. Esta propuesta incluye una lista de responsabilidades no delegables para los altos ejecutivos: Crear una conciencia de la necesidad y oportunidad para el mejoramiento. Exigir el mejoramiento de la calidad; incorporarlo a la descripción de cada tarea o función. Crear la infraestructura: instituir un consejo de la calidad; seleccionar proyectos para el mejoramiento; designar equipos; proveer facilitadores. Proporcionar capacitación acerca de cómo mejorar la calidad. Analizar los progresos en forma regular. Expresar reconocimiento a los equipos ganadores.Promocionar los resultados. Estudiar el sistema de recompensas para acelerar el ritmo de mejoramiento. Mantener el impulso ampliando los planes empresariales a fin de incluir las metas de mejoramiento de la calidad. Según Juran, la mayor oportunidad de mejoramiento  tanto tiempo descuidado  estriba en los procesos empresariales.

La propuesta de Juran para la Planificación de la Calidad
Juran también ha identificado un proceso global para la planificación a fin de alcanzar las metas de calidad: Identificar a los consumidores. Todo aquel que pueda ser impactado es un consumidor potencial, ya sea externo o interno. Determinar las necesidades del consumidor. Crear características de producto que puedan responder a las necesidades de los consumidores.
Crear procesos que sean capaces de fabricar las características del producto en las condiciones operativas. Transferir los procesos a las áreas operativas. Juran piensa que la planificación de la calidad debería dar participación a aquellos que serán directamente afectados por el plan. Además, los planificadores deberían entrenarse en el uso de las herramientas y los métodos modernos para la planificación de la calidad.

La Propuesta de Juran para el Control de la Calidad
En este sentido, Juran sigue el conocido circuito de retroalimentación: Evaluar la performance real. Compararla con la meta.Tomar medidas sobre la diferencia. Juran promueve la delegación del control a los más bajos niveles posibles en la organización, cediendo la responsabilidad del autocontrol a los trabajadores. También promueve la capacitación de los trabajadores en la búsqueda de información y su análisis, a fin de permitirles tomar decisiones sobre la base de los hechos.

Ciertamente el trabajo de Juran es  abundante en características para sus "clientes" de todo el mundo.  Una lista de solamente  los  aspectos más destacados de su  carrera lo demuestra.  En  1937,   Juran  conceptualizó  el  principio  de  "Pareto"  que  millones de gerentes  utilizan  para  ayudar a separar los "pocos vitales" de los "muchos útiles" de sus  actividades.  Escribió  un  trabajo  que  es  la  norma  de  referencia  en  Control  de Calidad, el Manual de Control de Calidad que se publicó por primera ocasión en 1951 y actualmente está en la 4ª. Edición. En 1954 dio una serie de conferencias a los gerentes japoneses   que   les   ayudó   a   establecer   la   "ruta  de  la  calidad".  El  libro  clásico "Managerial Breakthrough" (Administración de ruptura), publicado por primera vez en 1964,  presentó  una  teoría  más  general de la administración por calidad, juntando los conceptos de "control de calidad" con la "mejora de la calidad". Fue el primer libro que describió paso a paso la secuencia para la mejora. Un proceso que se ha convertido en la base de las iniciativas en calidad en  todo el mundo.

Philip Crosby

Philip Crosby nació en Wheeling, Virginia el 18 de junio de 1926. Entre su participación en la Segunda Guerra Mundial y Corea, Philip Crosby comenzó su trabajo como profesional de la calidad en 1952 en una escuela médica. Su carrera comenzó en una planta de fabricación en línea donde decidió que su meta sería enseñar administración en la cual previniendo problema sería más provechoso que ser bueno en
solucionarlos. Trabajó para Crosley de 1952 a 1955; Martin-Marietta de 1957 a 1965; y para ITT de 1965 a 1979. Como encargado de calidad para Martin-Marietta, creó el concepto de cero defectos. Durante sus 14 años como vicepresidente corporativo para el ITT, trabajó con muchas compañías industriales y de servicio alrededor del mundo, implanto su filosofía pragmática, y encontró que era aplicable en el mundo entero. En 1979 fundó Philip Crosby Associates, Inc. (PCA), y durante los diez años siguientes la convirtió en una organización con 300 empleados alrededor del mundo y con $80 millones de dólares en ganancias. PCA enseñó a la gerencia cómo establecer una cultura preventiva para lograr realizar las cosas bien y a la primera. GM, Chrysler, Motorola, Xerox, muchos hospitales, y cientos de corporaciones alrededor del mundo vinieron a PCA para entender la Administración de la calidad. Todavía enseñamos en 16 lenguajes alrededor del mundo. “Su lema mejor conocido es la exhortación o lograr cero defectos”. “La calidad empieza en la gente no en las cosas "Calidad es "ajustarse a las especificaciones" según Crosby.

Cero defectos
Crosby hizo entender a los directivos que cuando se exige perfección ésta puede lograrse, pero para hacerlo la alta gerencia tiene que motivar a sus trabajadores. De esta forma planteaba la importancia de las relaciones humanas en el trabajo. Otra mención de Crosby en el que dio mucho hincapié era que “Las personas son seres humanos y los humanos cometen errores”. Nada puede ser perfecto mientras intervengan seres humanos”. Los errores son causados por dos factores: falta de conocimiento y falta de atención. El conocimiento puede medirse y las deficiencias se corrigen a través de medios comprobados. La falta de atención deberá de corregirse por la propia persona. La persona que se compromete a vigilar cada detalle y a evitar con cuidado los errores, está dando un paso enorme hacia la fijación de la meta de Cero Defectos en todas las cosas.

Los 14 puntos de la mejora continua
En los años 60's Philp B. Crosbry, propuso un programa de 14 pasos tendiente a lograr la meta de "cero defectos" empleando la planeación, implementación y operación de un programa exitoso en el mejoramiento de la calidad. El programa planteaba la posibilidad de lograr la perfección mediante la motivación de los trabajadores por parte de la dirección de .la organización, dándole un gran peso a las relaciones humanas en el trabajo.
Estos catorce pasos son los siguientes:
Paso 1: Compromiso de la dirección:
La alta dirección debe definir y comprometerse en una política de mejora de la calidad.
Paso 2: Equipos de mejora de la calidad:
Se formarán equipos de mejora mediante los representantes de cada departamento.
Paso 3: Medidas de la calidad:
Se deben reunir datos y estadísticas para analizar las tendencias y los problemas en el funcionamiento de la organización.
Paso 4: El costo de la calidad:
Es el coste de hacer las cosas mal y de no hacerlo bien a la primera.
Paso 5: Tener conciencia de la calidad:
Se adiestrará a toda la organización enseñando el coste de la no calidad con el objetivo de evitarlo.
Paso 6: Acción correctiva:
Se emprenderán medidas correctoras sobre posibles desviaciones.
Paso 7: Planificación cero defectos:
Se definirá un programa de actuación con el objetivo de prevenir errores en lo sucesivo.
Paso 8: Capacitación del supervisor:
La dirección recibirá preparación sobre cómo elaborar y ejecutar el programa de mejora.
Paso 9: Día de cero defectos:
Se considera la fecha en que la organización experimenta un cambio real en su funcionamiento.
Paso 10: Establecer las metas:
Se fijan los objetivos para reducir errores.
Paso 11: Eliminación de la causa error:
Se elimina lo que impida el cumplimiento del programa de actuación error cero.
Paso 12: Reconocimiento:
Se determinarán recompensas para aquellos que cumplan las metas establecidas.
 Paso 13: Consejos de calidad:
Se pretende unir a todos los trabajadores mediante la comunicación.
Paso 14: Empezar de nuevo:
La mejora de la calidad es un ciclo continuo que no termina nunca.

Kaoru Ishikawa

Kaoru Ishikawa nació en Japón en 1915 y se graduó en el departamento de Ingeniería de la Universidad de Tokio, en 1939 donde obtuvo un titulo de química aplicada. Obtuvo el doctorado en Ingeniería en dicha Universidad y fue promovido a profesor en 1960.

Después de la guerra, llegó a estar comprometido con los primeros esfuerzos de la JUSE para promover la calidad. Más tarde llegó a ser presidente del Instituto Tecnológico de Musashi. Hasta su muerte, en 1989, el doctor Ishikawa fue la figura más importante en Japón en lo que respecta al control de la calidad. Fue el primero en utilizar el concepto de Control de la Calidad Total, y desarrolló las “siete herramientas” que consideró que cualquier trabajador podía utilizar. Pensó que esto diferenciaba su tesis de las otras, que dejaban la calidad en vida; recibió incluso el Premio Deming y la segunda orden del tesoro sagrado, un muy alto honor del gobierno japonés. Ishikawa estaba interesado en cambiar la manera de pensar de la gente respecto a su trabajo. Para él, la calidad era un constante proceso que siempre podía ser llevado un paso más.

Las siete herramientas de Ishikawa son:

  1. Los diagramas de Pareto.
  2. Los diagramas de causa-efecto (diagramas “espinas de pescado” o Ishikawa)
  3. Los histogramas
  4. Las hojas de control
  5. Los diagramas de dispersión
  6. Los fluxogramas
  7. Los cuadros de control
Si bien Ishikawa admitió que no todos los problemas se podían resolver con estas herramientas, consideró que era posible encontrar una solución en el 95 por ciento de los casos, y que el operario de planta podía utilizarlas eficazmente. Si bien algunas de las herramientas habían sido bien conocidas en otra época, Ishikawa las organizó específicamente para mejorar el control de la calidad. El creó el diagrama de causa-efecto, denominado en forma descriptiva “diagrama de espina de pescado”, otras veces llamado diagrama Ishikawa para distinguirlo de un tipo diferente de diagrama de causa-efecto utilizado en programas de computación.

Quizá la más trascendente de las herramientas sea la idea de los círculos de control de calidad (CCC). Su éxito le sorprendió incluso a él mismo, especialmente cuando la idea se exportó del Japón.

La Filosofía de la Calidad de Ishikawa
  1. La calidad comienza y finaliza con la educación.
  2. Un primer paso hacia la calidad es conocer los requerimientos del consumidor.
  3. Las condiciones ideales del control de calidad se dan cuando la inspección ya no es necesaria.
  4. Elimine la causa de origen y no los síntomas.
  5. El control de calidad es una responsabilidad de todos los trabajadores y de todas las divisiones.
  6. No confunda los medios con los objetivos
  7. Priorice la calidad y fije sus perspectivas de ganancia en el largo plazo.
  8. El marketing es la entrada y la salida de la calidad
  9. La dirección no debe reaccionar negativamente cuando los hechos son presentados por los subordinados.
  10. El noventa y nueve por ciento de los problemas de una compañía se pueden resolver utilizando las siete herramientas del control de calidad.
  11. La información sin difusión es información falsa; por ejemplo, fijar un promedio sin comunicar el desvío estándar.
Un Diagrama Causa-Efecto proporciona un conocimiento común de un problema complejo, con todos sus elementos y relaciones claramente visibles a cualquier nivel de detalle. Su utilización ayuda a organizar la búsqueda de causas de un determinado fenómeno pero no las identifica y no proporciona respuestas a preguntas.Por sus características principales la construcción de un Diagrama de Causa-Efecto es muy útil cuando: Se quiere compartir conocimientos sobre múltiples relaciones de causa y efecto. Por ser una ordenación de relaciones lógicas, el Diagrama de Causa-Efecto es una herramienta frecuentemente utilizada para:Obtener teorías sobre relaciones de causa-efecto en un proceso lógico paso a paso. Obtener una estructuración lógica de muchas ideas "dispersas", como una lista de ideas resultado de una Tormenta de Ideas.

Si bien las grandes empresas transnacionales no hubieran tenido la asesoría en el tema de la calidad,  no serian lo que son en la actualidad y que hacen de sus países potencias lideres en los mercados mundiales.




martes, 11 de junio de 2013

GRANDES PERSONAJES DEL CONTROL DE LA CALIDAD parte 1

Grandes personajes de la historia que cambiaron la economía de los países que hoy en día son de las 2 grandes potencias Estados Unidos y Japón en el control estadístico de la calidad.

Walter A. Shewhart
Nació en New Canton, Illinois, U.S.A., el 18 de marzo de 1891 hijo de Anton y Esta Barney Shewhart, acudió a la Universidad de Illinois, y se doctoró en física en la Universidad de California en Berkeley en 1917. Shewhart tuvo una excelente preparación en ciencias e ingeniería que le permitieron tener una vida llena de logros. Obtuvo la licenciatura y maestría de la Universidad de Illinois, y en 1917 el doctorado en física en la Universidad de California en Berkley. Dio clases en las universidades de Illinois y California, y encabezó durante un tiempo breve el Departamento de Física en la Escuela Normal de Wisconsin en LaCrosse, U.S.A.
Los ingenieros de Bell Telephone habían estado trabajando para mejorar la confiabilidad de sus sistemas de transmisión. Debido a que sus amplificadores y otros equipos debían ser instalados bajo tierra, había la necesidad económica de reducir la frecuencia de fallas y reparaciones. Bell Telephone ya se había dado cuenta de la importancia de reducir la variación en el proceso de manufactura. Por otra parte, se habían dado cuenta que el proceso continuo de ajustes como reacción a las fallas reportadas, en realidad aumentaban las variaciones en detrimento de la calidad de los equipos.
En 1924, Shewhart delimitó el problema en términos de variación de causas asignables y causas ocasionales e introdujo la gráfica de control como una herramienta para distinguir entre las dos. Shewhart hizo hincapié en que para llevar un proceso de producción a un estado de control estadístico, donde sólo existan variaciones de causas ocasionales, y mantenerlo en control, se requiere predecir los resultados futuros y administrarlo económicamente.
Shewhart trabajó para desarrollar sus teorías en los Laboratorios de Bell Telephone desde su fundación en 1925 hasta su retiro en 1956, y publicó una serie de documentos en el Bell System Technical Journal. Su trabajo fue resumido en su libro Economic Control of Quality of Manufactured Product (1931). Las gráficas de Shewhart fueron adoptadas por la American Society for Testing Materials (ASTM, Sociedad Americana para Prueba de Materiales) en 1933 y utilizadas para aumentar la producción durante la Segunda Guerra Mundial en los estándares americanos de guerra Z1.1-1941, Z1.2-1941 y Z1.3-1942.
En 1938 su trabajo llamó la atención de los físicos W. Edwards Deming y Raymond T. Birge. Los dos estaban profundamente interesados por el tema del error de medición en la ciencia y habían publicado un documento de referencia en Reviews of Modern Physics en 1934. Leyendo las ideas de Shewhart, escribieron a la editorial, para modificar totalmente sus propuestas en los términos que Shewhart planteó.
Un encuentro inició una larga colaboración entre Shewhart y Deming que involucró el trabajo en productividad durante la Segunda Guerra Mundial y el abanderamiento de Deming con las ideas de Shewhart en Japón de 1950 en adelante.
Deming desarrolló algunas de las propuestas metodológicas de Shewhart acerca de la inferencia científica con el nombre Ciclo de Shewhart. Durante los 90's, el ingenio de Shewhart fue redescubierto por una tercera generación de directivos industriales como el enfoque Seis Sigma.
La influencia de Shewhart en ASQ (American Society for Quality) fue profunda. Poco antes de su muerte, enfatizó a sus miembros que ellos "extendieron el campo más allá de mis visiones anteriores y vieron áreas de servicio que me complacen y sorprenden. Espero que continúen."


Edward Deming
Nació en 1900 en la ciudad de Sioux, Iowa; en 1921 se graduó en la Universidad de Wyoming con una diplomatura BS en Ingeniería Eléctrica, en 1925 recibió un Máster en matemáticas en la Universidad de Colorado en Boulder. A sugerencia y con el apoyo de uno de sus profesores, el Profesor Lester, fue aceptado en la Universidad de Yale para su doctorado como físico-matemático que obtuvo en 1928. Aunque tenía asegurada la enseñanza necesitaba dinero para su manutención por lo que obtuvo un trabajo de verano en los Laboratorios Bell de AT&T, que tuvo una gran influencia sobre él, así como la de Walter Shewhart, quien cambió su vida.
 Deming también fue un experto en muestreo y trabajó para la oficina del censo. El concepto de Control Estadístico, tal como lo desarrolló Shewhart y luego reforzó Deming, llegó a ser un concepto tan importante para el muestreo y sus inferencias como para el Control de Calidad.
Cuando estalló la II Guerra Mundial, los Estados Unidos que hasta entonces habían seguido una política de aislamiento estaban mal preparados, con uno de los ejércitos más pequeños del mundo. El país tuvo que preparase contra-reloj para una guerra y empezar la fabricación masiva de armamento. Deming fue llamado para enseñar a los ingenieros y directores de planta los conceptos básicos del control de calidad. Explicó como incrementando la calidad disminuyen los costes y aumenta la productividad, un concepto contra-intuitivo que hoy se ha demostrado totalmente correcto.
Mientras tanto Japón sufría.  “Made in Japan” se había convertido en sinónimo de producto de pésima calidad y de poca duración. Era cierto tanto antes como después de la guerra para productos de consumo fabricados en serie. Los líderes industriales habían leído literatura sobre control de calidad y algunos empezaron a intuir que el control de calidad podría tener un efecto positivo en el país. Pero necesitaban un experto para transmitir el conocimiento más allá de lo descrito en los textos. El nombre de Deming aparecía en la literatura de calidad y cuando se enteraron que trabajaba en el equipo del General MacArthur fue invitado a dar conferencias en Japón. JUSE la “Unión de Científicos e Ingenieros Japoneses” patrocinó el evento, una primera semana dedicada a los principios elementales de Control Estadístico de la Calidad.
Pero mientras daba la conferencia se dio cuenta de que estaba cometiendo la misma equivocación fatal que en EEUU. Estaba dirigiéndose a la misma gente que en EEUU, directores de fábrica e ingenieros. Lo explicó a sus patrocinadores que entendieron  el problema e hicieron los arreglos para que en esta misma  visita pudiera hablar a los 100 líderes económicamente más representativos del país.  Les explicó cuál era su responsabilidad en relación a la calidad.
Hecho en Japón “made in Japan” se convirtió en sinónimo de la mayor calidad mundial. Los japoneses empezaron a dominar cámaras, antes dominadas por empresas alemanas; relojes, antes dominadas por Suiza; televisión, radios, productos electrónicos, motocicletas y otras industrias hasta entonces dominadas por compañías americanas.
Después de la guerra las industrias americanas empezaron a abandonar lo que habían aprendido sobre calidad. Además la fuerza laboral también cambió cuando las mujeres fueron perdiendo sus trabajos para dejarlos a los veteranos que necesitaban trabajo.
El nivel de conocimiento no era suficientemente profundo ya que la calidad no había sido en sí un propósito para EEUU.

Los japoneses fueron muy inteligentes al llamar a Deming para que le enseñara la importancia del control de la calidad, y Estados Unidos lo dejo pasar, gran equivocación, fue así como Japón es la potencia que es hoy. Claro Estados Unidos se dio cuenta y se puso en marcha con su calidad atendiendo la consultoría de Deming.

domingo, 9 de junio de 2013

4 GRANDES PERSONAJES DE LA ADMINISTRACIÓN INDUSTRIAL Y 1 DE LAS MATEMÁTICAS

4 GRANDES PERSONAJES DE LA ADMINISTRACIÓN INDUSTRIAL Y 1 DE LAS MATEMÁTICAS


Henry Fayol, ingeniero francés, nació en Constantinopla en 1841, ahora llamada Estambul Se graduó en ingeniería de minas a los 19 años en la Escuela de minas de Saint-Etienne e ingresó a una empresa metalúrgica y carbonífera donde desarrolló toda su carrera. En 1916 publicó su famoso libro Administración industrial y general. Otra importante obra suya es Teoría general del Estado, que se conoce muy poco en México. Asimismo, publicó importantes conferencias en el boletín de la Sociedad industrial minera de Francia, como “La organización administrativa” y “La importancia de la función administrativa”.  
Para Fayol, la administración es una actividad común para cualquier tipo de negocio, organizaciones lucrativas y no lucrativas, organismos políticos, deportivos, religiosos o de diversión, etc., y juega un papel muy importante en la sociedad. Toda empresa necesita aplicar una metodología en sus actos, y el proceso administrativo es sin duda esa metodología que se exige para la solución de los problemas que surgen en cualquier organización.
Dedicó su juventud al estudio de la organización y al de los conceptos de eficiencia y racionalidad, llegando a crear una verdadera doctrina que más tarde se denominaría “fayolismo”. Los 14 principios generales de la administración.
  1. División de trabajo. Es un acto de orden natural que tiene por objeto llegar a producir más con el mismo esfuerzo.
  2. La autoridad Es el derecho a mandar y el poder de hacerse obedecer.
  3. La disciplina. La disciplina es esencialmente la obediencia, la asiduidad, la actividad, la conducta, los signos exteriores de respeto manifestado de acuerdo con las convenciones establecidas entre la empresa y sus agentes.
  4. Unidad de mando .Un subordinado debe recibir órdenes sólo de un superior.
  5. Unidad de dirección .Un solo jefe y un solo programa para un conjunto de operaciones que tiendan al mismo objeto.
  6. Subordinación del interés particular al interés general. El interés de un subordinado o de un grupo de subordinados no debe prevalecer sobre el interés de la empresa.
  7. Remuneración del persona.l Debe haber una justa y garantizada satisfacción para los empleados y para la organización en términos de retribución.
  8. Centralización. Se refiere a la concentración de la autoridad en la alta jerarquía de la organización.
  9. Jerarquía o cadena escalar. Es la línea de autoridad que va del escalón más alto al más bajo.
  10. Orden. Un lugar para cada cosa y cada cosa en su lugar.
  11. Equidad. La equidad no exige ni la energía ni el rigor. Exige en la aplicación mucha sensatez, mucha experiencia y mucha bondad. El deseo de equidad y el deseo de igualdad son aspiraciones que hay que tener en cuenta en el trato con el personal.
  12. Estabilidad del personal. La rotación tiene un impacto negativo sobre la eficiencia de la organización. Cuanto más tiempo una persona permanezca en un cargo, más tendrá la posibilidad de manifestar interés, acción e iniciativa y podrá explotar sus habilidades dentro de la organización
  13.  Iniciativa. Es la capacidad de visualizar un plan y de asegurar su éxito, la libertad de proponer y la de ejecutar.
  14. Unión del personal o espíritu de equipo. “La unión hace la fuerza” es un dicho muy antiguo, pero en realidad es la única fórmula para que un equipo de trabajo logre sus objetivos. 


Frederick Winslow Taylor (1856-1915). Es una de las personalidades más importantes en el mundo de la administración científica frecuentemente se le llama "el padre de la administración científica". Nació en 1856 en GermanTown estado de Pennsylvania y pertenecía a la clase media. En 1870 ingresó como mecánico a un taller; rápidamente convirtió su departamento en uno de los más productivos y, por lo mismo, consiguió ser jefe de mecánicos. Taylor dedico la mayor parte de sus esfuerzos a estudiar y encontrar la mejor manera de ejecutar el trabajo a través de los estudios de los tiempos y movimientos y de la forma más adecuada para remunerar a los trabajadores con el fin de incrementar la productividad.

Taylor incorpora el cronómetro para analizar los movimientos, separa la ejecución del diseño en el proceso de producción y sugiere la incorporación de un departamento pensante y el establecimiento de una política salarial.
El sistema de Taylor se caracteriza por buscar el aumento de la producción y de la productividad. Sin embargo, esta propuesta contribuyó a destruir las habilidades de los obreros cuando se estableció la separación del diseño y la operación con el argumento de la necesidad de eliminar la flojera sistemática mediante la organización científica del trabajo. Esta tarea, desde la perspectiva de Taylor, era imposible de ser realizada por los propios obreros. Para ello era necesario contar con los conocimientos científicos de los ingenieros, por lo que Taylor propuso la incorporación en la estructura organizacional de un departamento de diseño para planear y organizar el trabajo. Con esta propuesta tanto los obreros como los supervisores se limitan exclusivamente a ejecutar las tareas planeadas en el departamento de diseño.


Henry L. Gantt (1861-1919) ingeniero mecánico, fue contemporáneo de Taylor y colaboró con él en la Midvale Steel Company en 1887. Lo acompañó en sus diversos trabajos hasta 1901, cuando creó su propia empresa dedicada a la consultoría en aspectos relacionados con la ingeniería. Sus trabajos se enfocaron a la necesidad de desarrollar una mutualidad de intereses entre la administración y los trabajadores mediante una cooperación armónica.
A pesar de sus grandes similitudes con los conceptos e ideales de Taylor difería de él por ser más humanista, en especial por su simpatía por los poco privilegiados, y en su compulsión de medir a la democracia por la oportunidad que ofrecía a todos los individuos. Producto de estas dos influencias surgieron dos conceptos, el humanismo y la bonificación por tarea.
Aunque quizá haya sido mejor conocido por su desarrollo de métodos gráficos para establecer programas de trabajo y hacer posible un mejor control administrativo, Gantt realizó valiosas aportaciones a la administración en donde destaca su interés por los principios administrativos para la creación, mantenimiento y operación de una empresa industrial.
Los principios que se presentan en el cuadro siguiente, han sido extraídos de sus obras Wages and Profits yIndustrial Leadership.
• Igualdad de oportunidades en la selección de dirigentes: la eficiencia de una organización está en proporción directa con la eficacia en la introducción del método de igualdad de oportunidad en la selección de sus dirigentes.
• Autoridad intrínseca: controlar el trabajo para certificar que el mismo está siendo ejecutado de acuerdo con las normas establecidas y según el plan previsto. La gerencia debe cooperar con los trabajadores para que la ejecución sea la mejor posible.
• Política sabia y buena gerencia, mejor que excelente instalación y equipo perfecto : una política prudente tiene más valor que una excelente instalación y una buena gerencia es de más valor que un equipo perfecto.
• Decisiones basadas en hechos y no en opiniones: no existe ningún derecho moral a decidir como materia de opinión aquello que puede ser determinado como materia de hecho.
• Acción basada en hechos: toda acción basada en una opinión pierde valor si compite con cualquier acción basada en hechos.


Vilfredo Federico Damaso Pareto  nace en París el 15 de julio de 1848. De origen aristocrático era hijo de un marqués exiliado en Francia por pertenecer al movimiento revolucionario de Mazzini. Estudió ingeniería en Turín y desarrolló una carrera brillante como ejecutivo de empresas ferroviarias e industriales.
Es famoso por su observación de que, en Italia, el 20 por ciento de la población poseía el 80 por ciento de la propiedad, observación que posteriormente Joseph Juran y otros popularizarían con el nombre de "principio de Pareto", creando el concepto distribución de Pareto. El índice de Pareto es la medida de la desigualdad de la distribución del ingreso. Wilfredo Pareto fue un autor muy prolífico. Escribió obras de economía y panfletos antigubernamentales desde 1870 hasta la llegada de Mussolini, criticando el intervencionismo y la falta de democracia.
Óptimo de Pareto, quien según Millar y Meiners (1989), Pareto señala “que cualquier cambio de situación afectaría a una economía sin perjudicar a otra. Es decir, las situaciones son eficientes, si al haber un cambio de esa situación, se beneficia a alguno, sin perjudicar a otro”. Esto es, una asignación de recursos tal, que cuando se compara con cualquiera otra, las partes involucradas están por lo menos en iguales condiciones de lo que estaban antes y por lo menos una de ellas está mejor de lo que inicialmente estaba.
El mismo autor manifiesta, que si aumenta la utilidad de un individuo, sin que disminuya la utilidad de otro, aumenta el bienestar social de los individuos el objetivo que va a perseguir el enfoque, es establecer cuáles son las condiciones para maximizar el bienestar económico.
El bienestar económico depende de las funciones de utilidad de los individuos que integran la sociedad. Las utilidades a su vez, dependerán de las cantidades producidas y consumidas de los bienes y las mismas están determinadas por los niveles de producción y consumo de una economía y la optimización del bienestar dependerá de la utilización óptima de los recursos productivos de la economía y las condiciones de optimización del consumo. Esto es, hay que lograr conductas óptimas de los consumidores y de los productores.
Las condiciones para alcanzar una situación eficiente en el Óptimo de Pareto, son tres: a) Eficiencia en la distribución de los bienes entre los consumidores, b) Eficiencia en la asignación de los factores entre las empresas y c) Eficiencia en la asignación de los factores entre los productos. Esto significa que la condición de Pareto, o condición de optimalizar, es generalmente un sinónimo de una organización de los recursos económicamente eficientes.
En virtud de ello se concluye, que la economía del bienestar, a través del Óptimo de Pareto, proporciona un marco extremadamente útil para evaluar las medidas de política pública, cuyos propósitos declarados son el aumento de la eficiencia y/o el aumento de la justicia o equidad distributiva.

Carl Friedrich Gauss nació en la ciudad de Brunswick, al norte de Alemania, el 30 de abril de 1777 y murió e Gauss fue un verdadero niño prodigio, su padre, como ya se mencionó antes, intentó evitar que recibiera una educación adecuada, pero en cambio su madre, que tampoco había recibido ningún tipo de educación, animó siempre a su hijo en sus estudios, y más tarde se mostró muy orgullosa de sus logros. De niño Gauss asistió a la escuela local, dirigida por un maestro de costumbres rutinarias. Un día, con el fin de mantener la clase atareada y en silencio durante un buen rato, el maestro tuvo la idea de hacer sumar a sus alumnos todos los números del 1 al 100, ordenándoles además que, según fuera terminando cada uno esta tarea, deberían colocar su pizarra sobre la mesa del maestro. Casi inmediatamente colocó Carl su pizarra sobre la mesa, diciendo: “ya está”; el maestro lo miró desdeñosamente mientras los demás trabajaban con ahínco. Cuando todos hubieron terminado y el maestro revisó al fin los resultados obtenidos, se encontró con la sorpresa notable de que la única pizarra en la que aparecía la respuesta correcta, 5.050, sin ningún cálculo accesorio, era la de Gauss.l 23 de febrero de 1855 en Götingen.

El 30 de marzo de 1796 se decidió al fin por la matemática, porque ese mismo día, cuando le faltaba aún un mes para cumplir 19 años, hizo un brillante descubrimiento. Desde hacía más de 2.000 años se sabía cómo construir con regla y compás el triángulo equilátero, el cuadrado y el pentágono regular (así como algunos otros polígonos regulares cuyos números de lados son múltiplos de dos, de tres o de cinco), pero ningún otro polígono regular con un número primo de lados. Ese crítico día de 1796 que acabamos de mencionar, Gauss consiguió construir, de acuerdo con las normas euclídeas, el polígono regular de 17 lados.

Otro de los campos en los que se introdujo Gauss fue la estadística. En 1823 publicó Theoria combinationis observationum erroribus minimis obnoxiae, dedicada a la distribución normal. La representación gráfica de la función de densidad de dicha distribución es la denominada campana de Gauss  para distintos valores de su media  y su desviación típica.

 Muchos investigadores han hecho grandes aportaciones al mundo de la administración de empresas y/o industrias Estos los más importantes, ya que se basaron en su propia experiencia al trabajaran en industrias, herramientas que mejoran la productividad, el ritmo de trabajo, la calidad, el humanismo, etc. que sin ellas no podríamos visualizar el mundo de la industria y su impacto social.