Yearly Archives: 2019

You are browsing the site archives by year.

Tomar un enfoque informal para el desarrollo de la estrategia de confiabilidad puede ser costoso. Aquí, observamos cómo las revisiones informales y las actualizaciones de la estrategia se manifestarán en última instancia en fallas no planificadas y en el rendimiento inconsistente de activos similares.

La inconsistencia predomina

Habiendo trabajado con muchas organizaciones en muchas industrias, vemos que la mayoría adopta diferentes enfoques para el desarrollo de estrategias de mantenimiento o revisión en diferentes departamentos, incluso en un solo sitio. Esta inconsistencia es comprensible, aunque indeseable. En diferentes momentos, diferentes consultores y / o diferentes soluciones técnicas se han utilizado para revisar o desarrollar estrategias, y las personas generan su enfoque “favorito”. Luego llevan su enfoque favorito con ellos a nuevos departamentos y la inconsistencia predomina.

Entonces, ¿cuál es el problema con la inconsistencia? Las estrategias de confiabilidad tienen la tendencia a “vagar”; en otras palabras, se cambian de un lado a otro a lo largo del tiempo debido a que diferentes personas con diferentes antecedentes, experiencias y enfoques entran, revisan las estrategias con su lente individual y hacen lo que creen que son cambios apropiados.

Cambios injustificados conducen al error.

En muchos casos, estos cambios no están justificados, evaluados o revisados. Por ejemplo, puede ser que alguien simplemente ingrese al sistema EAM y cambie un intervalo de 12 semanas a 14 semanas para que coincida con un nuevo programa operacional, sin tener en cuenta el impacto de ese cambio en el riesgo de fallas no planificadas.

Este es el meollo del problema. Los enfoques informales para el desarrollo o la revisión de la estrategia conducen a que se realicen cambios injustificados y mal evaluados, lo que a su vez aumenta el riesgo de fallas no planificadas, desempeño deficiente y altos costos de mantenimiento.

Hay un período entre cualquier cambio en la estrategia y el impacto que el cambio pueda crear. Un cambio de estrategia deficiente tiene un impacto en el riesgo de sufrir una falla, y el riesgo puede ser elevado por algún tiempo antes de que ocurra una falla real.

Cuando ocurre un fallo, la mayoría de las organizaciones simplemente no tienen la capacidad de extraer la estrategia de su sistema de EAM o de comprender cómo ha cambiado con el tiempo, por quién, por qué razones y la justificación del cambio. Esto hace que sea muy difícil vincular la falla con cualquier cambio específico realizado en la estrategia de confiabilidad.

¿El resultado? El fracaso no planificado deja a la mayoría de las organizaciones fuera de control de sus activos. Cada falla parece un evento único y es muy difícil rastrear lo que está mal.

La consistencia engendra el control.

Si existe un enfoque coherente para el desarrollo y la revisión de la estrategia, la estrategia de confiabilidad resultante debe basarse en el riesgo, estar justificada y ser rentable, cumpliendo con los objetivos de las operaciones. Debe ser auditable y rastreable, de modo que, si ocurre una falla no planificada en el futuro, la estrategia puede revisarse y actualizarse en función de los equipos más recientes y las características operativas para aprovechar continuamente el conocimiento de los activos para alinear la estrategia con los objetivos operativos.

Una estrategia de confiabilidad rastreable y en continua evolución ofrecerá rendimientos significativos. Existe la oportunidad de ofrecer un cambio gradual en el rendimiento de la organización cuando el proceso de desarrollo de la estrategia estructurada incluye un conjunto de datos conectados de contenido genérico. Esto significa que cualquier mejora en la estrategia de confiabilidad de un activo específico se puede aprovechar en todos los activos similares dentro de la misma planta o en toda la organización.

Aquí hay un ejemplo. Una organización grande y madura de petróleo y gas afirma que tiene un problema no planificado de falla o confiabilidad, pero no puede rastrear la falla desde los planes de mantenimiento de rutina que tienen en SAP hasta el proceso de toma de decisiones de la estrategia de confiabilidad. No hay conexión entre los dos, lo que hace que sea casi imposible tener estrategias que aprendan con el tiempo, lo que permitiría a la organización beneficiarse del vasto conocimiento de activos que realmente tiene. En cambio, las fallas siguen ocurriendo.

La organización de petróleo y gas, como cualquier otra que administra una gama de activos que impactan el desempeño, necesita una revisión estructurada de la estrategia de confiabilidad y un proceso de desarrollo para que las estrategias consistentes estén alineadas con los objetivos operacionales y se ajusten continuamente para respaldar la mejora continua de un activo global base.

Todas las organizaciones y sus operaciones están en un estado de cambio. Las cosas cambian continuamente: los activos, las condiciones de operación, los requisitos de servicio, las piezas de repuesto y los componentes, la tecnología y más, todo evoluciona, envejece y cambia. Este cambio es constante.

Entonces, ¿por qué es que, si los entornos operativos cambian constantemente, las estrategias de mantenimiento y confiabilidad de los activos permanecen estáticas? ¿Por qué tantas organizaciones las dejan en el modo de configurar y olvidar?

Con demasiada frecuencia, a las estrategias de confiabilidad no se les presta suficiente atención, aunque la estrategia de confiabilidad es uno de los factores que más influyen en el desempeño de los activos, y el despliegue de una estrategia efectiva presenta una oportunidad significativa para mejorar.

En muchas organizaciones, las estrategias de confiabilidad siguen siendo las mismas desde el momento en que se implementan en el sistema EAM. La única vez que se les examina es cuando algo sale mal … cuando es demasiado tarde.

De hecho, el 62% de las organizaciones dicen que no revisan sus estrategias de confiabilidad de forma regular¹.

Cuando los cambios en la estrategia no funcionan

Cuando se trata de cambiar la estrategia de confiabilidad para mantenerla alineada con la evolución de los activos, hay dos formas de hacerlo que muchas organizaciones elijen. Ninguna de las dos funciona muy bien.

La primera es un intento informal de mejorar las estrategias. Esto puede hacer más daño que beneficio, ya que las estrategias se cambian sin justificación ni análisis. En su lugar, se basan en la experiencia y la sensatez, lo que puede dejar a una organización operando en un área de riesgo bastante significativo, exponiéndolos a fallas no planificadas y motivándolas a tratar de recuperar algo de control.

Por lo general, esto se manifiesta en el comentario: “Necesitamos volver a lo básico”. La pregunta obvia aquí es: “¿Cómo nos alejamos de lo básico?” Solo puede ser a través de cambios no estructurados de la estrategia sin la supervisión y justificación adecuadas.

Otro intento común de gestionar las actualizaciones de la estrategia es implementar una revisión de 12 meses en todos los documentos de mantenimiento de rutina, con la intención de forzar una revisión de todas las estrategias cada 12 meses. Esto puede parecer una opción atractiva, pero el problema es que con el gran volumen de planes de mantenimiento de rutina que se implementan, a menudo simplemente no se puede lograr. Doce meses sopla a 24 meses y el equipo de confiabilidad termina persiguiendo su cola.

Cambio dinámico en la estrategia de confiabilidad.

El objetivo de una estrategia de confiabilidad es priorizar las revisiones y enfocar la atención en áreas donde hay valor para hacerlo. Lo que se necesita es una forma de rastrear y administrar las actualizaciones, registrar lo que se ha revisado y quién lo ha hecho, registrar la justificación de cualquier cambio y, lo que es más importante, implementar las actualizaciones sin problemas.

Las estrategias de confiabilidad de los activos deben revisarse según sea necesario. Hay tres disparadores “triggers” clave para estas revisiones:

  1. La estrategia actual no provee el rendimiento esperado del equipo.
  2. El entorno operativo ha cambiado, lo que significa que la estrategia actual ya no es óptima. Por ejemplo:
    • Cambio en la carga de trabajo
    • Cambio de objetivos / costos operativos.
    • Cambio de costos laborales.
    • Cambio de estrategia de parada.
  1. La caracterización de fallas del activo está cambiando. En otras palabras, el activo está fallando más o menos que el pronóstico, o en formas diferentes a las anticipadas.

La actividad de revisión de la estrategia debe ser impulsada por activadores automáticos. Esta es la única forma real de garantizar que se produzca un proceso de revisión. Los activadores se establecen sobre una base de criterios como los anteriores y se basan en datos predominantemente existentes en el sistema EAM.

Con un proceso de revisión formal implementado, la revisión de la estrategia ahora es un proceso dinámico, impulsado por datos, que naturalmente prioriza los esfuerzos donde más se requieren. Sigue una estructura de análisis consistente que lleva a una garantía de que las estrategias de confiabilidad implementadas, para todos los activos clave, se ajustan a los requisitos de desempeño y un marco de riesgo aceptado.

Vea cómo al adoptar un enfoque diferente para la resolución de problemas permitió descubrir un mayor conjunto de soluciones efectivas.

Cuando un activo crítico en servicio falla y cuesta más de $ 10 millones repararlo, lo mejor para usted es averiguar por qué se falló y qué puede hacer para evitar que vuelva a suceder, ¿verdad? Sin embargo, a pesar de las mejores intenciones, muchas empresas batallan para llegar al fondo de un problema. Su proceso de investigación deja mucho que desear y termina por decepcionarlos.

Efectivamente, el análisis de causa raíz (RCA) es una estrategia útil para investigar por qué algo salió mal. Pero a menudo, necesitas ir más allá. A continuación, utilizando un ejemplo de uno de nuestros clientes, exploramos cómo la metodología de análisis de causa raíz de Apollo agrega un inmenso valor al RCA.

Un centro de procesamiento y distribución postal utiliza sistemas complejos de clasificación de cinturones cruzados (CBS) para mover paquetes entre áreas de la instalación. Piense en el CBS como un bucle continuo de alta velocidad compuesto por bandejas y cintas transportadoras de alimentación, con estaciones de transferencia para mover productos entre los dos. Estas estaciones de transferencia se pueden activar hasta 600,000 veces por mes; el personal de mantenimiento inspecciona regularmente las placas de metal y las ruedas de goma en cada estación de transferencia para detectar desgaste o grietas.

Una grieta en el sistema.

El sistema CBS es altamente eficiente … hasta que se rompe. Esto es lo que sucedió en el centro de procesamiento: una placa de metal en una de las estaciones de transferencia se partió a la mitad, una mitad se cayó y se interpuso en el camino de las bandejas de CBS. Esto provocó una reacción en cadena, con las bandejas acumulándose en los 10 segundos que tardó el sistema en detenerse por completo. En este tiempo, más de 200 bandejas resultaron dañadas.

Le tomó tres días para obtener piezas de repuesto y luego otros tres para reparar el sistema CBS. Los ingresos perdidos y los costos de reparación superaron los $ 10 millones.

Lo qué se descubrió mediante un proceso interno de resolución de problemas fue lo siguiente:

Se asignó un equipo de investigación de eventos para identificar la causa raíz del evento y recomendar soluciones para evitar una recurrencia.

Según el protocolo estándar, el equipo utilizó el proceso de investigación de eventos de la empresa; El problema se definió tal como sucedió. Es decir, una grieta formada en la placa de metal a partir de millones de ciclos durante diez años de servicio. La grieta creció hasta que la placa de metal se partió por la mitad, lo que resultó en que la mitad de la placa de metal quedara en el camino de las bandejas. La primera bandeja golpeó la placa de metal y comenzó una reacción en cadena de colisiones de bandeja a bandeja. El sistema CBS tardó 10 segundos en detenerse por completo.

La causa raíz se definió como “flexión repetida de la placa de metal durante el uso, lo que causó que el metal se agrietara y eventualmente fallara”.

A partir de esto, el equipo recomendó tres soluciones:

  • Aumentar la frecuencia de inspección de las placas de metal
  • Proporcionar capacitación de actualización sobre cómo inspeccionar las placas de metal para detectar grietas
  • Aumentar las piezas de repuesto que se encuentran en sitio para reducir los retrasos en las reparaciones

El enfoque adoptado por el equipo de investigación no exploró el panorama general, y se dieron cuenta de que era necesario hacer más. Entonces le pidieron a ARMS Reliability que facilitara la investigación del evento utilizando la metodología de análisis de causa raíz de Apollo. Este análisis más profundo reveló algunos hallazgos interesantes.

Lo qué descubrió la metodología del análisis de causa raíz de Apolo

Usando el método Apollo, ARMS Reliability pasó 1.5 días trabajando con su equipo de investigación para desarrollar una tabla detallada de causas y efectos para identificar soluciones que eviten una recaída costosa.

Desde el principio, este enfoque difería de la propia investigación interna de la compañía. En lugar de definir el problema como sucedió, identificamos el problema como un “Paro prolongado de la planta”. De esta definición amplia del problema, surgieron problemas más específicos en el cuadro de causa y efecto. Hubo muchos “momentos, ajá”.

El primero fue que el sistema, realmente no paró porque los controles detectaron que había un problema con el sistema CBS (la suposición inicial del equipo). Más bien, paró porque un paquete bloqueó un sensor en un transportador de alimentación (Conveyor). Esto significó que el sistema llegara a una parada controlada después de que todos los transportadores de alimentación quedaran despejados del producto, en lugar de un paro de emergencia. Esto extendió el tiempo de apagado y el daño del sistema.

Otros hallazgos incluyeron:

  • Mientras que las placas de metal se inspeccionan regularmente, la configuración física de las estaciones de transferencia, junto con las limitaciones de una inspección visual, minimiza la probabilidad de detectar una grieta.
  • Las estaciones de transferencia están a 15 pies por encima del suelo y detrás de guardas de metal. Cada protector mide cuatro pies de ancho por ocho pies de largo y se sujeta en su lugar con 48 pernos y arandelas de seguridad. Más de 300 guardias fueron retiradas / reemplazadas durante la reparación utilizando (ratchets)trinquetes de mano, una tarea tediosa y lenta.
  • El personal necesitaba ir al almacén de repuestos para obtener pernos y arandelas de reemplazo que se dañaron o perdieron debajo del equipo, lo que se sumó al tiempo y esfuerzo de reparación.
  • La información sobre la tasa de falla de la placa metálica se recopila en cada centro de distribución, pero la información no se comparte entre los sitios.
  • Si bien los componentes del sistema CBS son comunes entre los centros de distribución, no existe un suministro central de repuestos en caso de una falla catastrófica como esta.
  • Las vulnerabilidades del sistema CBS no se habían identificado porque no se había realizado un Modo de Falla y Análisis de Efectos ni una Evaluación y Análisis de Vulnerabilidad.
  • El desgaste de otros componentes de la estación de transferencia aumentó la flexión de la placa metálica y, por lo tanto, aumentó la tasa de falla de la placa metálica. Sin embargo, el mantenimiento programado no se realizó para estos componentes de la estación de transferencia.

A partir de esta lista completa de hallazgos, se recomendaron muchas más soluciones para ayudar a protegerse contra una falla similar en el futuro. Esto es lo que propuso ARMS Reliability:

  • Agregar lógica a los controles del sistema CBS para detectar eventos anormales y generar una parada de emergencia
  • Agregar frenos de motor al sistema de transmisión para minimizar el tiempo de parada de emergencia
  • Agregar soportes a las placas de metal para reducir la flexión y la falla subsiguiente
  • Proporcionar puntos de acceso rápido a través de los guardias para inspecciones
  • Proporcionar cámaras de inspección y tinte de inspección de grietas para inspecciones de placas de metal
  • Programación de inspecciones de placa de metal según la tasa de uso de la placa de metal en lugar de en base a tiempo de calendario
  • Realizar una Evaluación y Análisis de Vulnerabilidad en el sistema CBS y abordar las vulnerabilidades más altas
  • Desarrollar estrategias de mantenimiento optimizadas para los componentes críticos del sistema CBS
  • Proporcionar carros de piezas y herramientas eléctricas para reducir el tiempo requerido para retirar y reemplazar un protector (guardias)
  • Compartir las tasas de falla de componentes entre sitios para predecir mejor las tasas de falla y el mantenimiento programado requerido
  • Reconstruir las estaciones de transferencia en base a una agenda de tiempo predeterminada para abordar el desgaste de los componentes antes de que se convierta en un problema
  • Crear planes de contingencia para fallas catastróficas de los sistemas de misión crítica del centro de distribución
  • Establecer un stock central de repuestos del sistema CBS

Análisis comprensivo y “revelador”

Mediante la utilización del método de análisis de causa raíz de Apollo, junto con un facilitador experto, el equipo llegó a un punto de conclusión en solo 1.5 días en el que se entendió claramente la causa del fallo y, lo que es más importante, se pudieron identificar soluciones efectivas para prevenir una recurrencia.

Como es típico cuando se utilizó el método de Apolo, hubo varios momentos en que se abrieron los ojos del equipo al descubrir cómo varias fallas y deficiencias en su operación se alinearon para causar el evento catastrófico. Al profundizar un poco más, se revelaron algunos problemas serios que llevaron a un mayor conjunto de soluciones efectivas que evitarán que el problema vuelva a suceder.

Todas as organizações e suas operações estão em um estado de fluxo. As coisas estão mudando continuamente: ativos, condições de operação, requisitos de serviço, peças de reposição e componentes, tecnologia e muito mais evoluem, envelhecem e mudam. Essa mudança é constante.

Então, se os ambientes operacionais estão em constante mudança, as estratégias de confiabilidade dos ativos permanecem permanecerem estáticas? Por que tantas organizações deixam suas estratégias de ativos no modo “faz uma vez e esquece”?

Com frequência, as estratégias de confiabilidade não recebem atenção suficiente. Embora a estratégia de confiabilidade seja uma das maiores influenciadoras do desempenho e do custo de gerir ativos, e a implantação de uma estratégia eficaz apresenta uma oportunidade significativa para melhorar estes indices.

Em muitas organizações, as estratégias de confiabilidade permanecem as mesmas a partir do momento em que são implementadas no sistema EAM/CMMS. A única vez que elas são examinadas é quando algo dá errado … tipicamente quando já é tarde demais.

De fato, 62% das organizações dizem que não revisam suas estratégias de confiabilidade regularmente¹.

 

Quando as mudanças na estratégia não funcionam

Quando se trata de mudar a estratégia de confiabilidade para mantê-la alinhada aos ativos em evolução, há duas abordagens que muitas organizações adotam. Nenhuma delas funcionam muito bem!

A primeira é uma tentativa informal de melhorar as estratégias. Isso pode fazer mais mal do que bem, pois as estratégias são alteradas sem justificativa ou análise quantitativa. Em vez disso, elas são baseadas na experiência e na intuição, o que pode deixar uma organização operando em uma zona de risco significativo, expondo-á a falhas regulares não planejadas e provocando um modelo reativo sempre tentando recuperar algum controle.

Normalmente, isso se manifesta no comentário: “Precisamos voltar ao básico”. E a pergunta óbvia aqui é: “Como escapamos do básico?”. Só pode ser por meio da eliminação de mudanças não estruturadas da estratégia, sem supervisão e sem justificativa quantitativas apropriadas.

A segunda tentativa comum de gerenciar atualizações estratégicas, é a implementação de uma revisão de 12 meses em todos os documentos de manutenção de rotina, com a intenção de forçar uma revisão de todas as estratégias a cada 12 meses. Isso pode parecer uma opção atraente, mas o problema é que com o grande volume de planos de manutenção de rotina que estão em vigor, muitas vezes isso simplesmente não é possível. Doze meses facilmente extrapola para 24 meses, e finalmente a equipe de confiabilidade acaba perseguindo sua cauda em círculos.

 

Mudança dinâmica na estratégia de confiabilidade

O objetivo com uma estratégia de confiabilidade é priorizar as revisões e focar a atenção nas áreas onde há valor e impacto. O que é necessário é uma maneira de rastrear e gerenciar atualizações, registrar o que foi revisado e por quem, assim como registrar a justificativa para quaisquer alterações e, o mais importante, implementar as atualizações com perfeição e segurança.

As estratégias de confiabilidade de ativos devem ser revisadas conforme necessário. Existem três gatilhos chave para essas revisões:

  1. A estratégia atual não está fornecendo desempenho alvo para o equipamento
  2. O ambiente operacional mudou, o que significa que a estratégia atual não é mais a ideal. Por exemplo:
    • Mudança de dever
    • Mudança de metas / custos operacionais
    • Mudança de custos de mão de obra
    • Mudança de estratégia de desligamento
  3. As características de falha do ativo estão mudando. Em outras palavras, o ativo está falhando mais ou menos do que o previsto, ou de maneiras diferentes do que o previsto.

A atividade de revisão de estratégia deve ser conduzida por gatilhos automáticos. Essa é a única maneira real de garantir que um processo de revisão ocorra. Os gatilhos são estabelecidos com base em critérios como os acima citados e são impulsionados por dados predominantemente no sistema EAM/CMMS.

Com um processo de revisão formal em vigor, a revisão da estratégia é agora um processo dinâmico, impulsionado por dados, priorizando naturalmente os esforços onde eles são mais necessários. Ele segue uma estrutura de análise consistente que leva a uma garantia de que as estratégias de confiabilidade em vigor, para todos os principais ativos, correspondem aos requisitos de desempenho e a uma estrutura de riscos aceita pela organização.

¹Fonte: ARMS Confiabilidade Asset Strategy Management avaliação de maturidade, 2018, tamanho da amostra: 161 respostas

Faça essa avaliação de maturidade ASM com apenas 12 perguntas, para ver onde você está e então receber um relatório com as próximas etapas recomendadas pelos especialistas de ASM da ARMS Reliability.