Benchmarking de Custos de Manutenção na Fabricação de Celulose

O relatório Análise Comparativa do Custo de Manutenção de Fábricas de Celulose 2007, produzido pela Bachmann & Associados, em parceria com a Associação Brasileira Técnica de Celulose e Papel – ABTCP,  mostrou que o principal componente do custo de manutenção é a contratação de serviços de terceiros (46% do custo total), seguido pelo custo de materiais (31,5%) e, finalmente, pelo custo de pessoal próprio (22,5%). O estudo contou com os dados de 8 fabricantes nacionais de celulose.

Um novo levantamento será realizado no início de 2011. Para participar, envie um e-mail para indicadoresabtcp@bachmann.com.br

Post de fev/11 ajustado em set/23

Média versus Mediana

Imagem pelo autor

A mediana corresponde a observação do meio de um conjunto ordenado de dados, de forma que exista um número igual de observações maiores e menores que ela. Como consequência, não é afetada por dados excepcionalmente altos ou baixos.

A média aritmética, usualmente chamada apenas de “média”, por outro lado, soma todos os pontos de dados e divide pelo número de pontos de dados para determinar o valor “normal”.  Assim, a média pode ser bastante influenciada por poucos dados excepcionalmente altos ou baixos.

Veja a diferença se, por exemplo, você tiver 100 resultados, onde 97 deles são 100 e os três últimos valores são 1.000,  10.000 e 100.000,  que seriam dados extremos:

 ● Mediana = 100

 ● Média aritmética = 1.207

Essa é uma discrepância bastante grande entre as duas estatísticas que indicam o ponto central dos dados. Então, devemos ser cuidadosos na escolha para a análise e publicação de dados.

Em resumo

A vantagem, em relação à média, é que a mediana geralmente representa melhor o valor típico da amostra, pois não é distorcida por valores extremamente altos ou baixos. Portanto, nas comparações, de modo geral é melhor usar a mediana. Entretanto, o ideal é que a decisão seja tomada depois de observar a distribuição dos dados.

Nota: Quando um texto em inglês usa o termo “average”, pode estar se referindo à média, à mediana ou à moda, três conceitos de valor central bastante diferente. É preciso cuidado. – Darrel Huff

Post de jul/20, atualizado em mar/22.

Curva de distribuição normal

A distribuição normal, também chamada distribuição gaussiana ou de Gauss, é uma das distribuições de probabilidade mais usadas para modelar fenômenos naturais. Isso porque grande número de fenômenos apresenta uma distribuição de probabilidade bem próxima da normal.

As distribuições normais têm as seguintes características:

  • Forma simétrica de sino.
  • Média e mediana iguais; ambas localizadas no centro da distribuição.
  • Aproximadamente 68% dos dados estão dentro de um desvio-padrão da média.
  • Aproximadamente 95% dos dados estão dentro de 2 desvios-padrão da média.
  • Aproximadamente 99,7% dos dados estão dentro de 3 desvios-padrão da média.

Saiba mais em: https://pt.khanacademy.org/math/statistics-probability/modeling-distributions-of-data/normal-distributions-library/a/normal-distributions-review

Post de jul/20 atualizado em mar/22.

Controle Estatístico de Processos – O nome impressiona, mas é simples e útil

Quando os resultados pioram, seja o PIB, seja a inflação, a tendência dos governos é de colocar a culpa no ambiente externo, no clima ou na crise mundial. Na verdade, não só os governos se comportam assim. Isso faz parte da natureza humana.
E, pior, muitas vezes procuramos responsáveis por resultados que não foram verdadeiramente melhores ou piores que no período anterior.

O que é o CEP

Do mesmo modo que há pequenas variações no sabor dos bolos ou churrascos, ainda que preparados pela mesma pessoa, todos os processos têm alguma variação natural e inerente.

Então, se o resultado de um indicador é um pouco melhor ou pior que no momento anterior, isso não indica, necessariamente, que o processo melhorou ou piorou.

Explicando: os processos têm uma variação natural, portanto, mesmo processos estáveis apresentam variações para mais e para menos em uma determinada faixa, ainda que não haja qualquer ação ou efeito externo.
Apenas resultados superiores ou inferiores a essa faixa normal de variação merecem ser analisados para identificar a causa da mudança.

Mas, muitas vezes, levados por resultados que estão dentro da faixa normal de variação, tendemos a atuar de forma indevida no processo, provocando sua piora ou o desperdício de recursos.

A dificuldade do gestor é distinguir o que é uma variação normal, que deve ser ignorada,  de uma  mudança real que exige a correção do processo.

Embora esses sinais às vezes sejam facilmente percebidos, como quando ocorre um erro humano ou uma alteração nas características da matéria prima, na maioria dos casos não é evidente. Por exemplo, as decorrentes de desgaste de equipamentos ou da substituição de pessoas sem o treinamento adequado, em que o desempenho do processo ou as características dos produtos pioram paulatinamente.

Uma técnica eficaz para distinguir os ruídos dos sinais que indicam problemas é o uso do Controle Estatístico de Processo (CEP).

Essa abordagem, mais científica, pode trazer grandes ganhos às organizações.

Quando alguém com cerca de 72 kg deseja controlar seu peso e sobe na balança todo dia, no mesmo horário, pode observar medidas como as da tabela adiante.

Momento Dia 1 Dia 2 Dia 3 Dia 4 Dia 5 Dia 6
Peso, kg 72,3 72,5 72,1 71,8 72,3 71,9

Ao pesar 72,5 kg, a pessoa não decidiria iniciar imediatamente uma dieta. Ela sabe que pequenas variações são normais e não representam descontrole no peso.

Entretanto essa mesma pessoa, ao observar o indicador mensal de rotatividade em sua empresa – com números similares – sente-se na obrigação de “tomar uma ação” se o resultado do indicador se elevou um pouco.

Por quê isso acontece? Porque com seu peso ela já tem sensibilidade sobre quais variações podem ser consideradas normais, mas o mesmo não acontece na medida do absenteísmo.

Essas variações naturais, típicas de um processo ou sistema, são denominadas de ruídos. Portanto, são diferentes de valores que sinalizam algum tipo de problema; no exemplo, um aumento ou uma diminuição do peso que pudesse justificar uma dieta ou atenção médica.

Carta de Controle – CEP

A carta de controle é um gráfico constituído por uma linha horizontal, central, que representa a média dos valores medidos de uma característica. Acima e abaixo, simetricamente a linha central, são colocados duas linhas que, de forma calculada, delimitam os valores considerados normais, de acordo com uma probabilidade de ocorrência. Os valores que ocorrem em tomo da média, dentro dos limites, superior e inferior, tem variações aleatórias produzidas por múltiplas causas, variações essas que somente poderão ser reduzidas se o processo for modificado (Variação Crônica). Valores fora dos limites mostram que houve uma causa preponderante para as suas ocorrências, que pode ser descoberta e corrigida (Variação Esporádica).

Lembram do livro “Alice no País das Maravilhas”?  a menina tomava o líquido de um vidrinho e crescia; tomava de outro e diminuía. Voltava a tomar do primeiro e crescia novamente. Nós não vivemos em um mundo mágico. Vivemos em um mundo regido pela estatística. Então, quando temos variações de crescimento e redução em uma série de dados, temos duas situações: os dados não foram bem colhidos e temos um problema de representatividade ou as variações são pequenos para cima e para baixo indicando que se trata de um processo estável e sob controle.

Referências

1. Campos, Vicente Falconi, TQC Controle da Qualidade Total: no estilo japonês, Belo Horizonte, Editora de Desenvolvimento Gerencial, 1999.

2. Wheeler, Donald J. Understanding Variation: The key to managing chaos. SPC Press, Inc. Tenesse. 1993.

3. Siqueira, Luiz G. P. Controle Estatí­stico do Processo. Pioneira. São Paulo. 1997.

Serviço: A Bachmann & Associados oferece serviço de consultoria, ajudando sua equipe a construir e usar Gráficos de Controle (CEP) de modo fácil e prático.

Uma estratégia inteligente

Usualmente buscamos melhorar o resultado médio de um indicador importante para a organização ou para o processo do qual somos responsáveis. Essa pode não ser, entretanto, a forma mais eficaz de conseguir melhorias.

As melhorias conseguidas com esse foco geralmente são temporárias e pouco significativas. Alguns autores [1, 2] defendem, com bons argumentos, que a verdadeira melhoria é conseguida quando trabalhamos para reduzir a variabilidade. Isso porque essa ação exige um conhecimento mais profundo dos processos.

Essa abordagem depende de uma análise mais sofisticada, pois não basta calcular a média aritmética dos resultados obtidos em determinado período. Embora a variabilidade possa ser medida pela diferença (range) entre o maior valor e o menor valor no período, o ideal é uma análise gráfica dos resultados ao longo do tempo. A melhor ferramenta para essa análise é o gráfico XmR.

Referências

  1. Barr, Stacey. How to Meaningfully Measure On-Time Delivery of Anything Disponível em https://www.staceybarr.com/measure-up/how-to-meaningfully-measure-on-time-delivery-of-anything/ Acesso em 19.06.18.
  2. Wheeler, Donald. Understanding Variation:The Key to Managing Chaos. SPC Press, Inc. 1993.

Post de 8.01.19 atualizado em 26.07.23,

Os números são os mesmos, mas…

Imagem de Gerd Altmann por Pixabay 

Diferentes formas de mostrar a mesma coisa, mas com diferentes impactos

A forma como os dados são apresentados é relevante para que haja entendimento e uma correta interpretação da realidade. Esse aspecto se aplica tanto às notícias quanto às informações empresariais e, nos dois casos, pode levar à diferentes conclusões, influenciando as decisões tomadas. Assim, o analista tem muita responsabilidade ao escolher o indicador ou a abordagem que será usada na publicação dos resultados.

Vejamos o seguinte texto, extraído do Balanço Social da Petros de 2009 [1]: “Ao final de 2009 havia 129 empregados negros e pardos na Fundação. Em comparação com o ano anterior, quando a Petros registrou um total de 108 empregados negros e pardos, o aumento foi de 17,6%”.

Mostrado dessa forma, a instituição parece ter dado um grande passo para a diversidade de sua equipe. Mas, como o corpo funcional da Fundação Petros cresceu de 431 em 2008 para 469 em 2009, o percentual de empregados negros e pardos cresceu de 25,0% para 27,5%, o que representa um acréscimo de 2,5 pontos percentuais no período.

Nos dois casos a informação é a mesma, mas a forma de apresentar e o impacto são diferentes. Em sua opinião, qual é a forma mais apropriada e ética de mostrar a evolução ocorrida?

Referência:

1. Petros, Relatório Anual de Responsabilidade Social Empresarial 2009: Balanço Social. Rio de Janeiro. 2010. p. 58

Post de abril/18, atualizado em jul/22.

Boas Práticas no Uso de Números

Desenho de uma tela de notebook com gráficos sobre um fundo cinza com imagens de outros gráficos.
Imagem de Oberholster Venita por Pixabay

A Associação Americana de Estatística apresentou, em junho de 2016, orientações para transformar a estatística em uma ciência e não um conjunto de ferramentas. Convencidos que um melhor uso dos dados irá melhorar a pesquisa e a inovação, seis estatísticos de prestígio publicaram as Dez Regras para a Prática Efetiva da Estatística:

  1. Os métodos estatísticos devem permitir que os dados sejam usados para responder questões científicas.
  2. Sinais sempre vêm com ruídos.
  3. Planeje pensando à frente, bastante à frente.
  4. Preocupe-se com a qualidade dos dados.
  5. Análise estatística é mais que um conjunto de cálculos.
  6. Mantenha a simplicidade.
  7. Forneça avaliação da variabilidade.
  8. Verifique suas premissas.
  9. Quando possível, replique.
  10. Faça sua análise reproduzível.

Fonte: PUBLIC RELEASE: 23-JUN-2016. Leading statisticians establish steps to convey statistics a science not a toolbox. Disponível em http://www.eurekalert.org/pub_releases/2016-06/asa-lse062316. Agora indisponível.

Os números não mentem. Mas mentem muitos que usam os números.

Post de out/16 atualizado em mar/24.

Eleições, uma questão de amostra

O exemplo é antigo, mas as práticas dos institutos de pesquisa não parecem ter mudado.  A visão crítica é essencial na interpretação das pesquisas.

“Qual a lição a tirar desse erro do Ipea, que divulgou que 65% dos brasileiros concordam que ‘mulheres que usam roupas que mostram o corpo merecem ser atacadas’, quando o número correto é 26%?

O Ipea teve o mérito de corrigir o seu erro. Mas mesmo os números corrigidos podem continuar a suscitar dúvidas. A pesquisa domiciliar, da forma como o Ipea fez, distorce a amostragem. Eles ouvem os pesquisados em casa, durante o dia. Nesse horário é mais provável encontrar em casa pessoas mais velhas, mulheres e pessoas com baixa escolaridade. Esses perfis não são representativos da população brasileira. Na amostra de entrevistados do Ipea, mais de 65% são mulheres, enquanto a taxa real da população brasileira feminina é de 52%. Eu não concordo com quem dá valor a essas aferições meramente probabilísticas. A confusão recente do Ipea só reforçou minhas convicções”. Mauro Paulino – Diretor do DataFolha.

Fonte: Revista Veja. Editora Abril. Edição 2369 – ano 47 – n°16. 16 de abril de 2014. p. 23. Páginas amarelas. Entrevista com Mauro Paulino – Diretor do DataFolha.

Post de 7.10.14, atualizado em 18.3.22.

Escolha das Medidas

Imagem de Pham Trung Kien por Pixabay

Um aspecto tranquilizador para quem trabalha com indicadores é saber que formas diferentes de medir desempenho, desde que escolhidas com bom senso, podem ser igualmente efetivas.

Três diferentes rankings de comparação entre universidades, baseadas em critérios bastante distintos, colocou as mesmas 6 universidades entre as 10 primeiras. Enquanto o Instituto de Educação Superior de Xangai dá maior peso à produção científica, a revista Times Higher Education considera a disponibilidade de verbas para pesquisa e inovação e a empresa inglesa QS inclui a opinião do mercado aos resultados acadêmicos. Ainda assim, os rankings apresentados pelas três instituições guardam bastante semelhança, ao menos nos primeiros lugares.

Fonte: Revista Veja. As 3 fórmulas da excelência. 22 de setembro de 2010. pp. 100-101.

Post de nov/12, ajustado em out/23.

Nomes iguais, realidades diversas

Capa do livro O Brasil não é para Amadores

O exemplo adiante, retirado do livro do Belmiro Valverde [1], é um ótimo exemplo da importância de conhecer o contexto na análise de resultados de indicadores. Visões simplistas, por ignorância das diferentes realidades, leva a conclusões simplórias e conduz a más decisões e aos argumentos falaciosos (e vexatórios!). Vale a leitura.

“Quem pretende entender realmente o país tem de estar atento para o fato de que mesmo quando sob o ponto de vista da estatística se estejam medindo coisas semelhantes, o significado social e econômico dos fenômenos estudados pode ser radicalmente diverso.

Para que esse ponto possa ser mais facilmente entendido tomemos, por exemplo, as taxas de desemprego. Com pequenas variações e adaptações metodológicas, o cálculo das taxas de desemprego no Brasil e nos Estados Unidos é, substancialmente, igual, e expressa o número de pessoas que em um determinado momento não está trabalhando. Mas até que ponto a comparação entre as taxas de desemprego dos dois lugares é um bom instrumento para analisar esse aspecto da realidade econômica e social? E até que ponto, quando os números demonstram que a taxa de desemprego no Brasil e nos Estados Unidos subiu 1%, está se falando do mesmo fenômeno? Na realidade, as taxas de desemprego no Brasil e nos Estados Unidos, embora calculadas por fórmulas semelhantes, medem fenômenos sociais diferentes.

Nos Estados Unidos, há diversas formas de interromper um contrato de trabalho, cada uma delas ensejando consequências diferentes para o empregado. Um trabalhador americano pode ser temporariamente dispensado (temporary lay-off) por força de redução de demanda e flutuações da produção e do consumo; colocado em licença involuntariamente por razão não-disciplinar e normalmente ligada à redução temporária da produção (furlough) ou dispensando definitivamente (permanent lay-off ou cutback). O trabalhador terá perdido o emprego definitivamente somente nos casos em que foi atingido pelo permanent lay-off (ou cutback ou ainda a redundancy, como se diz na Inglaterra). Boa parte do índice de desemprego reflete os temporary lay-offs, ou seja, o desemprego temporário para a acomodação de estoques e de volumes de produção, que tem consequências muito pouco traumáticas para os empregados. Neste caso, seus direitos de antiguidade na empresa são respeitados e sua renda pode cair um pouco durante um determinado período, mas os colchões de proteção social dos fundos de desemprego, mantidos pelos sindicatos e pelo Estado e outros mecanismos, ajudam a superar essa situação até a retomada da produção e, com ela, a volta de seu emprego e de seu salário. No Brasil, o desemprego é sempre definitivo, o permanent lay-off, o cutback.

Se alguém é demitido, encerra seus vínculos com a empresa, recebe seus direitos, zera o tempo de serviço e tudo o mais. Já que virtualmente não existe colchão de proteção social algum (a não ser um modesto seguro-desemprego), quando acabar o dinheiro que recebeu, ou já arranjou um novo emprego ou passará fome. O seu retorno ao antigo emprego é problemático, pois a legislação dificulta de tal forma a recontratação do mesmo funcionário (mandando somar o tempo de serviço anterior, por exemplo, o que onera o empregador), que é mais prático e barato para a empresa não o readmitir quando a retomada da produção exige mais mão-de-obra. Portanto, para um cientista social consciente, o mesmíssimo 1% do Brasil e dos Estados Unidos tem significados radicalmente diversos, pois refletem fenômenos econômicos e sociais que, em substância, são radicalmente diferentes.”

Reproduzido de: CASTOR, Belmiro Valverde Jobim. O Brasil não é para amadores: estado, governo e burocracia na terra do jeitinho. Curitiba: IBQP-PR, 2000. p. 19-21.

Post de jan/10, revisado em ago/22.