Sobre Dorian Bachmann

Sou especialista em indicadores de desempenho e benchmarking. Ajudo na seleção, padronização, apresentação, uso e interpretação de indicadores de desempenho, para identificar oportunidades de melhorias, estabelecer metas mais eficazes e obter aumento da produtividade e competitividade. Capacitação técnica (graduação e pós-graduação) e gerencial (MBAs em marketing, negócios e tecnologia da informação), reforçada por prática profissional variada e com foco em resultados. Ênfase em gestão por meio da medição de desempenho, com o auxílio de indicadores. Engenheiro químico com sólida experiência gerencial e em processos industriais e mineração. Vivência em P&D, projeto básico e engenharia de acompanhamento de processos. Trabalhei na Petrobras (Engenheiro, Pesquisador e Gerente Geral da Unidade de Negócios da Industrialização do Xisto), IBM e Companhia de Urbanização de Curitiba. Fui sócio e diretor da Bachmann & Associados Ltda., consultoria voltada para o uso gerencial de indicadores e benchmarking. Apaixonado pela inovação e pela Qualidade Total como fontes de vantagem competitiva para as organizações. Tenho apresentado palestras e cursos relacionados ao uso de indicadores e do benchmarking na gestão. Autor do livro "Indicadores de RH como Ferramenta de Gestão: obtendo e mostrando resultados", publicado pela Qualitymark. Currículo Lattes: http://lattes.cnpq.br/9716761840221952 Disponível para consultoria no uso de indicadores e benchmarking na gestão, inclusive pro-bono.

Na análise dos dados, contexto é fundamental

Foto de quebra cabecas em que estea zendo colocada uma peça diferente.

Ao analisar dados devemos levar em conta os números mas, também, o contexto em que eles foram colhidos e as características dos processos e das pessoas que serão impactadas pelo resultado da análise. Devemos buscar uma visão abrangente, incluindo aspectos técnicos, humanos e, por vezes, até políticos. Um alerta sábio sobre os cuidados que devemos ter nas análises foi dado pelo general Donald Rumsfeld.

Existem conhecidos conhecidos. Estas são coisas que sabemos que sabemos. Existem desconhecidos conhecidos. Ou seja, há coisas que sabemos que não sabemos. Mas também há desconhecidos desconhecidos. Coisas que não sabemos que não sabemos. – Donald Rumsfeld

Dois exemplos. Uma rotatividade de 50% em uma equipe de 4 pessoas é diferente do mesmo resultado em um time de 150. Enquanto no primeiro caso uma situação fortuita pode ter definido o resultado, no segundo está bem clara a existência de um problema estrutural.

Quando o repórter da TV, nas tradicionais reportagens de comparação de preço de materiais escolares feitas no início de cada ano letivo, lança a manchete “Materiais escolares têm mais de 200% de diferença de preço entre lojas”, ele não comenta que isso acontece com as borrachas e lápis, que têm um custo unitário muito baixo. Assim, se em um lugar custa R$1,00 e em outro R$2,50, ele aponta a variação de 250%. É claro que isso raramente acontece na mesma proporção em produtos de maior custo.

Portanto, quem analisa dados tem a obrigação de considerar e referenciar o contexto, de modo a apresentar conclusões consistentes e com credibilidade.

Com o Big Data a estatística pode ser ainda mais perigosa

Image by Tumisu from Pixabay

Chris Anderson – famoso pelo seu livro “A Cauda Longa: Do Mercado de Massa para o Mercado de Nicho” – sugeriu que o uso do big data tornaria o método científico obsoleto [1]. Isso provavelmente não é verdade.

É incorreto gerar retrospectivamente hipóteses para se adequar aos padrões de dados que surgem após o término de um estudo. Essa prática é conhecida pelos estatísticos como “p-hacking” ou “data fishing” [2].

O epidemiologista John Ioannidis destacou esse ponto na área médica no artigo “Por que a maioria das descobertas de pesquisas publicadas é falsa” [3].

O argumento de Ioannidis é bem ilustrado pelo artigo “Consumo de chocolate, função cognitiva e ganhadores do Nobel” de Franz Messerli no New England Journal of Medicine [4]. O artigo relata “uma correlação linear significativa (r = 0,791, p <0,0001) entre o consumo de chocolate per capita e o número de ganhadores do Nobel por 10 milhões de pessoas em um total de 23 países. O texto especulou sobre os efeitos de alguns antioxidantes, encontrados no chocolate, na melhoria da capacidade de raciocínio.

O artigo, que pretendia ser uma paródia da temporada de prêmios Nobel, foi seriamente relatado nos principais meios de comunicação como, por exemplo, na Forbes [5]. Embora o artigo seja uma brincadeira, a correlação com elevada “significância estatística” é um fato real do conjunto de dados estudado pelo Dr. Messerli. Isso ilustra que os estudos de múltiplas correlações podem levar a resultados “significativos” em um sentido técnico, como sugerido por Chris Anderson, mas também podem ser enganosos ou sem sentido.

Assim, é interessante notar que a equipe internacional de físicos que anunciou a descoberta do bóson de Higgs, atenta ao problema de múltiplas comparações, usou um limiar extremamente baixo do valor de p “cinco-sigma” (<0,000001) [6].

Referências:

1. Anderson, Chris. The End of Theory: The data deluge makes the scientific method obsolete. Disponível em: http://www.wired.com/science/discoveries/magazine/16-07/pb_theory. Acesso em 18.04.20.

2. Tang, Jane,  Misusing Statistical Significance Tests Can End Your Career: A Cautionary Tale. https://marumatchbox.com/blog/misusing-statistical-significance-tests-can-end-your-career-a-cautionary-tale/ Acesso em 18.04.20.

3. Ioannidis, John. Why Most Published Research Findings Are False. 2005. Disponível em http://www.ncbi.nlm.nih.gov/pmc/articles/PMC1182327/. Acesso em 17.04.20.

4. Messerl. Franz H. i, Chocolate Consumption, Cognitive Function, and Nobel Laureates. The New England Journal of Medicine. 18.10.12. Disponível em http://www.nejm.org/doi/full/10.1056/NEJMon1211064. Acesso em 17.04.20.

5. Husten, Larry. Chocolate And Nobel Prizes Linked In Study. Disponível em: https://www.forbes.com/sites/larryhusten/2012/10/10/chocolate-and-nobel-prizes-linked-in-study/#33a8e4c91dd1 Acesso em 18.04.20.

6. Wasserman, Larry. The Higgs Boson and the p-value Police. Disponível em: http://normaldeviate.wordpress.com/2012/07/11/the-higgs-boson-and-the-p-value-police/. Acesso em 28.07.20.

60 Dias em Harvard – Comentários sobre o livro

O autor, Allan Costa – bastante conhecido dos paranaenses por ter sido superintendente do SEBRAE/PR e diretor presidente do CELEPAR – descreve sua experiência de 60 dias em um programa intensivo de educação executiva voltado a profissionais que ocupam cargos de alta gerência (presidência, diretoria) em grandes organizações, na mais famosa universidade do mundo na área de gestão.

O programa adota como metodologia o estudo de casos e uma das coisas mais interessantes do livro são os resumos feitos pelo autor da maioria dos casos estudados, enriquecidos com bem-humoradas opiniões pessoais.

Ele também comenta sobre alguns professores, como Kaplan, Porter e outros bastante famosos.

Uma leitura útil e agradável para gestores e para quem já fez ou deseja fazer um MBA. Particularmente interessante para quem, como eu, já fez um MBA baseado em estudo de casos (COPPEAD). Recomendo.

O livro: Costa, Allan. 60 dias em Harvard. eBook Kindle. Amazon 2017.

Serviço: O livro está disponível nas versões impressa e para download em https://www.amazon.com.br/60-Dias-Harvard-ALLAN-COSTA/dp/8558490619

The Pyramid Principle

Comentários e um pequeno resumo do livro

O livro, um clássico sobre a escrita de relatórios técnicos, foi escrito para orientar os novos profissionais da McKinsey na escrita de relatórios técnicos claros e convincentes.

Boa parte do texto ensina a analisar e resolver problemas, pois a autora percebeu que a pouca de clareza dos textos decorre, muitas vezes, da falta de compreensão sobre aquilo que o redator está escrevendo.

O livro é antigo, escrito na década de 70, tornando algumas considerações desatualizadas; mas isso não chega a tirar o mérito naquilo que a autora se propõe a fazer.

Seguem alguns conceitos apresentados no livro:

O fundamento, que dá título ao livro é o Princípio da Pirâmide – Os conteúdos devem ser apresentados da mensagem principal para as ideias que a suportam, em níveis que seguem do geral para o específico; daí a analogia com uma pirâmide.

A intenção é apresentar ideias e conclusões que se sustentam pela consistência e raciocínio, usando uma estrutura lógica (vertical e horizontal) e hierárquica, o que implica começar pelo resultado e esclarecer em seguida como ele foi obtido.

Uma ideia é uma declaração que levanta uma questão na mente do leitor porque conta alguma coisa que ele não sabe.

Ideias em qualquer nível devem sumarizar as ideias dos níveis inferiores.

As ideias devem ser agrupadas, para facilidade de interpretação do leitor, e as ideias em um grupo devem ser do mesmo tipo e precisam ficar sob um rótulo representado pelo plural de um substantivo. Exemplo: Recomendações.

As ideias, em cada grupo, devem ser colocadas em alguma ordem; entretanto a autora admite apenas quatro possibilidades lógicas:

  1. Dedutivamente (premissa mais importante, premissa complementar e, então, a conclusão).
  2. Cronologicamente (primeiro, segundo, etc.).
  3. Estruturalmente (Araucária, Curitiba, Brasília).
  4. Comparativamente (o mais importante, o segundo mais importante, etc.).

As duas únicas formas lógicas possíveis para estabelecer relações entre ideias são:

  • Dedutiva: se a=b e b=c, portanto a=c

A lógica dedutiva resulta em uma conclusão.

  • Indutiva: sorvete de abacate e sorvete de abacaxi são sorvetes de frutas.

A lógica indutiva resulta em inferência.

A dedução é sequencial, enquanto a indução não.

O nome dos tópicos de um relatório deve ser informativo. Um bloco chamado “descobertas” ou “conclusões” não ajuda o posicionamento do leitor. Uma alternativa aceitável em alguns documentos seria, por exemplo, “Próximos passos”.

As estruturas lógicas devem ser mutuamente exclusivas e coletivamente exaustivas (MECE).

  • Mutuamente exclusiva informa que não há superposição.
  • Coletivamente exaustiva indica que nada fica faltando; tudo foi incluído.

Outras dicas da autora:

  • Se a ideia defendida no texto não fica clara nos primeiros 30 segundos de leitura, o documento deve ser reescrito.
  • A introdução deve resumir apenas o que o leitor já sabe e tem como verdadeiro; deve ser uma história que o leitor já conhece. Deve mais lembrar que informar.
  • Sempre coloque os dados históricos e cronológicos na introdução.
  • Limite os conteúdos, em cada oportunidade, ao máximo de sete (Regra dos Sete), pois nossa capacidade de memorização e concatenação de ideias é limitada.
  • Nunca escreva sobre categorias, mas apenas sobre ideias.
  • Como regra geral, é melhor apresentar a ação desejada (o que o leitor deve fazer) e, depois, explicar as razões, ao menos nos níveis mais altos do documento.
  • Antes de escrever, visualize as ideias na forma de imagens. Isso ajudará a dar clareza ao texto. Uma dica é identificar os substantivos e as relações entre eles.

O livro

Minto, Bárbara. The Pyramid Principle: Logic in writing and thinking. Prentice Hall. 2016. (Em inglês).

Head First – Data analysis

Comentários sobre o livro

É quase um texto didático que aborda a análise de dados e apresenta diversas ferramentas para tornar essa atividade mais prática e eficaz, destacando os princípios fundamentais do trabalho:

  • Mostrar comparações, contrastes e diferenças.
  • Mostrar causalidade, mecanismo, explicações e estrutura sistemática.
  • Mostrar dados multivariados; ou seja, mais de uma ou duas variáveis.
  • Integrar completamente palavras, números, imagens e diagramas.
  • Descrever minuciosamente as evidências.

O texto oferece dicas sobre o uso do Excel e, também (Capítulo 9) uma introdução prática e simples ao software estatístico R, disponível gratuitamente na Internet e um dos mais usados para a análise de dados. O capítulo sobre erros é especialmente útil e didático.

Seguem alguns conceitos apresentados no livro:

  • A visualização dos dados objetiva, na maioria das vezes, facilitar comparações.
  • Como regra geral, o eixo horizontal do gráfico de dispersão representa a variável independente (a variável que imaginamos ser uma causa), e o eixo vertical a variável dependente (que imaginamos ser o efeito).
  • Uma maneira de tornar a visualização multivariada (isto é, com mais de duas variáveis) é colocar vários gráficos de dispersão de duas variáveis próximos uns dos outros, para facilitar a comparação visual.
  • Um aspecto importante da análise de dados é sua consolidação resumida por meio de médias, medianas, etc., com foco no que é importante saber para monitorar ou melhorar o processo.
  • A regressão é uma ferramenta estatística incrivelmente poderosa que, quando usada corretamente, tem a capacidade de ajudar a prever determinados valores.  Quando usada em um experimento controlado, a regressão pode realmente ajudar a prever o futuro.
  • A extrapolação é diferente da interpolação, na qual você está prevendo pontos dentro do seu intervalo de dados e para a qual a regressão é projetada. A interpolação é boa, mas você deve desconfiar da extrapolação.
  • A divisão de dados em grupos é chamada de segmentação, e é útil para usar diferentes modelos preditivos para os subgrupos, resultando em menos erros em todos os modelos.
  • O segredo sujo da análise de dados é que, como analista, você pode gastar mais tempo limpando os dados do que analisando-os.

O livro:

Milton, Michael. Head First: Data Analysis. O’Reilly Media, USA. 2009. ISBN: 978-0-596-15393-9. (em inglês) – Disponível em português: “Use a Cabeça! Análise de Dados”, pela Alta Books.

Nudge: Improving Decisions About Health, Wealth, and Happiness.

Nudge: Improving Decisions About Health, Wealth, and Happiness.

Crítica do livro

Escrito por Richard H. Thaler, ganhador do Prêmio Nobel de Economia e Cass R. Sunstein, laureado pelo governo da Noruega pelo uso prático dos conhecimentos acadêmicos, o livro descreve como pequenos cuidados no design das alternativas oferecidas às pessoas podem contribuir para melhores decisões, com ganhos para todos e sem interferência na liberdade individual das pessoas.

Os autores justificam essas ações, ou “nudges”, porque questionam a capacidade das pessoas de fazer boas escolhas, ainda que no interesse delas próprias. Citam que em muitos casos as decisões acabam sendo tomadas pelas pessoas que estruturam os processos, os chamados “arquitetos das decisões“. Isso ocorre, por exemplo, quando são definidos os “defaults”, ou as opções que serão automaticamente adotadas se não forem informadas ou selecionadas outras. Afinal, poucas pessoas se dão ao trabalho de fazer personalizações e ajustes para sua situação particular, seja em um software, seja em um contrato.

Em alguns trechos, como quando discute opções para bolsas de estudos e planos de previdência, o texto fica chato. Mas, no geral, tem exemplos interessantes e agradáveis.

É uma boa leitura para executivos, jornalistas, designers, curiosos e para quem deseja se aprimorar na capacidade de analisar criticamente as situações ou tomar melhores decisões. Deveria ser leitura obrigatória para todo legislador.

Fonte

Thaler, Richard H. e Sunstein, Cass R. Nudge: Improving Decisions About Health, Wealth, and Happiness. Penguin Books. USA. 2009.

Pense Fora do Quadrado

Capa do livro: Pense Fora do Quadrado.

Comentários sobre o livro

O livro destaca as peculiaridades dos chamados “trabalhadores do conhecimento” que são importantes considerar quando se busca resultados.

Diferentemente dos operários que fazem trabalhos manuais repetitivos, e que têm o efeito de seus esforços facilmente mensurados por número de peças produzidas ou quantidade de clientes servidos, o desempenho dos profissionais que fazem trabalhos intelectuais é de avaliação mais complexa. Eles podem passar várias horas olhando para o espaço, ou lendo um livro de arte que aparentemente não tem qualquer ligação com seu trabalho e, de repente, gerar um resultado significativo para a organização.

Isso porque trabalhadores do conhecimento precisam níveis elevados de expertise, escolaridade ou experiência e seu objetivo principal no trabalho envolve a criação, a distribuição ou a aplicação do conhecimento.

Por conta da necessidade de buscar extrair o melhor destes trabalhadores, Davenport critica o uso do conceito frio de produtividade, defendendo a adoção de termos como “desempenho” e “resultados”, pois entende que abrangem produtividade e qualidade, eficiência e eficácia.

Na opinião dele, qualquer que seja a atividade ou processo empresarial que o trabalhador do conhecimento tente executar, é possível definir o nível de desempenho e resultados em termos de velocidade, custos, ausência de defeitos ou satisfação do cliente. E afirma que o desempenho e os resultados devem ser granulares o suficiente para que possam ser usados como medidas para cada trabalhador do conhecimento, para grupos de uma empresa ou para organizações inteiras.

Como dicas mais práticas, ele destaca:

  • Quase todos os trabalhadores do conhecimento precisam sentir que participaram da definição ou da redefinição de seu trabalho, se tiverem de seguir um novo processo.
  • Quanto mais criativo o trabalho do conhecimento, menos estruturado ele deve ser.

Entretanto, ele não propõe o caos e afirma que “Qualquer esforço para mudar o modo de execução do trabalho necessita de uma dose de ambos: processo – concepção de como o trabalho deverá ser feito – e prática – uma compreensão de como cada funcionário responde ao mundo real do trabalho e executa as tarefas a ele designadas. Para mudar o trabalho do conhecimento com sucesso, é necessário ter uma delicada interação entre processo e prática”.

Em resumo, apesar de antigo, é um livro interessante e útil para quem tem responsabilidade sobre a gestão de processos e profissionais voltados à criatividade, à ruptura e à inovação.

Tornar o trabalhador do conhecimento produtivo será a grande missão da administração deste século, assim como tornar produtiva a mão de obra braçal foi o principal desafio do século passado.  – Peter Drucker

O livro

Davenport, Thomas H. Pense fora do quadrado. Rio de Janeiro: Elsevier, 2006.

Um análise curiosa

É importante ter consciência que correlação não corresponde, necessariamente, a uma relação de causa e efeito e que nenhuma conclusão pode ser tirada apenas com base na correlação entre duas variáveis, como esclarece o exemplo adiante.

Uma curiosa inversão de causa e efeito

O exemplo mais interessante que vi sobre inversão entre causa e efeito foi o apresentado no clássico “Lie with Statistics” [1]. Os indígenas de Vanuatu observaram, ao longo dos séculos, que as pessoas saudáveis tinham piolhos, enquanto os doentes muitas vezes não. Então, com base nas evidências e alguma lógica, concluíram que os piolhos tornam um homem saudável e todo mundo deveria tê-los.

Já nós, à luz do conhecimento ocidental, acreditamos que quando as pessoas ficam doentes os piolhos caem fora.

Referência

1. Huff, Darrel. How to Lie with Statistics. W. W. Norton & Company Inc. New York, 1954. p. 98.

POST230606 de jul/20, atualizado em abr/24

Média versus Mediana

Imagem pelo autor

A mediana corresponde a observação do meio de um conjunto ordenado de dados, de forma que exista um número igual de observações maiores e menores que ela. Como consequência, não é afetada por dados excepcionalmente altos ou baixos.

A média aritmética, usualmente chamada apenas de “média”, por outro lado, soma todos os pontos de dados e divide pelo número de pontos de dados para determinar o valor “normal”.  Assim, a média pode ser bastante influenciada por poucos dados excepcionalmente altos ou baixos.

Veja a diferença se, por exemplo, você tiver 100 resultados, onde 97 deles são 100 e os três últimos valores são 1.000,  10.000 e 100.000,  que seriam dados extremos:

 ● Mediana = 100

 ● Média aritmética = 1.207

Essa é uma discrepância bastante grande entre as duas estatísticas que indicam o ponto central dos dados. Então, devemos ser cuidadosos na escolha para a análise e publicação de dados.

Em resumo

A vantagem, em relação à média, é que a mediana geralmente representa melhor o valor típico da amostra, pois não é distorcida por valores extremamente altos ou baixos. Portanto, nas comparações, de modo geral é melhor usar a mediana. Entretanto, o ideal é que a decisão seja tomada depois de observar a distribuição dos dados.

Nota: Quando um texto em inglês usa o termo “average”, pode estar se referindo à média, à mediana ou à moda, três conceitos de valor central bastante diferente. É preciso cuidado. – Darrel Huff

Post de jul/20, atualizado em mar/22.

Curva de distribuição normal

A distribuição normal, também chamada distribuição gaussiana ou de Gauss, é uma das distribuições de probabilidade mais usadas para modelar fenômenos naturais. Isso porque grande número de fenômenos apresenta uma distribuição de probabilidade bem próxima da normal.

As distribuições normais têm as seguintes características:

  • Forma simétrica de sino.
  • Média e mediana iguais; ambas localizadas no centro da distribuição.
  • Aproximadamente 68% dos dados estão dentro de um desvio-padrão da média.
  • Aproximadamente 95% dos dados estão dentro de 2 desvios-padrão da média.
  • Aproximadamente 99,7% dos dados estão dentro de 3 desvios-padrão da média.

Saiba mais em: https://pt.khanacademy.org/math/statistics-probability/modeling-distributions-of-data/normal-distributions-library/a/normal-distributions-review

Post de jul/20 atualizado em mar/22.