Histograma

Fotografia de um grupo de estudantes organizados por altura, mostrando um histograma bimodal.
Grupo de estudantes organizados por altura.

O Histograma ou Gráfico de Distribuição de Frequências é uma variação do gráfico de barras que mostra a proporção dos dados em uma amostra. Enquanto o gráfico de barras descreve os dados em barras e categorias separadas, o histograma representa os dados da mesma categoria no intervalo analisado, por isso, sem espaço entre as barras.

Os histogramas podem apresentar vários formatos:

Simétrico ou normal        

Ocorre quando o processo é padronizado e os dados são estáveis, permitindo variações pequenas. A maior quantidade de dados fica ao centro do gráfico e suas variações diminuem simetricamente dos dois lados.

Assimétrico

Geralmente acontece quando os dados não podem ultrapassar um limite. O pico se aproxima de um dos lados, e os dados fora de padrão decrescem para o lado oposto.

Bimodal       

O histograma bimodal, ou com dois picos, geralmente ocorre quando são tratadas duas amostras distintas. A análise deve ser feita separadamente, observando ao desenho dos dois gráficos. Edward Tufte [1] apresenta, didaticamente, um histograma com distribuição bimodal de estudantes de faculdade organizados por altura, (veja a foto).

Outros

Em outros casos, as barras têm praticamente o mesmo tamanho ou variam sem critério ou um padrão definido.

Esboço de um histograma.
Imagem por krzysztof-m em Pixabay 

Referência:

1. Tufte, Edward. Mini Tufte. Versão eletrônica. Página 40, reproduzido de Brian L. Joiner. “Living Histograms”. International Statistics Review, 43 (1975). pp. 339-240. Disponível em: https://www.cs.unm.edu/~pgk/IVCDs14/minitufte.pdf Acesso em 5.3.21

Visual Explanations: Images and Quantities, Evidence and Narrative

Comentários sobre o livro

Edward Tufte é um estatístico famoso pelas técnicas para apresentação de dados e informações, tendo muitas publicações sobre o tema. Neste livro ele descreve estratégias para representar movimentos, processos, mecanismos e relações de causa e efeito.

Ele mostra a evolução das representações gráficas ao longo da história e, inclusive, o provável primeiro gráfico com representação estatística de distâncias, além de diversas outras curiosidades.

Tufte enfatiza que más apresentações gráficas são um problema ético. Isso não significa que ele exija realidade nas imagens, mas que qualquer distorção deve ser informada com o devido destaque. Aliás, ele até apresenta a distorção de escalas como um mecanismo válido para a análise de dados.

Para exemplificar, ele apresenta em detalhes as análises que levaram a identificar a fonte da cólera em Londres em 1854 e o acidente com o ônibus espacial Challenger, que já havia explorado no livro Beautiful Evidence. Naquela publicação, ele fez uma análise das causas básicas do acidente que provocou a explosão do ônibus espacial, matando 11 pessoas e trazendo um prejuízo enorme à reputação da NASA. Ainda comenta as diferentes visões e explicações dos administradores, psicólogos e engenheiros que tentaram explicar os fatos que levaram à catástrofe.

Destaca, ainda, que embora a sequência temporal seja a mais adequada para analisar as tendências, não é uma boa prática para a análise de relações entre variáveis. Tufte exemplifica brilhantemente essa questão com a discussão sobre um gráfico usado para investigar o acidente com a Challenger, em que os dados, plotados na sequência histórica, dificulta perceber a relação entre temperatura e falhas dos anéis de borracha (o-rings) para vedação. São exemplos interessantes que contribuem para aumentar o espírito crítico do leitor.

Alguns destaques do texto:

  • Ausência de evidência não é evidência de ausência.
  • Criar ilusões ou mágicas é engajar-se no design da desinformação, corromper a conexão óptica, enganar o público.  Assim, as estratégias da magia determinam o que não fazer se seu objetivo é revelar a verdade, e não criar ilusões.
  • Como mágicos, quem faz os gráficos revela o que deseja revelar.
  • A lógica dos gráficos deve seguir a lógica da análise.
  • Gráficos ruins indicam estupidez estatística, assim como uma escrita pobre geralmente reflete pensamentos pobres.
  • Raciocinando sobre causalidade, variações na causa devem ser explicita e mensuravelmente ligadas às variações no efeito.
  • Faça todas as distinções visuais tão discretas quanto possível, mas claras e efetivas. Quando tudo é enfatizado, nada é enfatizado.
  • Nos gráficos, um arco-íris de cores confunde o que acontece com as cores com o que acontece com os dados.

Se uma imagem não vale mais que mil palavras, então não vale nada. – Ad Reinhardt

O livro

Tufte, Edward Rolf. Visual Explanations: Images and Quantities, Evidence and Narrative. Graphics Press, Connecticut, June, 2005.

Serviço: Este livro é uma leitura útil para quem tem a responsabilidade de gerar gráficos e interpretar informações,

Com o Big Data a estatística pode ser ainda mais perigosa

Image by Tumisu from Pixabay

Chris Anderson – famoso pelo seu livro “A Cauda Longa: Do Mercado de Massa para o Mercado de Nicho” – sugeriu que o uso do big data tornaria o método científico obsoleto [1]. Isso provavelmente não é verdade.

É incorreto gerar retrospectivamente hipóteses para se adequar aos padrões de dados que surgem após o término de um estudo. Essa prática é conhecida pelos estatísticos como “p-hacking” ou “data fishing” [2].

O epidemiologista John Ioannidis destacou esse ponto na área médica no artigo “Por que a maioria das descobertas de pesquisas publicadas é falsa” [3].

O argumento de Ioannidis é bem ilustrado pelo artigo “Consumo de chocolate, função cognitiva e ganhadores do Nobel” de Franz Messerli no New England Journal of Medicine [4]. O artigo relata “uma correlação linear significativa (r = 0,791, p <0,0001) entre o consumo de chocolate per capita e o número de ganhadores do Nobel por 10 milhões de pessoas em um total de 23 países. O texto especulou sobre os efeitos de alguns antioxidantes, encontrados no chocolate, na melhoria da capacidade de raciocínio.

O artigo, que pretendia ser uma paródia da temporada de prêmios Nobel, foi seriamente relatado nos principais meios de comunicação como, por exemplo, na Forbes [5]. Embora o artigo seja uma brincadeira, a correlação com elevada “significância estatística” é um fato real do conjunto de dados estudado pelo Dr. Messerli. Isso ilustra que os estudos de múltiplas correlações podem levar a resultados “significativos” em um sentido técnico, como sugerido por Chris Anderson, mas também podem ser enganosos ou sem sentido.

Assim, é interessante notar que a equipe internacional de físicos que anunciou a descoberta do bóson de Higgs, atenta ao problema de múltiplas comparações, usou um limiar extremamente baixo do valor de p “cinco-sigma” (<0,000001) [6].

Referências:

1. Anderson, Chris. The End of Theory: The data deluge makes the scientific method obsolete. Disponível em: http://www.wired.com/science/discoveries/magazine/16-07/pb_theory. Acesso em 18.04.20.

2. Tang, Jane,  Misusing Statistical Significance Tests Can End Your Career: A Cautionary Tale. https://marumatchbox.com/blog/misusing-statistical-significance-tests-can-end-your-career-a-cautionary-tale/ Acesso em 18.04.20.

3. Ioannidis, John. Why Most Published Research Findings Are False. 2005. Disponível em http://www.ncbi.nlm.nih.gov/pmc/articles/PMC1182327/. Acesso em 17.04.20.

4. Messerl. Franz H. i, Chocolate Consumption, Cognitive Function, and Nobel Laureates. The New England Journal of Medicine. 18.10.12. Disponível em http://www.nejm.org/doi/full/10.1056/NEJMon1211064. Acesso em 17.04.20.

5. Husten, Larry. Chocolate And Nobel Prizes Linked In Study. Disponível em: https://www.forbes.com/sites/larryhusten/2012/10/10/chocolate-and-nobel-prizes-linked-in-study/#33a8e4c91dd1 Acesso em 18.04.20.

6. Wasserman, Larry. The Higgs Boson and the p-value Police. Disponível em: http://normaldeviate.wordpress.com/2012/07/11/the-higgs-boson-and-the-p-value-police/. Acesso em 28.07.20.

Head First – Data analysis

Comentários sobre o livro

É quase um texto didático que aborda a análise de dados e apresenta diversas ferramentas para tornar essa atividade mais prática e eficaz, destacando os princípios fundamentais do trabalho:

  • Mostrar comparações, contrastes e diferenças.
  • Mostrar causalidade, mecanismo, explicações e estrutura sistemática.
  • Mostrar dados multivariados; ou seja, mais de uma ou duas variáveis.
  • Integrar completamente palavras, números, imagens e diagramas.
  • Descrever minuciosamente as evidências.

O texto oferece dicas sobre o uso do Excel e, também (Capítulo 9) uma introdução prática e simples ao software estatístico R, disponível gratuitamente na Internet e um dos mais usados para a análise de dados. O capítulo sobre erros é especialmente útil e didático.

Seguem alguns conceitos apresentados no livro:

  • A visualização dos dados objetiva, na maioria das vezes, facilitar comparações.
  • Como regra geral, o eixo horizontal do gráfico de dispersão representa a variável independente (a variável que imaginamos ser uma causa), e o eixo vertical a variável dependente (que imaginamos ser o efeito).
  • Uma maneira de tornar a visualização multivariada (isto é, com mais de duas variáveis) é colocar vários gráficos de dispersão de duas variáveis próximos uns dos outros, para facilitar a comparação visual.
  • Um aspecto importante da análise de dados é sua consolidação resumida por meio de médias, medianas, etc., com foco no que é importante saber para monitorar ou melhorar o processo.
  • A regressão é uma ferramenta estatística incrivelmente poderosa que, quando usada corretamente, tem a capacidade de ajudar a prever determinados valores.  Quando usada em um experimento controlado, a regressão pode realmente ajudar a prever o futuro.
  • A extrapolação é diferente da interpolação, na qual você está prevendo pontos dentro do seu intervalo de dados e para a qual a regressão é projetada. A interpolação é boa, mas você deve desconfiar da extrapolação.
  • A divisão de dados em grupos é chamada de segmentação, e é útil para usar diferentes modelos preditivos para os subgrupos, resultando em menos erros em todos os modelos.
  • O segredo sujo da análise de dados é que, como analista, você pode gastar mais tempo limpando os dados do que analisando-os.

O livro:

Milton, Michael. Head First: Data Analysis. O’Reilly Media, USA. 2009. ISBN: 978-0-596-15393-9. (em inglês) – Disponível em português: “Use a Cabeça! Análise de Dados”, pela Alta Books.

Nudge: Improving Decisions About Health, Wealth, and Happiness.

Nudge: Improving Decisions About Health, Wealth, and Happiness.

Crítica do livro

Escrito por Richard H. Thaler, ganhador do Prêmio Nobel de Economia e Cass R. Sunstein, laureado pelo governo da Noruega pelo uso prático dos conhecimentos acadêmicos, o livro descreve como pequenos cuidados no design das alternativas oferecidas às pessoas podem contribuir para melhores decisões, com ganhos para todos e sem interferência na liberdade individual das pessoas.

Os autores justificam essas ações, ou “nudges”, porque questionam a capacidade das pessoas de fazer boas escolhas, ainda que no interesse delas próprias. Citam que em muitos casos as decisões acabam sendo tomadas pelas pessoas que estruturam os processos, os chamados “arquitetos das decisões“. Isso ocorre, por exemplo, quando são definidos os “defaults”, ou as opções que serão automaticamente adotadas se não forem informadas ou selecionadas outras. Afinal, poucas pessoas se dão ao trabalho de fazer personalizações e ajustes para sua situação particular, seja em um software, seja em um contrato.

Em alguns trechos, como quando discute opções para bolsas de estudos e planos de previdência, o texto fica chato. Mas, no geral, tem exemplos interessantes e agradáveis.

É uma boa leitura para executivos, jornalistas, designers, curiosos e para quem deseja se aprimorar na capacidade de analisar criticamente as situações ou tomar melhores decisões. Deveria ser leitura obrigatória para todo legislador.

Fonte

Thaler, Richard H. e Sunstein, Cass R. Nudge: Improving Decisions About Health, Wealth, and Happiness. Penguin Books. USA. 2009.

How to lie with statistics

Capa do livro.

Este livro é um clássico e, por ser muito citado, há tempos queria ler.

Na verdade, esperava um livro bastante técnico, mas fui surpreendido com um texto leve e com histórias interessantes.

Em sua defesa para a publicação das formas como a estatística é usada para distorcer as informações, o autor afirma que os bandidos já conhecem esses truques; pessoas honestas devem aprendê-las em legítima defesa.

O texto critica fortemente a qualidade das amostras usadas nas pesquisas de opinião.

Além de interessante, o livro é útil para despertar o senso crítico tanto de analistas de dados quanto do cidadão comum que se informa por meio da leitura e da televisão. Veja, adiante, algumas considerações do autor:

  • O uso de figuras, em substituição às barras, no clássico gráfico de barras, distorce a informação, pois mesmo quando a altura é proporcional às das barras, quase sempre cria uma percepção diferente, devido à noção que temos das áreas e dos volumes das figuras.
  • Existem muitas maneiras de expressar qualquer resultado. Você pode, por exemplo, expressar exatamente o mesmo fato, chamando-o de um retorno de vendas de um por cento, um retorno de investimento de quinze por cento, um lucro de dez milhões de dólares, um aumento de lucros de quarenta por cento (comparativamente à média de 1935-39), ou uma diminuição de sessenta por cento em relação ao ano anterior.  O truque é escolher o que soa melhor para o objetivo em questão e confiar que poucos que o lerem reconhecerão o quão imperfeitamente reflete a situação.
  • Um tipo comum de correlação é aquele em que a relação é real, mas não é possível ter certeza de qual das variáveis ​​é a causa e qual o efeito.  Em alguns desses casos, causa e efeito podem mudar de lugar de tempos em tempos. Ou, de fato, ambos podem ser causa e efeito ao mesmo tempo.  Uma correlação entre renda e propriedade de ações pode ser desse tipo.
  • Permitir que o tratamento estatístico e a presença hipnótica de números e pontos decimais seja incompreensível para as relações causais é pouco melhor que a superstição. E muitas vezes é mais seriamente enganador. É como a convicção entre o povo de Vanuatu que o piolho no corpo produz boa saúde. A observação ao longo dos séculos ensinou-lhes que as pessoas de boa saúde geralmente tinham piolhos, enquanto os doentes muitas vezes não. A observação em si foi precisa e correta, pois ocorreram ao longo de muitos anos. Daí a conclusão a que essas pessoas primitivas tiraram de suas evidências: os piolhos tornam um homem saudável. Todo mundo deveria tê-los.

Nota; O e-book está disponível para download gratuito na Internet.

O livro

Huff, Darrel. How to Lie with Statistics. W. W. Norton & Company Inc. New York, 1954.

Indicadores mais comuns no RH

Imagem de Mohamed Hassan por Pixabay

O Estudo de Indicadores RH 2020, feito pela Carreira Müller, levantou as métricas de RH mais usadas pelas empresas. Os resultados (ver tabela) confirmam a Rotatividade como a preferida pelos profissionais da área, sendo monitorada por 86% dos entrevistados, enquanto o Custo da Rotatividade – indicador considerado mais relevante pela alta direção das empresas – é acompanhado por apenas 16% das organizações.

Também é interessante notar que mais de um terço das empresas acompanha o Índice de Reclamações Trabalhistas, evidenciando a dificuldade de atender uma legislação complexa e sujeita a muitas interpretações.

Tabela – Indicadores apurados pelo RH

Deseja ajuda para escolher e analisar os indicadores e obter melhores resultados? Podemos ajudar. Conheça nosso serviço.

A amostra induz ao resultado

Desenho de avião, em planta, mostrando pontos em que recebeu projéteis.

Durante a Segunda Guerra Mundial, na tentativa de reduzir o número de aviões abatidos pelo inimigo, os aliados estudaram onde os aviões retornados sofreram mais danos. Desta forma, eles poderiam reforçar essas partes. A conclusão: reforçar as pontas das asas, os lemes e o centro do avião, que foi onde eles identificaram mais impactos.

Mas Abraham Wald, um estatístico que trabalhava para a defesa, propôs algo diferente: reforçar o cockpit, os motores e as costas do corpo. E por que reforçar as áreas onde não houve impactos?

O que eles não haviam considerado é que havia um viés importante ao fazer o estudo. Eles estavam apenas observando os aviões que conseguiram retornar.

Wald identificou que a distribuição dos impactos seria mais ou menos homogênea. Eles viram impactos em áreas que não eram vitais. Porque, apesar de sofrerem grandes danos, os aviões conseguiram retornar à base.

Se um avião receber grandes danos na cabine, nos motores e na cauda, ele será abatido e, assim, será incapaz de retornar à base. Mas estes não foram considerados no estudo inicial.

Esse fenômeno é algo que na estatística chamamos de “viés de seleção”. Muitas vezes, dados mal interpretados ou “intuição” nos levam a tomar decisões erradas [1]. 

Outro exemplo, desta vez na análise de fundos de investimento, mostra problema semelhante. A empresa de análise de investimentos americana Morningstar criou uma categoria de fundos chamada Large Blend — aqueles que aplicam em ações de grandes empresas da bolsa americana.

De acordo com seus cálculos, esses fundos cresceram, em média, 178,4% de 1995 a 2004 — quase 11% ao ano. Um ótimo investimento para os padrões americanos. Entretanto, um estudo de 2006, feito pela gestora Savant Capital, questiona esse sucesso.

Para chegar ao resultado, a Morningstar pegou todos os fundos classificados como Large Blend e viu quanto cresceram no prazo de dez anos. Mas ignorou os fundos que já não existiam; esses, provavelmente, são os que não deram lucro. 

Julgar o desempenho de uma categoria de fundos por uma década considerando apenas os que permanecem operando no final do período é, claramente, uma distorção que favorece os bons resultados. Se os fundos mortos fossem incluídos no cálculo, a taxa de retorno cairia para 134,5%, média anual inferior a 9%.

Conclusão: A análise dos dados deve começar pelo verificação de sua representatividade. 

Não há nada mais enganador do que um fato óbvio. Sherlock Holmes

Referências:

1.             Jacle Garbretch, no LinkedIn em 5.06.19.

2.             https://exame.abril.com.br/ciencia/uma-defesa-apaixonada-do-pensamento-matematico/ Acesso em 8.06.19.

Uma história curiosa.

A história dos testes de “significância” envolve estatísticos que se desprezavam.  Tudo começou com um grupo de acadêmicos que se reuniu para o chá, em 1920. Uma delas foi a Dra. Blanche Bristol que, quando recebeu uma xícara de chá de um colega, recusou.  O homem colocava o chá e depois acrescentava o leite.  A Dra. Bristol rejeitou-o porque preferia que o leite fosse despejado primeiro no copo.  O Dr. Ronald Aylmer Fisher, que servira o chá, afirmou que ela não notaria a diferença.  Ela insistiu que podia.  O Dr. Fisher propôs um teste, que ele descreveu em seu livro The Design of Experiments. Ele prepararia oito xícaras de chá;  quatro com o chá derramado primeiro e quatro com o leite servido primeiro.  Ela tinha que adivinhar qual era qual.

Ele propôs a hipótese nula de que ela seria incapaz de fazer isso corretamente.  Fisher calculou que a chance de adivinhar todos os copos corretamente era de 1/70.  Ele estava disposto a reconhecer sua habilidade (rejeitando a hipótese nula) apenas nesse caso.  Ela, supostamente, acertou todos.  A hipótese nula foi rejeitada.  Este foi o começo do teste de significância.

Fonte: The Danger of Relying on “Statistical Significance”. By Andrew Grenville. June 3, 2019. Disponível em: https://marumatchbox.com/blog/danger-of-relying-on-statistical-significance/ Acesso em 3.06.19.

Nota: O artigo questiona o uso dos testes estatísticos na forma como têm sido aplicados nas pesquisas científicas. Vale a leitura.

Qualidade ou quantidade?

O avanço da informática, tanto do ponto de vista tecnológico como do econômico, levou as organizações a dispor de um volume incomensurável de dados e informações em tempo real. Os argumentos de venda da área de tecnologia são, justamente, rapidez e menor custo. Entretanto, a qualidade das decisões decorre mais de uma análise profunda – estruturada ou intuitiva – feita periodicamente, que da frequência das análises. Até porque análises feitas com muita frequência tendem a se tornar superficiais e pouco elaboradas.

Assim, não é a disponibilidade da informação minuto a minuto que será útil para a gestão da organização. É a observação periódica de indicadores, simples e apropriados, que permite identificar tendências e a aderência dos resultados à estratégia da organização. Administrar uma organização, assim como pilotar um navio, significa conviver com um sistema de inércia elevada, com tempos de respostas longos. Logo, é mais importante uma ação que gere uma resposta bem calibrada que uma ação rápida.

Naturalmente, estamos nos referindo a aspectos gerenciais. Esta abordagem frequentemente não se aplica a questões operacionais onde, por exemplo, para um aumento imprevisto na temperatura do reator, devemos dar uma resposta imediata para garantir seu resfriamento.

Resumindo: Ao trabalhar com indicadores gerenciais, devemos privilegiar a qualidade da informação e da análise à quantidade e à velocidade de acesso aos dados.