Uma realidade difícil de mudar

Em uma indústria química na qual trabalhei na década de 1980 havia várias bombas para movimentar água, óleos e outros produtos químicos entre os diversos equipamentos. Para manter uma boa operação, os engenheiros de processo precisavam acompanhar a pressão na saída dos equipamentos e os engenheiros mecânicos desejavam monitorar a temperatura nos mancais das bombas.

A prática, na época, era solicitar que os operadores olhassem cada bomba de hora em hora e preenchessem os dados de interesse em pranchetas com planilhas impressas em papel.

Ao observarem uma pressão mais baixa que a usual, ou uma temperatura mais alta que a permitida, os operadores deviam notificar o supervisor para que fosse tomada alguma ação corretiva.

Ao longo dos anos, devido às trocas de equipamentos e outras modernizações, a sequência de preenchimento dos formulários não coincidia com o trajeto que o operador fazia para colher os dados. Então, ele deixava espaços em branco que, mais adiante, eram preenchidos. Isso, eventualmente, provocava algum erro por troca nos dados anotados.

Para avaliar se a pressão das bombas – já que era diferente para cada uma – estava adequada, o operador costumava olhar o resultado anotado no momento anterior. Isso funcionava bem quando havia, por exemplo, um entupimento, fazendo com que houvesse uma variação brusca na pressão medida. Mas as bombas, devido às condições de trabalho rigorosas, também sofriam desgaste que se refletia em redução na pressão de saída, diminuindo a eficiência do processo; como a queda na pressão devida à essa causa era lenta e gradativa, a comparação com o valor medido na hora anterior não sinalizava problema. Os operadores se acostumavam com os novos valores e não percebiam a necessidade de manutenção, exceto quando os resultados já eram muito ruins. A mesma coisa acontecia com a temperatura.

Na época, refiz as planilhas alterando a ordem das anotações para coincidir com a ordem em que os equipamentos estavam instalados; também incluí uma linha adicional com os limites aceitáveis para esses valores, para que fossem tomados como referência. Esses dois cuidados muito simples reduziram os erros e aprimoraram a coleta dos dados.

E hoje? Nas empresas menores ainda temos a coleta em papel como descrita. Em outras as anotações são feitas em dispositivos eletrônicos, mas a ordem em que os dados devem ser preenchidos muitas vezes não coincide com a sequência mais conveniente para o operador. E um recurso presente na maioria dos equipamentos de coleta de dados, que permite criar um alarme avisando que determinada entrada de dados não é normal, frequentemente não é usado. Nas empresas mais modernas as leituras dos operadores foram substituídas por sensores que colhem os dados e os enviam diretamente para um computador e um painel de controle. Apesar dessa grande sofisticação, ainda há casos em que não há um alerta automático caso o dado colhido esteja fora da faixa aceitável. E, como esses sistemas evoluíram a partir das planilhas usadas anteriormente, muitas vezes monitoram mais ou menos pontos do que deveriam.

Sugestão: Reveja o processo de coleta de dados usados para o controle operacional e para o cálculo dos indicadores usados na gestão. A qualidade das decisões depende da qualidade desses dados.

Big Data e o RH

Teclado de computador sob um retângulo onde está escrito Big Data.
Imagem de Gerd Altmann por Pixabay

Big data é o termo que descreve o grande volume de dados – estruturados e não estruturados – que não consegue ser tratado pelos softwares tradicionais.

Portanto, o termo se refere ao processamento de volumes colossais de dados, o que exige máquinas e algoritmos poderosos. Mas, além da quantidade de dados, o Big Data se diferencia pela capacidade de processar dados não estruturados, como continuamente produzidos em grandes quantidades por sensores digitais, equipamentos de gravação de áudio e vídeo, dispositivos de computação móvel, pesquisas na Internet, redes sociais, tecnologias de mídia e assim por diante.

Explicando: As antigas planilhas do RH tinham campos preenchidos com informações específicas de cada colaborador, como: nome, data de nascimento, etc. Então uma pesquisa para, por exemplo, saber a idade média dos colaboradores era fácil. Mas essas fichas também tinham um espaço para observações. As análises das informações anotadas ali só podiam ser feitas por humanos, por não estarem “estruturadas” ou em um formato padronizado. A mesma informação poderia ter redações diferentes quando anotada por pessoas diferentes. Por exemplo:

• Teve afastamento pelo INSS por 25 dias.

• Ela tirou licença médica de 25 dias.

• Faltou vinte e cinco dias por motivos de saúde.

As ferramentas de Big Data são capazes de interpretar essas várias redações e entender que se trata da mesma informação.

Mas não assuma que todo problema analítico é um problema de big data. Entenda primeiro a causa básica dos problemas e, em seguida, selecione as tecnologias analíticas certas para resolvê-los. Muitos problemas podem ser resolvidos sem grande armazenamento de dados ou análise de big data. Nenhum tipo de análise é melhor que o outro. Cada um faz coisas diferentes, resolve problemas diferentes e requer diferentes softwares e arquiteturas [1].

Embora o termo big data seja relativamente novo, o ato de coletar e armazenar grandes quantidades de informações para análises é antigo. O conceito ganhou força no começo dos anos 2000, quando o analista Doug Laney articulou a definição mais aceita de big data em três Vs [2]:

Volume. Organizações coletam dados de fontes variadas, incluindo transações financeiras, mídias sociais e informações de sensores ou dados transmitidos de máquina para máquina. No passado, armazená-los teria sido um problema — mas novas tecnologias (como o Hadoop) aliviaram esse fardo.

Velocidade. Os dados são transmitidos numa velocidade sem precedentes e devem ser tratados em tempo hábil. Etiquetas RFID, sensores e medidores inteligentes estão impulsionando a necessidade de lidar com torrentes de dados praticamente em tempo real.

Variedade. Dados são gerados em inúmeros formatos — desde estruturados (numéricos, em bases de dados tradicionais) a não-estruturados (documentos de texto, e-mail, vídeo e áudio).

O Big Data é a matéria-prima do processo da People Analytics. Serve para obter insights que levam a decisões melhores e ações estratégicas de negócio.

Dados não estruturados compõem mais de 90% dos dados gerados em todo o mundo, por isso é mais importante do que nunca examiná-los como parte da estratégia de dados de sua empresa. Bernard Marr

Referências:

  1. SAS. What Kind of Big Data Problem Do You Have? Disponível em: https://www.sas.com/pt_br/whitepapers/what-kind-of-big-data-problem-107085.html. Acesso em 25.03.20.
  2. SAS. Big Data: What it is and why it matters. Disponível em: https://www.sas.com/pt_br/insights/big-data/what-is-big-data.html. Acesso em 25.03.20.

Post publicado em agosto de 2019 e atualizado em maio de 2020.

Pesquisas – Melhores empresas para trabalhar

Exame - Melhores empresas

Como são as duas pesquisas de “melhores empresas para trabalhar” no Brasil?

No que diz respeito à coleta de dados, as metodologias das duas pesquisas são semelhantes. Mas que tipo de empresa é a “melhor para trabalhar”, segundo essas pesquisas?

A Pesquisa GPTW/Época parte de um modelo em que um bom ambiente de trabalho é descrito como um lugar no qual você confia nas pessoas para quem trabalha, tem orgulho do que faz e gosta dos colegas. De acordo com esse modelo, o funcionário de qualquer organização desenvolve três relações básicas no ambiente de trabalho: a primeira com a direção da companhia em todos os níveis (Confiança, subdividida nas categorias Credibilidade, Respeito e Imparcialidade), a segunda com a própria tarefa, o trabalho da equipe e a contribuição da empresa para a comunidade (Orgulho), e a terceira com os colegas (Camaradagem). Cada uma dessas cinco categorias (Credibilidade, Respeito, Imparcialidade, Orgulho e Camaradagem) tem peso semelhante no questionário, respondendo por aproximadamente 20% cada uma.

E na Pesquisa USP/Exame?

Na Pesquisa USP/Exame, realizada pela primeira vez em 2006, o modelo teórico é decorrente das pesquisas realizadas pela Fundação Instituto de Administração da USP (FIA-USP) há mais de 20 anos. Reduz-se o peso dado para Satisfação e Motivação como parâmetro principal da relação das pessoas com a empresa e incorpora-se o tema da Identidade, ou a identificação dos funcionários com os valores da empresa e a estratégia do negócio. Além disso, dois indicadores ganham mais peso: 1) Liderança e 2) Aprendizado e Desenvolvimento. Assim, a categoria Identidade tem um peso de 14,1% na nota final de percepção dos funcionários; a categoria Satisfação e Motivação, 46,9%; a categoria Liderança (que demonstra como os funcionários avaliam seus chefes segundo a habilidade para se comunicar, criar compromissos e promover aprendizado, bem como a demonstração de confiança, capacidade de atuar com justiça e de promover o desenvolvimento, além de ser coerente em seu discurso e suas atitudes), 23,4%; e a categoria Aprendizado e Desenvolvimento, 15,6%. Em relação às práticas de gestão de pessoas, a Pesquisa USP analisou seis fatores: remuneração e benefícios; carreira profissional; educação; responsabilidade social e ambiental; integridade física, psíquica e social; e saúde. Isso resulta no Índice de Qualidade na Gestão de Pessoas, que vai de zero a cem pontos.

Fonte: HSM Management Update. Nº 54 – Março 2008.

Análises de Tendências

A maioria das pessoas tem alguma dificuldade em interpretar dados apresentados em gráficos e tabelas. Assim, as análises devem ser complementadas por meio de palavras e a escolha certa faz toda a diferença.

Quando uma variação é muito grande, pode ser descrita como “variou”, “cresceu” ou “caiu fortemente”. Na linguagem jornalística, o termo “fortemente” provavelmente seria substituído por “dramaticamente”, para maior impacto. Mas, exceto em condições realmente excepcionais, nas análises internas deve-se evitar termos muito extremos. A escolha das palavras deve ser cuidadosa, para refletir o que os gráficos mostram, variando de “resultado estável” para um “pequeno” ou “leve crescimento” até uma “queda acentuada”, para uma variação significativa, por exemplo.

The Signal and the Noise – Resumo do livro

The signal and the Noise

Fazendo uso de exemplos fundamentados na política norte-americana, nos jogos de baseball, em projeções econômicas e na probabilidade de ocorrências de terremotos, o autor apresenta os aspectos mais importantes no trabalho de previsão de resultados.

Enquanto as eleições americanas são tema de conhecimento comum, as muitas considerações sobre beisebol – esporte pouco conhecido entre nós – podem ser enfadonhas; o capítulo sobre a bolha do pôquer foi, ao menos para mim, intragável.

Ainda assim, para os curiosos sobre o tema da análise e interpretação de dados, é um livro instigante e interessante. Mas, o foco do autor está nas muitas histórias interessantes e pouco contribui com ferramental para separar os sinais dos ruídos, como por exemplo o Controle Estatístico de Processos CEP, ferramenta apenas citada no texto.

Algumas observações selecionadas:

A verdadeira era da informação começou em 1440, com a invenção da imprensa por Johannes Guttemberg. Antes, uma página de livro manuscrito custava cerca de 20 dólares, limitando o acesso ao conhecimento.

É importante lembrar que os modelos são simplificações da realidade e devem ser usados com cuidado.

Um sinal é uma indicação de uma verdade subjacente por trás de uma estatística ou problema preditivo, enquanto ruídos são padrões aleatórios que podem facilmente ser confundidos com sinais. O sinal é a verdade. O ruído é o que nos distrai da verdade.

O objetivo de qualquer modelo de predição é capturar tantos sinais quanto possível e tão poucos ruídos quanto puder. Armstrong argumenta que “quanto mais complexo o modelo, piores são as previsões”. É uma frase bonita que faria sucesso nas redes sociais, mas que deve ser encarada com algum ressalva.

Na estatística, a confusão de tomar ruídos como sinais é denominada overfitting. Modelos puramente estatísticos, com grande número de variáveis e uma pequena quantidade de eventos para sua validação, geralmente levam ao risco de overfitting. Esse risco é consideravelmente menor quando se usa modelos físicos de causa e efeito.

Segundo o autor, o caminho para maior objetividade é reconhecer a influência que nossas premissas têm em nossas previsões.

A estatística tem sido parte dos esportes desde há muito tempo. O primeiro conjunto de informações – com cinco informações sobre cada jogador – foi publicado em jornal por Henry Chadwick em 1859.

Nosso instinto é categorizar as informações, geralmente em um pequeno número de categorias, pois isso facilita o entendimento.

A inspeção visual de um gráfico que mostra a interação entre duas variáveis geralmente é um caminho mais rápido e confiável para identificar outliers nos dados do que um teste estatístico.

Predizer o passado é um oximoro e obviamente não pode ser contado entre os sucessos.

A estatística é uma das habilidades fundamentais necessárias à ciência dos dados.

Uma previsão científica exige um resultado probabilístico, ou seja, nas previsões é importante informar também a incerteza. Coisa comum nas pesquisas eleitorais, porém rara nos resultados de outras previsões. Laplace via a probabilidade como um meio caminho entre a ignorância e o conhecimento.

A heurística do “acompanhe a maioria, especialmente quando não sabe nada melhor” normalmente funciona bem.

Consenso não é sinônimo de unanimidade, mas um grande acordo obtido após um processo de deliberação. É, portanto, uma alternativa à votação.

Informação só se transforma em conhecimento quando colocada em um contexto.

Fonte:

Silver, Nate. The Signal and the Noise: Why So Many Predictions Fail-But Some Don’t. The Penguin Press. New York, 2012. (Inglês)

Nota: Já está disponível em português.

Os custos da má informação

Cost

Na era da informação, em que colher dados e gerar gráficos se tornou muito barato, cabem algumas questões para os dirigentes das organizações:

  • Quanto tempo é perdido procurando informação necessária em uma grande quantidade de informação irrelevante?
  • Quanto tempo é desperdiçado gerando relatórios que ninguém lê?
  • Quanta decisão errada é tomada porque gerentes e diretoria são distraídos por informações supérfluas e inúteis?

A verdade é que é fácil identificar os custos para melhorar o sistema de informações da organização, mas o desperdício resultante das questões levantadas já faz parte dos processos e da cultura da empresa e são consideradas normais. Portanto, não chamam a atenção nem são objeto de maiores cuidados. Entretanto, tais custos da má informação são significativos e podem representar uma desvantagem competitiva.

Nota: Este texto foi inspirado em artigo de Christer Idhammar publicado na Pulp & Paper International. Set/2014 p. 10.

Estatísticas versus Indicadores

introstatslogocropped

Na gestão de RH são geradas diversas estatísticas que descrevem o conjunto dos empregados, como:

  • Idade média
  • Tempo na empresa
  • Escolaridade
  • Gênero, etc.

Estes parâmetros são úteis, mas não devem ser confundidos com indicadores. Indicadores são variáveis para as quais são estabelecidos objetivos (metas) que, uma vez alcançados, trarão algum benefício ao negócio. Assim, se o percentual de mulheres na equipe é pequeno e acredita-se que uma maior participação feminina trará uma vantagem competitiva, então pode ser estabelecida a meta de, por exemplo, contar com um mínimo de 30% de mulheres até o final do próximo ano. Desse modo, o Percentual de Mulheres passa a ser um indicador ao qual deve ser associado um Plano de Ações que descreve o que será feito para que a meta seja alcançada. Também deve ser planejada uma sistemática de verificação periódica (análise crítica), para que os gestores possam acompanhar o progresso e identificar eventuais necessidades de ajustes.