People Analytics – uma importante ferramenta

Nuvem de palavras people-analytics

People Analytics é o nome aplicado ao uso de dados e ferramentas de análise para apoiar as decisões relacionadas à Gestão de Pessoas [1]. Ou, na nossa definição “People Analytics é a aplicação de técnicas de coleta, organização e análise de dados na área de recursos humanos para responder perguntas de interesse do negócio”.

Como lembra Jac Fitz-enz [2], um dos pioneiros na pesquisa sobre o uso da análise de dados em capital humano, mais do que a aplicação de um conjunto de ferramentas estatísticas, o HR Analytics é fundamentalmente um “modo de pensar”. Envolve a organização e a interpretação de dados para gerar o conhecimento de que a empresa precisa para gerir o capital humano e prosperar.

Em um futuro não muito distante, será impossível tomar qualquer decisão de RH sem o uso da People Analytics. Segundo a Delloite [3], habilidades em analytics serão requisito fundamental para um efetivo Business Partner.

Em um estudo da Harvard Business Review Analytic Services [4], 67% dos CEOs disseram que tinham pelo menos um conjunto de indicadores de recursos humanos. Mas, somente 24 dos pesquisados (composta de líderes de negócios e RH de 168 empresas) disseram que o RH fornecia análises ligando seus indicadores aos indicadores do negócio.

No Brasil, 77% das organizações acreditam que o uso de análise de dados na gestão de pessoas é importante. Mas, o uso ainda é incipiente e mesmo o uso de indicadores ainda é limitado.

Referências:

  1. Wharton University of Pennsylvania. Notas do curso de People Analytics.
  2. Jac Fitz-enz. The New HR Analytics. 2010. EUA.
  3. http://www2.deloitte.com/content/dam/Deloitte/global/Documents/HumanCapital/gx-dup-global-human-capital-trends-2016.pdf
  4. How CEOs and CHROs Can Connect People to Business Strategy

Analytics não é mais uma “boa ideia” para os recursos humanos – agora é mandatória. Josh Bersin

Publicado em 17.07.18 e modificado em 4.06.20.

O Processo de Melhoria

Circulo com diagrama de barras dentro, mostrando sucessão de melhorias.

Grande parte da atividade de gestão consiste em buscar a melhoria dos processos. Isso é feito por meio das seguintes etapas:

  1. Medir o desempenho.

Para conhecer a situação existente.

  1. Determinar o desempenho ótimo.

Essa etapa, que pode ser feita por levantamentos teóricos ou por meio de benchmarking [1], ajuda a determinar uma referência objetiva para a melhoria e facilitar estabelecer a meta, considerando também eventuais limitações de recursos e as peculiaridades da organização.

  1. Identificar o gap de desempenho.

Consiste em comparar o resultado atual com o julgado possível de ser alcançado, para determinar os benefícios e saber se o esforço se justifica. Afinal, há muitas frentes de trabalho possíveis e algumas oferecem mais vantagens que as outras.

  1. Agir para obter melhoria.

Se observado que o custo para mudar é favorável, considerando os ganhos esperados, devem ser feitos os investimentos e alteradas as práticas que vão buscar o novo patamar de desempenho.

Exemplificando.

A empresa decide avaliar seu processo de recrutamento e seleção. Na etapa 1 ela determina seu nível atual de desempenho. Isso pode ser feito, por exemplo, pelo indicador Retenção 90 dias, que mede o percentual de trabalhadores que, depois de 90 dias da admissão, continuam na organização. Digamos que o resultado observado seja 75%, ou seja, 3 em cada 4 recém admitidos permanecem na empresa depois de 3 meses. Na etapa 2 ela verifica, por meio de benchmarking, que as melhores empresas do mesmo tipo de negócio têm Retenção 90 dias de aproximadamente 90%.

A comparação dos resultados (etapa 3) evidencia o potencial de ganho de 15 pontos percentuais. Considerando o benefício, decorrente da redução dos elevados gastos para substituição de pessoas, decide-se por priorizar a melhoria do processo de recrutamento e seleção. Então (etapa 4), a empresa altera os procedimentos de contratação, adotando práticas de sucesso em outras empresas como: incluir no processo de contratação uma entrevista pelo futuro gestor da pessoa e oferecer uma visita ao ambiente de trabalho aos candidatos selecionados, para que eles possam verificar se desejam mesmo a vaga. Finalmente, a empresa continua monitorando o indicador Retenção 90 dias para avaliar se as novas medidas foram eficazes e suficientes.

Referência

  1. Bachmann & Associados. 10º Benchmarking Paranaense de RH. Curitiba. 2018. Disponível em: https://www.indicadoresrh.com.br/benchmarking/?mnu=28&id=73&area=material Acesso em 18.12.18.

Indicadores e modelos para a gestão

Triangulo para controle de desemp[enho de processosA escolha dos indicadores para uso na gestão geralmente representa um desafio. Na área gerencial, vários modelos têm sido utilizados com sucesso, destacando-se o Balanced Scorecard (BSC), o Prisma, etc. Esses modelos, entretanto, não são adequados para os aspectos operacionais das organizações.

Um dos modelos mais comuns e eficazes no âmbito operacional é o QCAMS, disseminado pelos programas de Qualidade Total. Outro modelo bastante útil para gerar um grupo equilibrado de indicadores operacionais é o apresentado por Estevez-Reyes.

O modelo se sustenta em um triângulo (figura 1) que organiza as métricas em 3 categorias: confiabilidade, utilização e variabilidade.

As métricas de confiabilidade estão associadas às expectativas de predibilidade e capacidade de fornecer os resultados planejados.

Os indicadores de variabilidade avaliam a consistência da qualidade dos produtos.

Os de utilização monitoram o aproveitamento das instalações, que normalmente têm grande influência na lucratividade do negócio.

Referência: Estevez-Reyes, L. Triangulation for process control performance. Pulp & Paper Canadá. Fev. 2004. p. 34-37. Disponível em: http://www.pulpandpapercanada.com/paptac/PDFs/Feb04/ProcessControl.pdf

Formulários e informações

Desenho com mão escrevendo em um formulário.

Uma falha comum, e possivelmente a razão pela qual muitos valores são registrados com erro nos formulários de coletas de dados nas empresas, é que esse preenchimento é considerado óbvio e dispensa a análise de aspectos que, na prática, são importantes, como:

  • ordem de solicitação dos dados
  • repetição monótona dos dados
  • aparência descuidada

aliada à suspeita, por quem está preenchendo, que a maioria dos dados não serão usados e servem apenas como “relógio ponto”, ou seja, um recurso para manter a atenção nos sistemas e equipamentos.

Esse problema, típico dos formulários em papel, agora se repete nos formulários eletrônicos usados nos tablets.

Alguma atenção por parte dos gestores sobre esse mecanismo de coleta de informações pode contribuir bastante para a melhoria da qualidade dos dados, com reflexos positivos nas análises e nos resultados.

Entre as ações para melhoria, podemos citar:

  1. Inclusão da faixa de resultados considerada normal. Assim o operador – ou o sistema eletrônico – pode alertar o supervisor no caso de desvios. Isso é particularmente importante nas situações onde a degradação do sistema é lenta, como por exemplo a elevação gradativa da temperatura devido aos desgastes; nesses casos, o operador se acostuma com os números cada vez maiores (ou menores) e não percebe a anormalidade.
  1. Design profissional do formulário. Reproduzir um formulário improvisado ou um de boa qualidade, em que os espaços para as anotações estão bem organizados e têm o tamanho adequado, tem o mesmo custo, mas o resultado na gestão dos processos pode ser significativa.

Na tua empresa os formulários de coleta de dados ou outros são reconhecidos como ferramenta importante de trabalho e ganham atenção e design profissional?

Revisar e aprimorar os formulários de coleta de dados, eletrônicos ou em papel, é uma de nossas expertises. Conheça nossos trabalhos de consultoria.

The Insights Revolution: Questioning everything – Comentários sobre o livro

Capa do livro "The Insights Revolution: Questioning everything".

O autor, Andrew Grenville, da Maru/Matchbox – empresa de pesquisas de mercado baseada em Toronto, Canadá – é um profissional experiente. No livro, recém-lançado, ele enfatiza que a indústria de pesquisas, como conhecemos, está condenada. Mas, aponta direções e talvez a mais importante seja deixar de responder perguntas para se aprofundar nas questões que podem beneficiar o negócio oferecendo insights. Ele afirma que, para isso, os profissionais do segmento terão de mudar, tornando-se mais generalistas.

Entre os questionamentos que faz, destaco dois:

  • Muitas pesquisas são feitas com amostras não representativas ou pouco confiáveis.
  • Quando perguntamos às pessoas o que é importante, obtemos respostas socialmente aceitáveis. O que não se consegue é que respondam o que realmente fazem e como realmente decidem. Recebemos informações enganosas porque as pessoas estão sempre prontas para dar respostas plausíveis às perguntas – mesmo que não saibam a resposta.

E aponta direções, como:

  • Uma forma de simplificar as pesquisas é ter clareza sobre o quê se deseja saber. Parece óbvio, mas frequentemente não acontece.
  • Usar escalas mais simples, como a binária, ao invés de escalas com muitas opções.

O conteúdo é enriquecido com muitas entrevistas de especialistas de grandes e conhecidas empresas, com bons argumentos,  resultantes da vasta experiência profissional do autor.

Dica: Insight – um claro, profundo e algumas vezes repentino entendimento de um problema ou situação complicada. The Cambridge Dictionary.

O livro

Grenville, Andrew. The Insights Revolution: Questioning everything. Maru/Matchbox. Disponível em https://www.theinsightsrevolution.com.

Benefícios do Benchmarking

Palavra Benchmarking cercada de icones

Os principais benefícios do benchmarking são:

  1. Oferece uma perspectiva independente do desempenho da organização em comparação com outras.
  2. Ajuda a identificar as lacunas de desempenho, para orientar os esforços para melhoria.
  3. Oferece um conjunto padronizado de processos e Indicadores.
  4. Incentiva a cultura de melhoria contínua.
  5. Fornece bons referenciais de desempenho.
  6. Permite responder à pergunta: estamos progredindo tão rápido quanto os concorrentes?

O erro mais comum das equipes de Benchmarking é a escolha do alcance do estudo. Em vez de optar entre o amplo e superficial e o estreito e profundo, elas tentam abraçar tudo. Fracassam e desperdiçam dinheiro.

Sara Lincoln e Art Price

Fonte: HSM Management. O que os livros de Benchmarking não dizem. Julho-agosto. 1997. pp. 70-74.

Ferramentas de gestão

A variedade de ferramentas de gestão usada nas empresas é muito elevada. Para que o gestor de RH possa se relacionar bem com seus pares, e entender quais aspectos são importantes na qualificação dos colaboradores, é conveniente que conheça esses recursos. Um bom resumo, descrevendo cada ferramenta em uma ou duas páginas, pode ser encontrado em:

http://www.bain.com/Images/BAIN_BOOK_Management_Tools_2017.pdf

Medição é importante, mas não é tudo.

A medição é um aspecto crítico para a melhoria do desempenho. Mas, as organizações nem sempre obtêm resultados com o que medem. Se a medição, por si só, tivesse um grande Impacto sobre o comportamento, qualquer pessoa com uma balança não seria obesa. O que a medição proporciona são dados. Se esses dados não forem usados na tomada de decisões gerenciais adequadas e para produzir os esforços que levem às melhorias, um bom sistema de indicadores terá pouco valor.

Fonte: Takashina, Newton Tadashi. Medindo o seu sistema de indicadores: O seu sistema de indicadores está bem equilibrado?. Rio de Janeiro. Mar/98.

Referência para indicadores de eficácia

Uma prática que encontramos com alguma frequência é o de ajustar a escala à meta. Veja o que é isso e porque não é bom.

Nos cálculos de desempenho é comum estabelecer como referência o “resultado pretendido”. Assim, se em um curso planejo aprovar 80% da turma e consigo aprovar 75 de 100 alunos, minha Eficácia é calculada como 93,8% (75/80×100). Por outra, se aprovo 85, alcançaria uma Eficácia de 106,2%; valor correto nesse caso, mas estranho e confuso para a maioria das pessoas.

Então, para evitar esse estranhamento e também para tornar as comparações históricas mais consistentes, é melhor escolher como referência para o cálculo o maior valor possível; no exemplo, todos ou 100% dos alunos.

Desse modo, se em um curso consigo aprovar 75 alunos de uma turma de 100, teria uma Eficácia de 75%. E, se consigo aprovar 85, alcançaria uma Eficácia de 85%. Claro que, nesse caso, a meta deve ser escolhida levando em conta a escala mais ampla (até 100%) que passou a ser usada.

Nessa abordagem, se ao longo do tempo minha ambição e desempenho aumentarem (por exemplo, quero e consigo aprovar 95% dos alunos), ainda assim a Eficácia ficará abaixo dos 100% e a série histórica se mantém comparável, pois a escala é a mesma.

Em resumo, é melhor tratar a meta e a escala como coisas diferentes.

Concorda? Dê a sua opinião nos comentários.

The Signal and the Noise – Resumo do livro

The signal and the Noise

Fazendo uso de exemplos fundamentados na política norte-americana, nos jogos de baseball, em projeções econômicas e na probabilidade de ocorrências de terremotos, o autor apresenta os aspectos mais importantes no trabalho de previsão de resultados.

Enquanto as eleições americanas são tema de conhecimento comum, as muitas considerações sobre beisebol – esporte pouco conhecido entre nós – podem ser enfadonhas; o capítulo sobre a bolha do pôquer foi, ao menos para mim, intragável.

Ainda assim, para os curiosos sobre o tema da análise e interpretação de dados, é um livro instigante e interessante. Mas, o foco do autor está nas muitas histórias interessantes e pouco contribui com ferramental para separar os sinais dos ruídos, como por exemplo o Controle Estatístico de Processos CEP, ferramenta apenas citada no texto.

Algumas observações selecionadas:

A verdadeira era da informação começou em 1440, com a invenção da imprensa por Johannes Guttemberg. Antes, uma página de livro manuscrito custava cerca de 20 dólares, limitando o acesso ao conhecimento.

É importante lembrar que os modelos são simplificações da realidade e devem ser usados com cuidado.

Um sinal é uma indicação de uma verdade subjacente por trás de uma estatística ou problema preditivo, enquanto ruídos são padrões aleatórios que podem facilmente ser confundidos com sinais. O sinal é a verdade. O ruído é o que nos distrai da verdade.

O objetivo de qualquer modelo de predição é capturar tantos sinais quanto possível e tão poucos ruídos quanto puder. Armstrong argumenta que “quanto mais complexo o modelo, piores são as previsões”. É uma frase bonita que faria sucesso nas redes sociais, mas que deve ser encarada com algum ressalva.

Na estatística, a confusão de tomar ruídos como sinais é denominada overfitting. Modelos puramente estatísticos, com grande número de variáveis e uma pequena quantidade de eventos para sua validação, geralmente levam ao risco de overfitting. Esse risco é consideravelmente menor quando se usa modelos físicos de causa e efeito.

Segundo o autor, o caminho para maior objetividade é reconhecer a influência que nossas premissas têm em nossas previsões.

A estatística tem sido parte dos esportes desde há muito tempo. O primeiro conjunto de informações – com cinco informações sobre cada jogador – foi publicado em jornal por Henry Chadwick em 1859.

Nosso instinto é categorizar as informações, geralmente em um pequeno número de categorias, pois isso facilita o entendimento.

A inspeção visual de um gráfico que mostra a interação entre duas variáveis geralmente é um caminho mais rápido e confiável para identificar outliers nos dados do que um teste estatístico.

Predizer o passado é um oximoro e obviamente não pode ser contado entre os sucessos.

A estatística é uma das habilidades fundamentais necessárias à ciência dos dados.

Uma previsão científica exige um resultado probabilístico, ou seja, nas previsões é importante informar também a incerteza. Coisa comum nas pesquisas eleitorais, porém rara nos resultados de outras previsões. Laplace via a probabilidade como um meio caminho entre a ignorância e o conhecimento.

A heurística do “acompanhe a maioria, especialmente quando não sabe nada melhor” normalmente funciona bem.

Consenso não é sinônimo de unanimidade, mas um grande acordo obtido após um processo de deliberação. É, portanto, uma alternativa à votação.

Informação só se transforma em conhecimento quando colocada em um contexto.

Fonte:

Silver, Nate. The Signal and the Noise: Why So Many Predictions Fail-But Some Don’t. The Penguin Press. New York, 2012. (Inglês)

Nota: Já está disponível em português.