6 min leitura • Guide 148 of 877
Métricas Produtividade Desenvolvedor
Medir produtividade desenvolvedor é essencial mas cheio perigo. Métricas ruins criam gaming, destroem moral, e perdem o que importa. Métricas boas fornecem insight, dirigem melhoria, e respeitam complexidade desenvolvimento software.
Filosofia Métricas
| Evite | Abrace |
|---|---|
| Linhas código | Valor entregue |
| Commits por dia | Cycle time |
| Horas trabalhadas | Throughput |
| Ranking individual | Performance equipe |
| Métricas atividade | Métricas resultado |
Métricas Úteis
Métricas DORA
FRAMEWORK MÉTRICAS DORA
═══════════════════════
FREQUÊNCIA DEPLOYMENT
├── Quão frequente código é deployed para produção
├── Elite: Múltiplas vezes por dia
├── Alto: Semanal para mensal
├── Médio: Mensal para anual
├── Baixo: Menos que anual
LEAD TIME PARA MUDANÇAS
├── Tempo de commit para produção
├── Elite: Menos que uma hora
├── Alto: Um dia para uma semana
├── Médio: Uma semana para um mês
├── Baixo: Mais que um mês
TAXA FALHA MUDANÇA
├── Porcentagem deployments causando issues
├── Elite: 0-15%
├── Alto: 16-30%
├── Médio: 31-45%
├── Baixo: 46-100%
MEAN TIME TO RECOVER (MTTR)
├── Tempo para restaurar serviço após incidente
├── Elite: Menos que uma hora
├── Alto: Menos que um dia
├── Médio: Um dia para uma semana
├── Baixo: Mais que uma semana
Métricas Flow
MÉTRICAS FLOW
═════════════
CYCLE TIME
├── Tempo de trabalho iniciado para trabalho completado
├── Mede: Eficiência desenvolvimento
├── Bom para: Identificar bottlenecks
├── Alvo: Consistente, trending down
Breakdown Típico:
├── Desenvolvimento: 40%
├── Code review: 30%
├── QA/Teste: 20%
└── Deploy: 10%
LEAD TIME
├── Tempo de request para delivery
├── Mede: Responsividade total
├── Bom para: Perspectiva cliente
├── Inclui: Tempo queue antes começar
THROUGHPUT
├── Itens completados por período tempo
├── Mede: Capacidade delivery
├── Bom para: Planejamento, previsibilidade
├── Compare: Semana sobre semana
WORK IN PROGRESS (WIP)
├── Itens atualmente em progresso
├── Mede: Foco vs context switching
├── Bom para: Detecção overload
├── Alvo: Baixo e estável
Métricas Qualidade
MÉTRICAS QUALIDADE
══════════════════
DENSIDADE BUG
├── Bugs por feature ou por release
├── Tendência: Deve diminuir ao longo tempo
├── Ação: Invista em teste se alto
└── Contexto: Algumas features naturalmente mais arriscadas
COBERTURA TESTE
├── Porcentagem código coberto por testes
├── Alvo: 70-80% (não 100%)
├── Ação: Cubra caminhos críticos
└── Aviso: Cobertura ≠ qualidade
MÉTRICAS CODE REVIEW
├── Tempo para primeira review
├── Ciclos review por PR
├── Tendência: Deve ser estável
└── Ação: Melhore se aumentando
DÍVIDA TÉCNICA
├── Itens dívida conhecidos rastreados
├── Dívida endereçada por sprint
├── Tendência: Não deve crescer unchecked
└── Ação: Aloque capacidade
Medindo Correto
Equipe Não Individual
POR QUE MÉTRICAS EQUIPE
═══════════════════════
PROBLEMAS MÉTRICAS INDIVIDUAIS:
├── Incentiva gaming
├── Ignora valor colaboração
├── Puni ajudar outros
├── Cria competição
├── Perde programação pair/mob
└── Desmotivante
BENEFÍCIOS MÉTRICAS EQUIPE:
├── Incentiva colaboração
├── Propriedade compartilhada
├── Foca em resultados
├── Reduz incentivo gaming
├── Celebra sucesso equipe
└── Mais preciso
EXEMPLO:
Ao invés de:
"Sarah committed 47 vezes esta semana"
Use:
"Equipe entregou 5 features este sprint
com 0 incidentes produção"
Evite Métricas Vaidade
MÉTRICAS VAIDADE VS ACTIONABLE
══════════════════════════════
MÉTRICAS VAIDADE:
✗ Linhas código escritas
✗ Commits por dia
✗ Horas logged
✗ Count histórias completadas
✗ Pontos velocity (facilmente inflados)
POR QUE RUINS:
├── Facilmente gamed
├── Recompensam comportamento errado
├── Perdem qualidade
├── Criam incentivos perversos
└── Não correlacionam com valor
MÉTRICAS ACTIONABLE:
✓ Cycle time (pode melhorar processo)
✓ Frequência deployment (mede flow)
✓ Taxa falha mudança (mede qualidade)
✓ Issues cliente (mede impacto)
✓ Experiência desenvolvedor (mede sustentabilidade)
POR QUE BOAS:
├── Difícil game
├── Ligadas a resultados
├── Dirigem melhoria
├── Visão balanceada
└── Actionable
Dashboards e Visibilidade
Dashboard Produtividade
DASHBOARD PRODUTIVIDADE EQUIPE
══════════════════════════════
┌─────────────────────────────────────────────────────────┐
│ Produtividade Engenharia - Março 2024 │
├─────────────────────────────────────────────────────────┤
│ │
│ MÉTRICAS DORA │
│ ┌─────────────┬─────────────┬─────────────┐ │
│ │ Deploy Freq │ Lead Time │ Fail Rate │ │
│ │ 3.2/dia │ 2.1 dias │ 4.2% │ │
│ │ ↑ de 2.8 │ ↓ de 2.8 │ ↓ de 6% │ │
│ │ 🟢 Elite │ 🟢 Alto │ 🟢 Elite │ │
│ └─────────────┴─────────────┴─────────────┘ │
│ │
│ MÉTRICAS FLOW │
│ Cycle Time: 4.2 dias avg (↓ 0.5 do último mês) │
│ Throughput: 23 itens/semana (estável) │
│ WIP Average: 2.1 por desenvolvedor (saudável) │
│ │
│ QUALIDADE │
│ Densidade Bug: 0.3 bugs/feature (↓ bom) │
│ Cobertura Teste: 78% (estável) │
│ Tempo Review: 4.2 horas avg (aceitável) │
│ │
│ TENDÊNCIAS (6 meses) │
│ Cycle Time: ↘↘↘↘↘ Melhorando │
│ Throughput: →→→↗↗ Estável/crescendo │
│ Qualidade: →→→→↗ Estável/melhorando │
│ │
└─────────────────────────────────────────────────────────┘
Experiência Desenvolvedor
PESQUISA EXPERIÊNCIA DESENVOLVEDOR
══════════════════════════════════
PERGUNTAS PESQUISA TRIMESTRAL:
(Escala 1-5, com comentários)
FLOW & FOCO:
├── Posso focar em codar sem interrupções
├── Tenho ferramentas necessárias para ser produtivo
├── Nossos processos ajudam ao invés atrapalhar
QUALIDADE & SUSTENTABILIDADE:
├── Orgulhoso do código enviamos
├── Dívida técnica é gerenciável
├── Nossa workload é sustentável
COLABORAÇÃO:
├── Code reviews são úteis e pontuais
├── Posso obter ajuda quando preciso
├── Comunicação equipe funciona bem
CRESCIMENTO:
├── Estou aprendendo e crescendo
├── Entendo nossa arquitetura
├── Posso influenciar decisões técnicas
SCORE AGREGADO:
├── Score DX Equipe: 4.1/5 (↑ de 3.8)
├── Rastreie ao longo tempo
└── Aja em feedback
Melhores Práticas
Para Métricas Produtividade
- Meça equipes, não indivíduos
- Foco em resultados sobre atividade
- Use múltiplas métricas (balanceadas)
- Rastreie tendências sobre absolutos
- Aja nos dados
Anti-Padrões
ERROS MÉTRICAS:
✗ Rankings produtividade individual
✗ Linhas código como medida
✗ Punindo baseado métricas
✗ Foco métrica única
✗ Métricas sem ação
✗ Medidas propensas gaming
✗ Ignorando experiência desenvolvedor
✗ Comparando equipes diretamente