4 min lectura • Guide 353 of 877
Gestión de Spikes Técnicos
Los spikes técnicos son esfuerzos de investigación time-boxed para responder preguntas y reducir riesgo. Buena gestión de spikes mantiene la investigación enfocada y traduce hallazgos en acción. Mala gestión de spikes desperdicia tiempo en exploración sin foco.
Características del Spike
| Aspecto | Spike | Feature |
|---|---|---|
| Meta | Responder pregunta | Entregar valor |
| Output | Conocimiento | Código funcionando |
| Time-box | Fijo (1-2 días) | Estimado |
| Puntos | A menudo 0 o fijo | Variable |
Cuándo Hacer Spike
CUÁNDO USAR SPIKES
══════════════════
EVALUACIÓN DE TECNOLOGÍA:
─────────────────────────────────────
Preguntas como:
├── "¿Puede la librería X hacer lo que necesitamos?"
├── "¿Escalará esto a nuestra carga?"
├── "¿Cuál es la curva de aprendizaje?"
├── "¿Cómo se integra?"
├── Evaluar antes de comprometerse
└── Elecciones de tecnología informadas
INCERTIDUMBRE DE ESTIMACIÓN:
─────────────────────────────────────
Cuando no puedes estimar:
├── "¿Cuánto tomará la migración?"
├── Complejidad desconocida
├── Nunca hecho antes
├── Spike para entender
├── Luego estimar con precisión
└── Reducir incertidumbre de planning
PROTOTIPADO:
─────────────────────────────────────
Proof of concept:
├── "¿Es viable este approach?"
├── Validación rápida
├── Código descartable
├── Aprender haciendo
├── Antes de comprometerse
└── Aprendizaje barato
INVESTIGACIÓN DE BUGS:
─────────────────────────────────────
Investigación profunda:
├── "¿Por qué está pasando esto?"
├── Análisis de root cause
├── Reproducir condiciones
├── Investigación time-boxed
├── Luego arreglar separadamente
└── Entender antes de arreglar
Estructura del Spike
TEMPLATE DE SPIKE:
┌─────────────────────────────────────────────────────────────┐
│ │
│ SPIKE: Evaluación de Librería PDF │
│ ──────────────────────────────── │
│ │
│ PREGUNTA A RESPONDER: │
│ ¿Qué librería PDF debemos usar para generación │
│ de facturas que soporte nuestros requisitos? │
│ │
│ TIME-BOX: 2 días │
│ OWNER: @alex │
│ │
│ CRITERIOS DE ÉXITO: │
│ ☐ Evaluar al menos 3 librerías │
│ ☐ Probar funcionalidad crítica │
│ ☐ Documentar trade-offs │
│ ☐ Hacer recomendación │
│ │
│ OUTPUT ESPERADO: │
│ Documento de recomendación con: │
│ • Librerías evaluadas │
│ • Pros/cons de cada una │
│ • Recomendación con justificación │
│ • Effort estimate para implementación │
│ │
└─────────────────────────────────────────────────────────────┘
Ejecutando Spikes
PROCESO DE SPIKE
════════════════
DÍA 1:
┌─────────────────────────────────────────────────────────────┐
│ • Investigación inicial │
│ • Setup de environment │
│ • Primeros experimentos │
│ • Documentar hallazgos tempranos │
└─────────────────────────────────────────────────────────────┘
DÍA 2:
┌─────────────────────────────────────────────────────────────┐
│ • Investigación profunda │
│ • Probar edge cases │
│ • Finalizar recomendación │
│ • Preparar presentación │
└─────────────────────────────────────────────────────────────┘
FIN DE SPIKE:
┌─────────────────────────────────────────────────────────────┐
│ • Presentar hallazgos al equipo │
│ • Documentar decisión │
│ • Crear stories de seguimiento │
│ • Archivar código de spike │
└─────────────────────────────────────────────────────────────┘