ANEXO B: MAPA DE DECISIONES NO DELEGABLES¶
Guía de "Líneas Rojas" para la Automatización y Delegación¶
Principio Rector: La eficiencia nunca debe estar por encima de la responsabilidad. Existen dominios donde la velocidad de una máquina o la obediencia ciega de un proceso son un riesgo, no una ventaja. Use este mapa para clasificar cualquier decisión antes de diseñar el sistema.
Nota: Este mapa no surge de casos particulares, sino de la sistematización de patrones recurrentes observados en fallas de automatización, auditoría y gobernanza a nivel global.
EL SEMÁFORO DE SOBERANÍA¶
Aviso de Diseño: Este modelo no evalúa la competencia moral de las personas, sino los límites estructurales de cualquier sistema automatizado o jerárquico.
🔴 ZONA ROJA: SOBERANÍA HUMANA EXCLUSIVA¶
Definición: Decisiones irreversibles, éticas o que afectan derechos fundamentales. Protocolo: Prohibido automatizar. Prohibido delegar sin supervisión directa (Nivel 1). Requiere firma manuscrita o digital de un humano responsable (Accountable).
| Tipo de Decisión | Por qué es Zona Roja | Ejemplo de "No Hacer" (Anti-Patrón) |
|---|---|---|
| Integridad Física y Vida | La máquina no entiende el valor de la vida, solo probabilidades. | Un algoritmo médico que deniega tratamiento automáticamente por "baja probabilidad de éxito" sin revisión de un doctor. |
| Dignidad y Sustento | Despedir o sancionar tiene impactos socioeconómicos severos e irreversibles para terceros. Requiere empatía y contexto. | Despidos masivos por email generados por un algoritmo de productividad (caso empresas Tech/Gig economy). |
| Excepción Normativa | La justicia requiere entender el "Espíritu de la Ley", no solo la letra. | Un sistema que rechaza una beca a un estudiante huérfano porque le faltó un papel irrelevante, sin posibilidad de apelación humana. |
| Estrategia y Propósito | Definir el "Para Qué" de la organización es un acto de voluntad, no de cálculo. | Pedirle a una IA que defina la Misión y Visión de la empresa. |
| Gestión de Crisis (Kill Switch) | Apagar el sistema cuando daña a la sociedad requiere coraje moral, no código. | Flash Crash bursátil donde los algoritmos siguieron vendiendo hasta destruir el valor, porque nadie tenía el "botón rojo". |
🟡 ZONA AMARILLA: HUMAN-IN-THE-LOOP (HITL)¶
Definición: Decisiones complejas, técnicas o de alto impacto financiero. Protocolo: La máquina o el proceso recomienda y prepara los datos. El humano valida y ejecuta.
| Tipo de Decisión | Rol de la Máquina / Proceso | Rol del Humano (Soberano) |
|---|---|---|
| Contratación de Talento | Filtrar CVs por requisitos técnicos duros. | Entrevistar, evaluar cultura y decidir quién entra. (Evitar sesgo algorítmico). |
| Inversiones Grandes | Calcular ROI, riesgos y escenarios financieros. | Decidir si el riesgo es aceptable según la estrategia y el "apetito de riesgo". |
| Auditoría y Compliance | Detectar anomalías (patrones sospechosos). | Investigar si es fraude o un error honesto. Juzgar la intención (dolo vs. error). |
| Diagnóstico Complejo | Analizar imágenes o datos y sugerir probabilidades. | Integrar la sugerencia con el contexto del paciente/cliente y decidir el curso de acción. |
🟢 ZONA VERDE: DELEGACIÓN Y AUTOMATIZACIÓN TOTAL¶
Definición: Decisiones repetitivas, de bajo riesgo, reversibles y de alto volumen. Protocolo: Automatización permitida (Human-out-of-the-Loop). Auditoría muestral periódica (Spot Checks).
- Asignación de turnos (basado en reglas claras).
- Reposición de inventario estándar.
- Aprobación de gastos menores (bajo un umbral definido).
- Respuestas a preguntas frecuentes (Chatbots de nivel 1).
- Procesamiento de transacciones rutinarias.
LA PRUEBA DE ÁCIDO (THE LITMUS TEST)¶
Si tiene dudas sobre si una decisión cae en Zona Roja o Amarilla, hágase estas 3 preguntas. Si la respuesta es "SÍ" a cualquiera de ellas, la decisión es humana.
-
La Prueba de la Cárcel/Prensa: "Si esta decisión sale terriblemente mal, ¿necesito poder señalar a una persona específica que explique el 'por qué' ante un juez o ante la prensa?" (Si la respuesta es "fue el algoritmo", usted perderá el juicio/reputación).
-
La Prueba de la Reversibilidad: "¿Es esta decisión irreversible o el costo de deshacerla es catastrófico?" (Ej: Cortar un servicio vital vs. enviar un correo equivocado).
-
La Prueba del Contexto: "¿Existe alguna circunstancia rara, humana o emocional que, de saberse, cambiaría mi decisión, pero que no está en la base de datos?" (La máquina solo ve datos; el humano ve el mundo).