EN ES FR

La Escala Dark Factory

Cinco etapas de madurez en automatización IA. La mayoría de organizaciones están atascadas en la Etapa 2. Aquí está lo que se rompe en cada transición - y la trampa que te mantiene ahí.

Una dark factory es una instalación manufacturera que funciona sin luces. Sin humanos en el piso. Los robots y sistemas automatizados hacen todo. La planta Oshino de FANUC ha estado haciendo esto desde 2001. Las máquinas construyen máquinas en la oscuridad.

El concepto ha llegado al trabajo del conocimiento. La mayoría de organizaciones no saben en qué etapa están - y no saben qué costará la transición.

Cada etapa es estable hasta que no lo es.
La transición es donde todo se rompe.

0 Manual
1 Copiloto
2 Agente
3 Dpto Oscuro
4 Dark Factory
ETAPA 0

Manual

Rol humano: Todo Rol IA: Curiosidad Madurez: Pre-automatización

Cómo Se Ve

Los humanos hacen todo. La IA existe como un juguete de productividad - alguien usa ChatGPT para escribir emails más rápido, un desarrollador experimenta con Copilot. No hay estrategia organizacional, ni gobernanza, ni integración. La palabra "IA" aparece en presentaciones del directorio pero no en documentación de procesos. Este es el Sistema de Producción Toyota antes de Toyota. Todo es artesanía, artesanal, ensamblado a mano. Alta variabilidad. Bajo rendimiento. Alta resistencia - porque cuando un humano se rompe, contratas a otro humano.

Lo Que Se Rompe En La Transición

  • La suposición de que las sugerencias de IA son siempre útiles. Se equivocan con confianza de maneras que los humanos no.
  • El control de calidad diseñado para patrones de error humano no detecta patrones de error de IA.
  • El personal contratado por su juicio resiste herramientas que sienten como si reemplazaran el juicio.

Requisitos de Gobernanza

  • Política de uso aceptable: para qué puede el personal usar IA y qué está prohibido.
  • Reglas de límites de datos: qué datos pueden enviarse a modelos de terceros.
  • Expectativa básica de revisión de salidas: la salida de IA es un borrador, no una decisión.
La Trampa

La trampa en la Etapa 0 es esperar permiso. El liderazgo quiere una estrategia antes de que alguien use IA. Mientras tanto, cada empleado la está usando de todos modos, sin autorización, de maneras que nadie está rastreando. El problema de IA en la sombra comienza aquí.

ETAPA 1

Copiloto

Rol humano: Decide Rol IA: Sugiere Madurez: Aumentación

Cómo Se Ve

La IA sugiere. Los humanos deciden. GitHub Copilot completa código; el ingeniero acepta o rechaza. ChatGPT redacta el memo; el gerente edita y envía. El humano sigue completamente en el circuito. La proporción cambia: la misma persona produce más. Este es el sistema kanban de Toyota - basado en tirón, al ritmo humano, controlado por humanos. La productividad aumenta 20-40% en roles de conocimiento. La presión de personal comienza.

Lo Que Se Rompe En La Transición

  • Sesgo de automatización: los humanos empiezan a aceptar sugerencias de IA sin leerlas cuidadosamente. El humano sigue "en el circuito" pero cognitivamente desconectado.
  • Presión de velocidad: si la IA te hace 3x más rápido, la gerencia espera 3x más producción. El tiempo de revisión de calidad desaparece en las matemáticas de productividad.
  • Atrofia de habilidades: las habilidades subyacentes que permiten a los humanos evaluar sugerencias de IA comienzan a erosionarse porque se usan menos.

Requisitos de Gobernanza

  • Política de propiedad de salidas: los humanos son responsables de lo que envían, sin importar cómo fue generado.
  • Estándares de divulgación: ¿cuándo debe divulgarse el involucramiento de IA a clientes, reguladores, contrapartes?
  • Plan de preservación de habilidades: identificar qué habilidades humanas deben mantenerse incluso cuando la IA maneje el volumen.
La Trampa

La trampa en la Etapa 1 es confundir velocidad con control. El humano está técnicamente en el circuito pero prácticamente aprobando automáticamente. La autoridad de decisión es real pero la toma de decisiones es hueca. Tienes un copiloto volando el avión mientras el piloto mira Netflix.

La mayoría de marcos de gobernanza están escritos para la Etapa 1.
La mayoría de organizaciones ya están en la Etapa 2.
Esa es la brecha.
ETAPA 2

Agente

Rol humano: Monitorea Rol IA: Ejecuta Madurez: La mayoría de orgs atascadas aquí

Cómo Se Ve

La IA ejecuta tareas definidas de forma autónoma. El humano establece los parámetros y revisa la salida, pero el trabajo sucede sin presencia humana. Los agentes de investigación automatizados extraen datos y producen reportes. Los agentes de programación reservan reuniones. Los agentes de código escriben y prueban características. Los agentes de servicio al cliente resuelven tickets tier-1. Esta es la primera etapa donde la IA toma acción en el mundo, no solo da consejos. El rol humano cambia de hacer a monitorear - lo cual requiere habilidades y patrones de atención completamente diferentes.

Lo Que Se Rompe En La Transición

  • Manejo de excepciones: los agentes fallan en los bordes de su distribución de entrenamiento. Los humanos que monitorean no observan lo suficientemente cerca para detectar fallas antes de que se acumulen.
  • Difusión de responsabilidad: cuando un agente toma una mala decisión, nadie sabe a quién hacer responsable. ¿El desarrollador? ¿El proveedor del modelo? ¿La persona que configuró el flujo de trabajo?
  • Confiabilidad a escala: un solo agente fallando 1% del tiempo es manejable. Diez mil agentes cada uno fallando 1% del tiempo produce 100 fallas al día.
  • Paralelo FANUC: la planta Oshino todavía tiene humanos disponibles para mantenimiento complejo. Las organizaciones de Etapa 2 a menudo eliminan esta capacidad en el apuro de la transición.

Requisitos de Gobernanza

  • Registro de agentes: qué agentes existen, qué hacen, quién los posee, qué datos tocan.
  • Rutas de escalación de excepciones: cuando un agente falla, ¿adónde va la falla y qué tan rápido?
  • Umbrales de humano-en-el-circuito: definir los tipos de decisiones que requieren revisión humana sin importar la confianza del agente.
  • Métricas de confiabilidad más allá de precisión: consistencia, robustez, predictibilidad, y seguridad no se capturan solo con precisión.
La Trampa

La trampa en la Etapa 2 es llamar al monitoreo "supervisión." Los humanos están viendo paneles que muestran lo que los agentes reportan sobre sí mismos. Los agentes que fallan silenciosamente no están en el panel. No sabes lo que no estás midiendo. La mayoría de organizaciones se quedan en la Etapa 2 no por elección sino porque han descubierto que en realidad no pueden ver lo que sus agentes están haciendo.

ETAPA 3

Departamento Oscuro

Rol humano: Solo excepciones Rol IA: Opera funciones Madurez: Territorio fronterizo

Cómo Se Ve

Funciones comerciales enteras funcionan con IA con involucramiento humano solo cuando el sistema marca una excepción. El departamento de cuentas por pagar procesa facturas sin contacto humano. La función de monitoreo de cumplimiento revisa transacciones de extremo a extremo. Las operaciones de contenido producen, publican y optimizan a escala. Los humanos existen en el departamento pero su rol es intervención, no operación. La analogía de Toyota es la sala de monitoreo con luces que supervisa un piso completamente automatizado - los humanos están presentes pero el piso no los necesita funcionando.

Lo Que Se Rompe En La Transición

  • Aparece la brecha de gobernanza: los marcos actuales asumen que los humanos toman decisiones. Cuando la IA opera una función, los marcos de responsabilidad construidos para actores humanos no se aplican limpiamente.
  • Se acelera la decadencia de habilidades humanas: las personas que solo manejan excepciones pierden el conocimiento necesario para manejarlas bien. El tejido cicatricial no se está manteniendo.
  • Inflación de excepciones: a medida que la IA maneja más, las excepciones que escala se vuelven cada vez más complejas. Los humanos disponibles para manejarlas están cada vez más sin práctica.
  • Riesgo de modelo único: si un modelo sustenta una función y ese modelo se degrada, se comporta mal o se deprecia, toda la función se ve afectada simultáneamente.

Requisitos de Gobernanza

  • Propietarios de responsabilidad a nivel de función: un humano nombrado es responsable de lo que la función operada por IA produce, incluso si no lo tocaron.
  • Cadencia obligatoria de revisión de excepciones: no solo cuando las cosas escalan - muestreo regular de decisiones de IA que no escalaron.
  • Protocolo de mantenimiento de habilidades: los humanos en roles de excepción deben practicar regularmente el flujo de trabajo completo para mantener capacidad.
  • Registro de dependencia de modelos: ¿qué pasa si el modelo se cambia, deprecia o comienza a comportarse diferente?
La Trampa

La trampa en la Etapa 3 es que la brecha de gobernanza se vuelva estructural. La función funciona. Las métricas se ven bien. Los reguladores no se han puesto al día. El liderazgo está complacido. Nadie está preguntando quién es responsable de las salidas porque a nadie se le ha pedido serlo. Cuando algo sale mal - y lo hará - no hay respuesta a "¿quién es responsable de esto?" Ese vacío no se cierra rápidamente.

ETAPA 4

Dark Factory

Rol humano: Estrategia & valores Rol IA: Gestiona IA Madurez: Teórica / emergente

Cómo Se Ve

Operación sin luces. La IA gestiona IA. Los agentes de orquestación despliegan, monitorean, ajustan y retiran otros agentes. El involucramiento humano es solo a nivel estratégico y de valores: establecer objetivos, adjudicar conflictos de valores, responder a eventos cisne negro que el sistema no puede clasificar. La planta Oshino de FANUC hace robots que hacen robots. En la Etapa 4, tu infraestructura de IA configura infraestructura de IA. Los humanos no están en el piso y no están observando el piso. Están estableciendo los parámetros de la misión desde fuera del edificio.

Lo Que Se Rompe En La Transición

  • La interpretabilidad colapsa: cuando los agentes modifican agentes, la pista de auditoría de por qué se tomó una decisión se vuelve efectivamente infinita. Ningún humano puede rastrearla.
  • Deriva de valores: un sistema de IA optimizando para una métrica proxy se desviará de los valores pretendidos a lo largo del tiempo. Sin humanos en el circuito para notarlo, la deriva se compone.
  • La capacidad de recuperación desaparece: si algo sale catastróficamente mal, los humanos que sabían cómo ejecutar las funciones subyacentes manualmente se han ido hace mucho.
  • Las cuestiones de soberanía se vuelven agudas: ¿quién es legal, ética y operacionalmente responsable de las decisiones hechas por un sistema que se hizo a sí mismo?

Requisitos de Gobernanza

  • Anulación humana irrevocable: un mecanismo que los humanos pueden usar para detener todo el sistema sin importar lo que el sistema recomiende.
  • Constitución de valores: declaraciones explícitas y probables de lo que al sistema se le permite y no se le permite hacer, codificadas de una forma que la capa de orquestación pueda auditar.
  • Simulacros de recuperación manual: ejercicios regulares en los que los humanos ejecutan funciones manualmente para mantener capacidad. Si no puedes apagarlo, has perdido el control.
  • Auditoría soberana externa: un cuerpo independiente con autoridad para revisar sistemas gestionados por IA para alineación de valores, no solo métricas de rendimiento.
La Trampa

La trampa en la Etapa 4 es la incapacidad de retroceder. La organización que alcanza la Etapa 4 y luego descubre un problema fundamental no tiene ruta de recuperación. Los humanos que podían ejecutar las funciones se han ido. La documentación de cómo funcionaban las cosas antes de la automatización está incompleta. La única entidad que entiende el sistema es el sistema. Por esto la gobernanza de Etapa 4 no puede ser una reflexión tardía - debe diseñarse antes de que la Etapa 3 esté completa.

Los robots de FANUC construyen robots en la oscuridad.
Fueron diseñados para eso.
La mayoría de organizaciones están tropezando en la oscuridad por accidente.