La inercia moderna empuja hacia la fluidez absoluta. Queremos que el proceso sea un tobogán perfectamente pulido donde nada se interponga entre la intención y el resultado. Sin embargo, cualquier ingeniero honesto sabe que una superficie sin fricción no ofrece agarre. En la obsesión por eliminar la resistencia, a menudo eliminamos la única fuerza que nos permite maniobrar.

Existe una función vital en la dificultad que el sistema por sí solo no puede ver: la obligación de detenerse. A eso lo llamo «estructura de observación activa (EOA)»: micro-pausas o pasos ineficientes diseñados para exponer desvíos y permitir decidir antes de que el sistema te cierre la puerta.


En algunos contextos operativos eliminar lo difícil puede parecer lo más razonable. Pero hay veces en que lo difícil cumple una función que el sistema no puede ver: te obliga a detenerte, a observar, a pensar antes de seguir.

Más que defender la complicación por sí misma, reivindico aquello que nos obliga a observar mejor. Especialmente en entornos donde la automatización deja muchos puntos ciegos.

Ya con los años uno se va dando cuenta de que muchas tecnologías que parecen obsoletas siguen aportando mucho valor. Y aquí no me estoy refiriendo a la estética, a la nostalgia o a que sean mejores. Lo digo porque muchas veces te obligan a poner atención donde otros sistemas pasan de largo. Si uno logra aprender a reconocer eso, puede usarlo a su favor.

Lejos de cualquier nostalgia por la máquina de escribir, sostengo que ciertas complejidades del pasado, bien utilizadas, abren funciones nuevas, como parte de una búsqueda. Aquí lo que me interesa es el gesto mismo: parar antes de disparar. El encuadre manual te obliga a decidir, a mirar con intención.

Y creo que eso mismo ocurre en otras tecnologías que sobreviven fuera del foco moderno. No te alertan y no procesan por ti. Y esa atención forzada es la que vale la pena rescatar. También ocurre en seguridad alimentaria por ejemplo: herramientas como un termómetro análogo o una lámpara de inspección parecen ya superadas en fábricas modernas, hasta que el sistema automático falla y son lo único que te permite ver lo que está pasando.

Lo que aprendimos metiendo las manos

Me pasó algo parecido liderando un proyecto. Estábamos diseñando un flujo de producción más directo, con menos revisiones para acelerar el despacho. El resultado fue eficiente… y olvidable.

En términos operativos, nadie detectó los errores. Pero cuando apareció una desviación (una serie de productos mal etiquetados), no había ningún punto donde el error pudiera haberse visto a tiempo. Habíamos eliminado todo lo que no medía «velocidad». También eliminamos lo que permitía observar.

Hicimos lo contrario: insertamos una revisión visual. Bajaron las no conformidades y volvió el criterio técnico. Esa pausa breve ayudó a que alguien mirara con criterio. Y eso bastó para que el error no pasara. Medido en simple: el tiempo a detección pasó de «nunca» (detectado por cliente) a 30–60 segundos en línea; y el retrabajo evitado se notó en la primera semana.

Es un caso que recuerda a lo que plantea Goldratt en La Meta: no toda restricción debe eliminarse; algunas permiten ver lo que el sistema no registra solo con datos. Ese tipo de decisiones salen de mirar con atención. Lo complejo no siempre vale la pena, pero tampoco hay que descartarlo solo por ser difícil de medir.

En algunas situaciones es la única manera de que algo quede en la memoria, se adapte mejor o incluso escale más tarde. Ser eficiente sirve cuando ya entendiste el problema. Pero si estás explorando, un poco de complicación puede ayudarte a ver mejor.

A esto lo podríamos llamar como una «estructura de observación activa (EOA)». Una EOA te obliga a observar lo que normalmente pasa desapercibido. Sirve para ver lo que nadie está viendo.

Recuerdo que en una planta de vegetales congelados que estuve asesorando, los sensores detectaban cuerpos extraños. Pero un operador notó un patrón: bolsas con pequeños fragmentos plásticos de un proveedor nuevo. El sensor no los distinguía, pero el ojo humano sí.

Recuerdo que el operador se llamaba Juan. Lo conocí en un turno de tarde revisando lotes con una linterna Eveready vieja, con la carcasa rajada y pegada con cinta aislante, que él mismo había adaptado para ver mejor entre pallets. Ese día retuvimos 3 pallets (1.260 bolsas) y se abrió una no conformidad al proveedor nuevo (código interno PV-17). Fueron 18 minutos de paro que evitaron un problema de exportación y una semana de rehacer producto.

Cuando me contó lo que detectó lo hizo con cierta molestia: «No entiendo cómo la máquina no lo ve si yo lo vi apenas abrí la bolsa». Pero debajo de esa rabia había cierto orgullo. Saber que su ojo seguía contando. Que su experiencia no había sido reemplazada del todo. Me dijo: «Pensé que ya no servía pa’ esto, pero parece que igual queda algo».

Esa validación técnica venía de haber observado durante años el mismo tipo de embalaje. Y ese tipo de validación es la que el sistema, a veces, olvida reconocer. ¿Y si no lo hubiera visto?… El lote ya estaba aprobado. Habrían salido miles de bolsas a exportación con fragmentos no detectados.

El proveedor habría seguido operando sin corrección y los clientes habrían asumido que el sistema era infalible. No lo era. Lo que sostuvo la calidad en ese caso fue un trabajador que se dio el tiempo de mirar y no esa máquina maravillosa. Sin ese paso «ineficiente», habrían seguido exportando producto no conforme.

En vez de ver esta fricción como debilidad, conviene preguntarse si cumple alguna función estructural. Por ejemplo: (a) permite ver lo que no se ve con indicadores, (b) forma criterio técnico replicable o (c) actúa como sistema de «defensa distribuido».

Claro, lo humano también puede fallar… Una vez confiamos solo en revisión visual y se nos pasó una serie pequeña de pouchs de salsa con microfisuras. El ajuste fue simple: usar luz de fondo y una lupa de aumento durante 45 segundos en los lotes de arranque. Si tres corridas seguidas salían limpias, quitábamos el paso.

Ese «fallar lento» nos ayudó a detectar la variable oculta y reforzar sin volvernos burocráticos. La diferencia es que donde hay juicio humano, siempre hay un espacio para corregir; en lo automático, el error tiende a acumularse sin que lo notemos.

Algo parecido vi hace poco en un proyecto totalmente distinto. Nada que ver con alimentos, pero la lógica era la misma: prestar atención a cada parte porque no había nada estandarizado.

Y no se trata solo de plantas industriales. Dandolahora.cl (un ecommerce de relojes y que inspiró este ensayo) fabricó un reloj digital desde cero (el primer reloj digital hecho en Chile), sin acceso a fábricas ni piezas estándar. Tuvieron que hacer todo por su cuenta: circuito, firmware, carcasa, empaque.

El taller olía a estaño derretido y resina, no a oficina limpia. ¿Fue poco práctico? Sí. ¿Valió la pena? También. Porque esa complejidad obligó a prestar atención en cada parte del proceso. Nada estaba resuelto de antemano. Y justo por eso, todo pasó por el juicio técnico del equipo.

Ese tipo de fricción (lejos de ser ineficiencia) fue lo que generó aprendizaje técnico, orgullo bien ganado y una discusión útil sobre por qué fabricamos como lo hacemos, incluso cuando los indicadores (y muchas personas) te dicen que no vale la pena.

A veces, lo valioso es la forma en que fue necesario observar para que funcione. Hay complejidades en algunos procesos que a primera vista parecen exageradas, pero son las que ayudan a que la gente aprenda haciendo.

En una planta pequeña de conservas que estaba asesorando en mejora de procesos, observé un detalle clave. El proceso era bastante artesano: llenado, cerrado, revisión, etiquetado, limpieza. Todo a ritmo lento, pero ojo, no era al azar. Cada persona iba chequeando lo que venía antes. Aquí no había sensores ni monitores. La calidad la cuidaban los operadores y no las máquinas.

La dinámica del proceso se sostenía en la observación que cada persona transmitía a la siguiente persona. Esa forma de trabajar mostraba cómo la lentitud puede dar sentido al flujo y mantener la atención en lo que realmente importa. Y gracias a eso, los errores no pasaban.

Cuando un paso lento sirve para ver algo que un sistema no ve, hay que dejarlo quieto, porque eso es lo que sostiene el proceso. Eso me parece clave. No todo proceso lento es una pérdida de tiempo.

De hecho, algunos construyen otro tipo de valor que aparece más tarde. Lo artesanal y lo manual son, muchas veces, otra forma de productividad: una que prioriza la robustez y la comprensión profunda del proceso por sobre la velocidad ciega.

Si ese camino forma parte de una estrategia clara, deja de parecer raro y empieza a ser útil. Cuando la lentitud está justificada por una función preventiva o formativa, no hay nada que optimizar. Solo hay que sostenerla.

Pero también he visto el otro extremo: una línea de mermeladas con doce puntos de control que se habían ido sumando por cada error del pasado. Cada vez que algo fallaba, alguien agregaba una firma más, una planilla nueva, un paso adicional…

El resultado era un flujo fragmentado, lleno de papeles manchados con pulpa de fruta que nadie leía, clipboards grasientos colgando de cadenas. Los operarios firmaban sin mirar, solo para cumplir. Claro, en el papel parecía muy riguroso, pero era pura acumulación sin sentido. Nadie podría decir que era «observación activa». Todo esto era burocracia que con el tiempo se volvió rutina.

Qué vale la pena mantener

Muchas veces nos apuran a eliminar pasos en los procesos, a dejar todo más limpio y rápido. Pero al simplificar demasiado también se va parte de lo que ayudaba a pensar mejor. Cuando se reduce todo al mínimo, los procesos van perdiendo matices. Terminan funcionando igual, aunque las condiciones sean distintas.

Lo opuesto ocurre cuando una dosis justa de complejidad te abre otras rutas: te obliga a elegir, a fijarte más. En una operación industrial eso se nota al tiro. Si todo está armado para que lo vea una máquina, entonces también se vuelve ciego a lo que la máquina no detecta. Si no está dentro del sistema, nadie lo ve, así de simple.

Claro, no todo lo complicado vale la pena. Hay cosas que siguen ahí solo porque nadie las ha cuestionado. Algunas solo sobreviven porque ayudan a ciertos grupos a sentirse especiales. Eso también es una función, pero no tiene mucho sentido si el producto apunta a una audiencia más amplia. La complejidad que no enseña, no protege ni afina el criterio de las personas es una carga. La que sí lo hace, es inversión.

Para distinguir la grasa del músculo, aplico una regla de tres tiempos. Una estructura de observación activa debe ganarse su lugar demostrando utilidad inmediata: tiene que colapsar el tiempo entre el error y su detección, revelar fallas que antes eran invisibles o, lo más importante, acelerar la intuición técnica del equipo. Si tras un par de meses la fricción no ha enseñado nada nuevo ni ha protegido al sistema, deja de ser una herramienta y se convierte en estorbo. En ese punto, la burocracia debe morir para dar paso a un mecanismo más ligero.

Goldratt insistía en que cada acción debe contribuir al objetivo global: mejorar el flujo del sistema. Una EOA que no logra reducir tiempos, no te revela fallas ni genera capacidad de aprendizaje es un «cuello de botella disfrazado».

En operación real, una EOA se mantiene viva solo si genera aprendizaje y evita desperdicio. Esa misma lógica se puede aplicar más allá de los controles operativos; conservar aquellos sistemas que entregan valor real. Me quedó claro que no todo paso lento es desperdicio. A veces cumple una función invisible que ayuda bastante a sostener al sistema. Esa idea me llevó a pensar en la complejidad que sí vale la pena conservar.

Cualquier gerente financiero que lea esto sentirá un rechazo instintivo. Detener la línea para mirar es, en el papel, veneno para el estado de resultados. Es el reflejo condicionado de la eficiencia moderna. Pero el ejecutivo que ha sobrevivido a un par de crisis ve algo distinto en esos 18 minutos de paro: ve una póliza de seguro.

En el fondo, sabe que la automatización sin supervisión humana es una ruleta rusa acelerada y no progreso. Esa fricción que tanto molesta al Excel es, en realidad, el único costo que pagamos para no estrellarnos a 200 km/h mientras el tablero de control sigue marcando todo en verde.

Por eso, cuando pienso en complejidad valiosa, no estoy hablando de volver al pasado. Me interesa extraer principios de lo hecho a mano o de tecnología antigua y usarlos en contextos nuevos. Lo importante es no perder lo que esos gestos generaban: estar alerta, revisar con criterio y no pasar por alto lo que realmente importa.

En un proyecto reciente aplicamos una validación HACCP basada en observación directa bajo carga variable, no solo en datos históricos. Ese día (13/06, turno B, línea 3) paramos 18 minutos para mirar en caliente. Reveló una desviación térmica que ningún indicador digital había detectado. Pasa que hay que fallar lento para entender qué variable estaba escondida. Retuvimos el lote y se ajustó el set-point; mejoró la estabilidad sin agregar tanta burocracia.

Eso se olvida seguido… La eficiencia es útil para repetir lo que ya funciona. Pero si quieres probar algo nuevo, muchas veces tienes que empezar con algo torpe, confuso o lento, como un experimento.

Lo complejo puede servir para descubrir funciones que aún no tienen nombre. Y si no tienen nombre, no tienen ningún indicador que lo estén monitoreando. Por eso los sistemas tienden a descartarlas antes de que puedan demostrar su valor.

Con los años uno aprende a moverse en los dos planos. Uno: llevar estas ideas al terreno, ajustar flujos, dejar espacio para validaciones humanas, armar protocolos que no «apaguen al operador». El otro: explicar esas decisiones sin vueltas, sin adornos y sin humo. Si lo que entiendes del sistema no te ayuda a decidir, entonces no sirve para nada. Y si logra bajar al terreno, deja de ser discurso, empieza a funcionar como parte del sistema.

Una parte es todo lo que el sistema puede registrar, seguir y mostrar: datos, firmas, registros, eventos. La otra no queda escrita en ninguna parte, pero sigue siendo clave: el espacio que alguien tiene para decidir antes de que el sistema le cierre esa puerta.

La dificultad es para probar si algo realmente funciona (no para hacer las cosas difíciles). Sirve cuando equivocarse te deja algo, repetir te afina el criterio y cuando lo que aprendiste se puede usar para tomar decisiones, no solo para contarlo después como una anécdota.

Lo que llamamos buena práctica aparece cuando alguien presta atención y actúa antes de que el sistema le diga qué hacer (no leyendo un documento).

Existe el riesgo de sonar más «pensador que hacedor» si solo te quedas mirando. Pero eso se disuelve cuando el proyecto avanza, cuando lo difícil se vuelve prototipo y ese prototipo se transforma en sistema operativo. Puede parecer que solo estás dándole vueltas, hasta que el proyecto agarra forma y eso que se veía complicado empieza a funcionar sin tanto enredo.

Entonces ya no estás justificando lo complejo. Lo estás usando, y cuando eso pasa, deja de ser un discurso.

Una «estructura de observación activa» no necesita ser lenta, solo tiene que frenar en el momento justo. Hay decisiones que no se pueden tomar mientras las cosas fluyen demasiado rápido, ese freno te permite ver a tiempo. Si el sistema no deja ver, no está cumpliendo su función.

Y si nunca deja ver, entonces tampoco estamos decidiendo: solo estamos ejecutando lo que otros diseñaron. Tal vez ese sea el mayor riesgo de una automatización mal pensada: no que las máquinas se equivoquen, sino que borren el espacio donde el juicio humano todavía podía salvarnos. A veces nos volvemos ciegos simplemente porque es más cómodo no tener que mirar.

Enlace copiado