Varios años atrás estaba haciendo una pre-práctica en una planta de procesamiento de alimentos. Era mi primera experiencia directa en una operación industrial de gran escala, con turnos rotativos, protocolos estrictos y una estructura que parecía diseñada para que nada pudiera salir mal. Esa sensación de control absoluto duró hasta el día en que todo se detuvo.
Recuerdo que ocurrió un martes. Era el turno de madrugada, poco después de las cuatro. El ruido de las compuertas al cerrarse fue lo último antes del silencio. Los monitores seguían encendidos, pero sin movimiento. Nadie entendía si era un fallo o una orden que no había llegado.
No hubo explosión, tampoco gritos, ni humo, solo un silencio raro. La línea de producción se quedó quieta y de ahí no se movió más. Lo extraño fue lo que vino después. Nadie sabía exactamente qué hacer, porque todo el sistema estaba construido sobre la idea de que eso nunca iba a pasar. Y cuando lo imposible ocurre, no hay procedimiento que sirva.
Un operador intentó reiniciar la línea desde el panel principal. El sistema no respondió. Otro fue hasta la válvula de aire comprimido y la cerró manualmente. El tablero seguía sin señales. Durante esos segundos, cada uno actuaba por instinto, sin saber si estaba ayudando o empeorando el problema.
Algunos miraron el tablero esperando que la falla se corrigiera sola. Otros se quedaron quietos, sin saber si reiniciar o esperar instrucciones. Nadie quería ser el primero en mover algo. El silencio duró segundos, pero pareció un turno entero.
Recuerdo que ese silencio me hizo ver algo que nunca había pasado por mi cabeza: no trabajábamos solo para producir alimentos, también para mantener viva la idea de que el sistema era infalible.
La planta extremadamente moderna estaba llena de sensores, controles y planillas que prometían que todo podía ser previsto. Pero la realidad no leyó el manual. A veces una máquina se detiene y no hay variable que lo explique. Y en ese momento uno aprende lo que Frank Knight quiso decir con su diferencia entre riesgo e incertidumbre.
Los indicadores mostraban valores normales, pero el producto ya había perdido su textura. El sistema seguía creyendo que todo estaba bien. Fue la primera vez que entendí que el dato puede mentir cuando el contexto cambia más rápido que el sensor. El riesgo es cuando conoces las probabilidades. La incertidumbre es cuando ni siquiera sabes qué estás midiendo.
Esa distinción parece teórica hasta que te toca vivirla. En la planta, el riesgo estaba en los espacios conocidos: temperatura, presión, tiempo. Todo eso se podía registrar y ajustar. La incertidumbre era el espacio en blanco que aparecía cuando el mundo cambiaba sin avisar. Había datos suficientes, pero faltaba el marco que les diera sentido. Y eso volvía inútiles todas las tablas, todos los protocolos y toda la confianza que habíamos puesto en ellos.
Muchos procesos industriales descansan en la idea de que si se controla lo suficiente, el error desaparece. Se instala un sistema de gestión de calidad, se certifica, se audita y se asume que la perfección está al alcance de un formulario.
Pero esa búsqueda de control absoluto tiene algo de superstición. Es la creencia de que el orden del papel puede dominar la variabilidad del mundo físico. Lo que termina pasando es que los sistemas se vuelven frágiles porque ya no saben qué hacer con lo nuevo (y no precisamente porque sean débiles).
Una vez, un colega propuso incorporar un protocolo más para cubrir “situaciones inesperadas”. Era un intento honesto, pero encerraba una contradicción: si la situación es inesperada, no puede estar en el protocolo. Esa es la diferencia entre un manual y una mente. El manual busca cerrar posibilidades; la mente busca abrirlas. Cuando un entorno cambia más rápido que los procedimientos, la única manera de no quedar obsoleto es aceptar que el error es una fuente de información (y no una excepción).
Desde entonces acordamos que cualquier técnico podía detener la línea si percibía un comportamiento anómalo, incluso cuando todas las variables siguieran dentro de rango. Era una forma de devolverle criterio al sistema, no solo cumplimiento.
Comunica mejor el pensamiento adaptativo en la práctica: decisiones bajo incertidumbre, límites del control estadístico y rol del juicio humano en contextos de producción real. Ningún procedimiento reacciona por sí solo; alguien tiene que decidir cuándo dejar de seguirlo.
Con el tiempo entendí que la obsesión por el control es emocional. Nos da seguridad pensar que todo puede medirse. Pero esa seguridad es un espejismo. Los sistemas demasiado rígidos se ciegan ante lo que no encaja en su marco. Es como si una organización se enamorara tanto de su propia lógica que dejara de ver el mundo exterior. Lo paradójico es que cuanto más preciso se vuelve un sistema, más vulnerable resulta ante lo inesperado.
La palabra “eficiencia” se usa como una especie de amuleto. Cualquier propuesta que la incluya suena inteligente. Pero muchas de esas mejoras son solo maneras más elaboradas de negar la incertidumbre. Eficiencia sin capacidad de adaptación es una forma de rigidez. Y la rigidez es fragilidad aplazada (no es estabilidad).
Cuando el incidente de la planta ocurrió, algunos buscaron al culpable, otros culparon a la máquina y otros, al azar. Pero lo más honesto hubiera sido admitir que el sistema entero estaba diseñado para funcionar solo cuando el mundo no cambiaba. En un entorno vivo, eso es una sentencia de muerte. Pienso que ahí aprendí una de las lecciones más importantes hasta ahora, que lo importante no es eliminar los errores, lo importante construir estructuras que puedan aprender de ellos en tiempo real. Que un fallo sea un mensaje y no una catástrofe.
Esa idea cambia todo. Si un error es información, no hay que esconderlo. En cambio, hay que escucharlo, entender qué dice sobre la relación entre lo planificado y lo real. Es un cambio cultural profundo, porque nuestra educación laboral nos entrena para ocultar las desviaciones, no para analizarlas. En la mayoría de las empresas, el error se asocia al castigo. Pero si cada fallo se vuelve un dato para rediseñar el sistema, el error deja de ser una amenaza y se convierte en materia prima.
Un día, revisando los registros del evento, noté que la causa oficial era “error humano”. Esa frase siempre me ha parecido una forma elegante de no aprender nada. Si la causa es humana, no hay solución estructural, solo culpa. Pero la culpa no enseña. La comprensión sí. Lo que llamamos error humano suele ser el punto en el que el sistema dejó de tener sentido para la persona que lo opera. Y pienso que eso no se arregla solamente con más control, también se arregla con más comprensión mutua entre diseño y ejecución.
Hay una diferencia entre un sistema que busca estabilidad y uno que busca evolución. El primero trata de mantenerse igual frente al cambio; el segundo se rediseña con cada golpe. Nassim Taleb usaría la palabra “antifrágil”, aunque este término suena raro en las fábricas.
Pero la idea es clara incluso sin el nombre. Un sistema verdaderamente maduro no sobrevive a los errores; los usa para mejorar. Es como un organismo que desarrolla anticuerpos al enfermarse. La falla se vuelve aprendizaje distribuido.
Esto exige algo más que protocolos. Exige culturas donde la gente pueda actuar sin pedir permiso para cada decisión. Porque en la incertidumbre, la velocidad de respuesta es más valiosa que la precisión de la predicción. Esperar más información puede ser la forma más elegante de no actuar. Y en entornos productivos, la inacción puede costar más que el error. La responsabilidad entonces es hacerse cargo de lo desconocido.
A veces pienso que la madurez profesional se mide por la serenidad ante el desorden. Lo que distingue un trabajo competente es la capacidad de ajustar el pensamiento cuando las cosas dejan de seguir el plan, y de convertir cada error en comprensión útil.
En aquella ocasión, la parada de línea nos costó más de dos toneladas de producto y un turno completo. Pero el costo mayor fue haber tardado horas en entender que el problema estaba en nuestro modo de pensar el control (y no precisamente en el control). En ese sentido, trabajar es una forma de investigación continua. No estamos repitiendo procedimientos, estamos probando hipótesis sobre cómo funciona el mundo y ajustándolas cuando dejan de servir.
En la planta, la verdadera mejora no vino de la nueva maquinaria ni de los nuevos indicadores, sino de algo más simple. Empezamos a tener reuniones cortas después de cada fallo para entender qué habíamos aprendido. Sin presentaciones, sin culpas, solo preguntas honestas. En pocos meses, la cantidad de errores no bajó, pero su impacto sí. Porque cada uno dejaba menos cicatriz. Era como si el sistema desarrollara memoria.
Ese aprendizaje colectivo tenía algo liberador. Nos dimos cuenta de que la incertidumbre era una condición permanente del trabajo y no un enemigo a vencer. Y que pretender eliminarla solo nos alejaba más de la realidad. Aprender a convivir con ella, en cambio, nos hacía más competentes. Lo desconocido dejó de ser un fallo en el sistema y pasó a ser parte del sistema.
Varios años después analizo ese episodio con más experiencia en el cuerpo. Sé que la memoria selecciona y que tal vez esté recordando solo algunos fragmentos, reconstruyendo una narrativa para darles sentido. Aun así, creo que la intuición central sigue siendo válida: el control total no es conocimiento, y los sistemas más inteligentes son los que pueden aprender cuando algo se sale del guion. Con el tiempo descubrí que esa idea no solo explicaba la planta, también explicaba una forma de pensar el trabajo y sus miedos.
A veces pienso que el exceso de control es una versión industrial del miedo a equivocarse. Nos enseñaron a pensar que los errores son un signo de incompetencia, cuando en realidad son la única prueba de que algo se está intentando de verdad. La única forma de no fallar es no hacer nada nuevo. Pero no hacer nada nuevo también es una forma de fallar, solo que más lenta.
Si tuviera que resumir lo que aprendí ese día, diría que el control absoluto es una fantasía cómoda. No hay manual que dure más que el entorno al que intenta controlar. Los procedimientos envejecen más rápido que las personas. Por eso, la competencia más valiosa es saber cuándo dejan de servir las reglas. El punto es saber reconocer que el orden tiene fecha de vencimiento.
A veces todavía escucho el ruido seco del motor al intentar arrancar. Fue el sonido más claro de la vulnerabilidad del sistema. Ni alarma, ni error, ni registro: solo la constatación de que no sabíamos qué hacer sin manual.
Meses después hubo otra detención por una causa distinta. Esta vez nadie esperó una orden. En menos de diez minutos el equipo había diagnosticado, corregido y documentado el problema. No cambiamos la tecnología; cambió la forma en que reaccionábamos.
Cada tanto vuelvo a esa imagen del martes silencioso. La cinta detenida, el aire inmóvil, las miradas buscando una explicación que no llegaba. En ese momento entendí que trabajar bien no es mantener la máquina en marcha, sino entender por qué se detuvo. Que la inteligencia de un sistema no está en su capacidad de controlar el futuro, sino en su disposición a aprender cuando el futuro no coopera.
Y tal vez ese sea el cambio más difícil, porque no es técnico, sino mental. No se trata de nuevos métodos, sino de otra relación con el error, con la duda, con la sorpresa. La planta puede estar llena de tecnología, pero sin una cultura que valore la acción bajo incertidumbre, todo se reduce a un teatro del control. Y el control, cuando se vuelve teatro, deja de protegernos. Lo único que puede hacerlo es la capacidad de pensar mientras todo tiembla.
Esa capacidad se entrena en la práctica diaria de aceptar que el mundo es más grande que nuestros esquemas. Que la incertidumbre es una invitación a mirar distinto (no es un vacío de información).
A veces pienso que lo inesperado no destruye los sistemas; simplemente revela si eran de verdad o si solo eran una colección de papeles. Y cada vez que algo se sale del guion, todavía recuerdo ese silencio de ese martes, recordándome que ese sonido era una oportunidad de aprender y no necesariamente una falla.