La gran deflación de las papas: Una meditación sobre el valor, la abundancia y por qué nadie habla del alimento más democrático del mundo

Hace un par de meses, mientras cargaba un saco de 25 kilos de papas que me costó apenas $4.000 pesos (un espresso con un trozo de torta) tuve una de esas epifanías que solo ocurren en los momentos más mundanos.

Estaba sosteniendo aproximadamente 50 porciones de carbohidratos por el precio de un completo más una bebida, y nadie a mi alrededor parecía encontrar esto remotamente extraordinario.

Esto me recordó a una conversación que tuve con un profesor de economía agraria sobre por qué las papas fueron probablemente la innovación más subestimada en la historia humana. «Un cultivo que puede alimentar a más personas por hectárea que cualquier cereal, que crece en suelos pobres, que se almacena durante meses, y que contiene casi todos los nutrientes esenciales. Es prácticamente un hack de la naturaleza».

Pero aquí estamos, en 2025, con papas a precios que desafían toda lógica económica básica. Cuatro mil pesos por 25 kilos significa que estamos pagando 160 pesos por kilo. Aunque el precio oscila violentamente (llegó a $28.000 el saco en octubre de 2023), ese piso tan bajo revela algo profundo sobre cómo funcionan realmente los mercados modernos, la diferencia entre precio y valor, y por qué los alimentos que más necesitamos son paradójicamente los que menos valoramos.

Sigue leyendo

El laboratorio chileno

Esta es el fin de la serie “El hambre opcional”

[Parte 1] [Parte 2] [Parte 3]


El análisis del ensayo principal (hambre opcional) modela la respuesta de una industria sorprendida por un shock de demanda. Pero el escenario chileno opera sobre una variable única que lo cambia todo: la Ley de Etiquetado.

Para la industria alimentaria en Chile, los GLP-1 no son el “round 1”. El “round 1” fue la implementación de los sellos negros “Alto en…”.

Ese primer shock regulatorio tuvo dos efectos paralelos. Por un lado, forzó a las grandes compañías (Carozzi, Agrosuper, Nestlé Chile…etc) a pasar por el doloroso y caro proceso de reformulación masiva. Tuvieron que crear o expandir equipos de I+D cuya única misión era reducir azúcar, grasa y sodio para evitar los sellos.

Sigue leyendo

Analizando la “disrupción” (3 hipótesis)

Esta es la continuación de la serie “El hambre opcional”

[Parte 1] [Parte 2] [Parte 3] 


La palabra “disruptivo” se usa mucho (ya parece un cliché y no me gusta usarla). Mi primer impulso es desconfiar de ella. Es fundamental diferenciar un problema de adaptación de un problema de extinción.

Cuando me pregunto o analizo si los GLP-1 son “disruptivos” para la industria alimentaria, no veo una sola respuesta. Veo al menos tres escenarios (o hipótesis) que podrían estar ocurriendo al mismo tiempo. Mi interés es modelar los tres para ver cuál es el más probable o el más peligroso.

Sigue leyendo

El hambre opcional (GLP-1 e industria alimentaria)

Esta es el inicio de la serie “El hambre opcional”

[Parte 1] [Parte 2] [Parte 3]

Estaba viendo un capítulo reciente de South Park donde la gente empieza a tomar medicamentos para la obesidad. Lo que me pareció más agudo, incluso por encima de la sátira social sobre quién accede a los fármacos, fue la representación de Eric Cartman.

Cartman, el avatar cultural del id desatado, el niño obeso que encarna el apetito voraz e infinito, deja de comer comida basura. Y la razón es puramente biológica: simple y llanamente ya no tiene ganas. El deseo desapareció.

La broma captura algo fundamental. Estamos viendo surgir un tipo de consumidor completamente nuevo, caracterizado por lo que biológicamente ha dejado de desear, más que por una elección ética o disciplinada de rechazo.

Sigue leyendo

Diseñar sistemas que sepan morir

En marzo publiqué un ensayo cuya conclusión fue que la ineficiencia funciona como una merma estructural, el lastre inevitable de los sistemas grandes. Ese texto quedó cerrado, pero mientras lo hacía apareció otra idea que no me quité de la cabeza.

Este nuevo ensayo es más bien exploratorio. Lo pienso como una disección de esa segunda tesis, distinta, aunque emparentada, que recomiendo sobre todo a quienes trabajan en entornos operativos y de producción sujetos a problemas con múltiples variables.

Sigue leyendo

Darwinismo operativo: El futuro no pide permiso

En muchas empresas, las mejores soluciones no esperan aprobación de arriba, simplemente se hacen. En este ensayo voy analizando cómo liderar en entornos donde la acción se adelanta al permiso. Y por qué ignorarlas puede costarte más que adaptarte.

Ya había escrito (de forma exploratoria) que pasa cuando el permiso domina, ahora veamos qué ocurre cuando la acción se adelanta.


En las grandes empresas, el cambio suele tener una velocidad geológica. Se anuncia algo, se aprueba en un comité, baja por la cascada corporativa y luego, con suerte, se ejecuta.

Cada paso tiene dueño, cada área su lógica política, y alinear todo eso toma una eternidad. Durante años, este proceso se sostuvo porque daba la impresión reconfortante de que alguien estaba a cargo, aunque en la práctica resolviera muy poco.

Sigue leyendo

18 minutos y una linterna Eveready

En algunos contextos operativos eliminar lo difícil puede parecer lo más razonable. Pero hay veces en que esa dificultad funciona como un filtro de errores: te obliga a detenerte, a echarle una mirada, a darle una vuelta antes de seguir.

Fíjate que, más que defender la complicación, afirmo aquello que nos obliga a observar mejor. Especialmente en entornos donde la automatización deja muchos puntos ciegos.

Ya con los años uno se va dando cuenta de que muchas tecnologías que parecen obsoletas siguen aportando mucho valor. Y aquí no me estoy refiriendo a la estética o a la nostalgia. Lo digo porque muchas veces te obligan a poner atención donde otros sistemas pasan de largo. Si uno logra aprender a reconocer eso, puede usarlo a su favor.

La cosa es que, lejos de cualquier romanticismo por lo antiguo, planteo que ciertas complejidades, bien utilizadas, abren funciones nuevas. Aquí lo que me interesa es el gesto mismo: parar antes de disparar. El encuadre manual te obliga a decidir, a mirar con intención.

Y creo que eso mismo ocurre en otras tecnologías que sobreviven fuera del foco moderno. No te alertan y no procesan por ti. Y esa atención forzada es la que vale la pena rescatar. También ocurre en seguridad alimentaria por ejemplo: herramientas como un termómetro análogo o una lámpara de inspección parecen ya superadas, hasta que el sistema automático falla y son lo único que te permite ver lo que está pasando.

Lo que aprendimos metiendo las manos

Me pasó algo parecido liderando un proyecto. Estábamos diseñando un flujo de producción más directo, con menos revisiones para acelerar el despacho. El resultado fue eficiente… y olvidable.

En términos operativos, nadie detectó las pifias. Pero cuando apareció una desviación (una serie de productos mal etiquetados), no había ningún punto donde el error pudiera haberse visto a tiempo. Habíamos eliminado todo lo que no medía velocidad. También eliminamos lo que permitía observar.

Hicimos lo contrario: insertamos una revisión al ojo. Bajaron las no conformidades y volvió el criterio técnico. Esa pausa breve ayudó a que alguien mirara con criterio. Y eso bastó para que el error no pasara. Medido en simple: el tiempo a detección pasó de nunca (detectado por cliente) a 30–60 segundos en línea; y el retrabajo evitado se notó en la primera semana.

Es un caso que recuerda a lo que plantea Goldratt en La Meta: no toda restricción debe eliminarse; algunas permiten ver lo que el sistema no registra solo con datos. Ese tipo de decisiones salen de mirar con atención. Lo complejo no siempre vale la pena, pero tampoco hay que descartarlo solo por ser difícil de medir.

En algunas situaciones es la única manera de que algo quede en la memoria, se adapte mejor o incluso escale más tarde. Ser eficiente sirve cuando ya entendiste el problema. Pero si estás explorando, un poco de complicación puede ayudarte a ver mejor.

A esto lo llamo una «Pausa de Criterio». Te obliga a observar lo que normalmente pasa desapercibido. Sirve para ver lo que nadie está viendo.

Recuerdo que en una planta de vegetales congelados que estuve asesorando, los sensores detectaban cuerpos extraños. Pero un operador notó un patrón: bolsas con pequeños fragmentos plásticos de un proveedor nuevo. El sensor no los distinguía, pero el ojo humano sí.

Recuerdo que el operador se llamaba Juan. Lo conocí en un turno de tarde revisando lotes con una linterna Eveready vieja, con la carcasa rajada y pegada con cinta aislante, que él mismo había adaptado para ver mejor entre pallets. Ese día retuvimos 3 pallets (1.260 bolsas) y se abrió una no conformidad al proveedor nuevo (código interno PV-17). Fueron 18 minutos de paro que evitaron un problema de exportación y una semana de rehacer producto.

Cuando me contó lo que detectó lo hizo con cierta molestia: No me cabe en la cabeza cómo la máquina no lo cacha si yo lo vi al tiro apenas abrí la bolsa. Pero debajo de esa rabia había cierto orgullo. Saber que su ojo seguía contando. Que su experiencia no había sido reemplazada del todo. Me dijo: Parece que igual queda algo.

Esa validación técnica venía de haber observado durante años el mismo tipo de embalaje. Y ese tipo de validación es la que el sistema, a veces, olvida reconocer. ¿Y si no lo hubiera visto?… El lote ya estaba aprobado. Habrían salido miles de bolsas a exportación con fragmentos no detectados.

El proveedor habría seguido operando sin corrección y los clientes habrían asumido que el sistema era infalible. No lo era. Lo que salvó la calidad en ese caso fue un trabajador que se dio el tiempo de mirar. Sin ese paso ineficiente, habrían seguido exportando producto no conforme.

En vez de ver esta resistencia como debilidad, conviene preguntarse si cumple alguna función estructural. Por ejemplo: (a) permite ver lo que no se ve con indicadores, (b) forma criterio técnico replicable o (c) actúa como sistema de defensa distribuido.

Claro, lo humano también puede fallar… Una vez confiamos solo en revisión visual y se nos pasó una serie pequeña de pouchs de salsa con microfisuras. El ajuste fue simple: usar luz de fondo y una lupa de aumento durante 45 segundos en los lotes de arranque. Si tres corridas seguidas salían limpias, quitábamos el paso.

Ese fallar lento nos ayudó a detectar la variable oculta y reforzar sin volvernos burocráticos. La diferencia es que donde hay juicio humano, siempre hay un espacio para corregir; en lo automático, el error tiende a acumularse sin que lo notemos.

A veces, lo valioso es la forma en que fue necesario observar para que funcione. Hay complejidades en algunos procesos que a primera vista parecen exageradas, pero son las que ayudan a que la gente aprenda haciendo.

En una planta pequeña de conservas que estaba asesorando en mejora de procesos, observé un detalle crítico. El proceso era bastante artesano: llenado, cerrado, revisión, etiquetado, limpieza. Todo a ritmo lento, pero ojo, no era al azar. Cada persona iba chequeando lo que venía antes. Aquí no había sensores ni monitores. La calidad dependía enteramente de los operadores.

La dinámica del proceso se basaba en la observación que cada persona transmitía a la siguiente persona. Esa forma de trabajar mostraba cómo la lentitud puede dar sentido al flujo y mantener la atención en lo que realmente importa. Y gracias a eso, los errores no pasaban.

Cuando un paso lento sirve para ver algo que un sistema no ve, hay que dejarlo quieto, porque eso es lo que soporta el proceso. Eso me parece central. No todo proceso lento es una pérdida de tiempo.

De hecho, algunos construyen otro tipo de valor que aparece más tarde. Lo artesanal y lo manual son, muchas veces, otra forma de productividad: una que prioriza la robustez y la comprensión profunda del proceso por sobre la velocidad ciega.

Si ese camino forma parte de una estrategia clara, deja de parecer raro y empieza a ser útil. Cuando la lentitud está justificada por una función preventiva o formativa, no hay nada que optimizar. Solo hay que mantenerla.

Pero también he visto el otro extremo: una línea de mermeladas con doce puntos de control que se habían ido sumando por cada error del pasado. Cada vez que algo fallaba, alguien agregaba una firma más, una planilla nueva, un paso adicional…

El resultado era un flujo fragmentado, lleno de papeles manchados con pulpa de fruta que nadie leía, clipboards grasientos colgando de cadenas. Los operarios firmaban sin mirar, solo para cumplir. Claro, en el papel parecía muy riguroso, pero era pura acumulación sin sentido. Nadie podría decir que eran Pausas de Criterio. Todo esto era burocracia que con el tiempo se volvió rutina.

Qué vale la pena mantener

Muchas veces nos apuran a eliminar pasos en los procesos, a dejar todo más limpio y rápido. Pero al simplificar demasiado también se va parte de lo que ayudaba a pensar mejor. Cuando se reduce todo al mínimo, los procesos van perdiendo matices. Terminan funcionando igual, aunque las condiciones sean distintas.

Lo opuesto ocurre cuando una dosis justa de complejidad te abre otras rutas: te obliga a elegir, a fijarte más. En una operación industrial eso se nota al tiro. Si todo está armado para que lo vea una máquina, entonces también se vuelve ciego a lo que la máquina no detecta. Si no está dentro del sistema, nadie lo ve, así de simple.

Claro, no todo lo complicado vale la pena. Hay cosas que siguen ahí solo porque nadie las ha cuestionado. Algunas solo sobreviven porque ayudan a ciertos grupos a sentirse especiales. Eso también es una función, pero no tiene mucho sentido si el producto apunta a una audiencia más amplia. La complejidad que no enseña, no protege ni afina el criterio de las personas es una carga. La que sí lo hace, es inversión.

Para distinguir la grasa del músculo, aplico una regla de tres tiempos. Una «Pausa de Criterio» debe ganarse su lugar demostrando utilidad inmediata: tiene que achicar el tiempo entre el error y su detección, revelar fallas que antes eran invisibles o, lo más importante, acortar la curva de aprendizaje (lograr que un operador nuevo tenga «ojo» en dos meses y no en seis). Si tras un par de meses la dificultad no ha enseñado nada nuevo ni ha protegido al sistema, deja de ser una herramienta y se convierte en un cacho. En ese punto, la burocracia debe morir para dar paso a un mecanismo más ligero.

Goldratt insistía en que cada acción debe contribuir al objetivo global: mejorar el flujo del sistema. Una pausa que no logra reducir tiempos, no te revela fallas ni genera capacidad de aprendizaje es un cuello de botella disfrazado.

En operación real, una Pausa de Criterio se mantiene viva solo si genera aprendizaje y evita desperdicio. Esa misma lógica se puede aplicar más allá de los controles operativos; conservar aquellos sistemas que entregan valor real. Me quedó claro que no todo paso lento es desperdicio. A veces cumple una función invisible que ayuda bastante a afirmar al sistema. Esa idea me llevó a pensar en la complejidad que sí vale la pena conservar.

Cualquier gerente financiero que lea esto sentirá un rechazo instintivo. Detener la línea para mirar es, en el papel, veneno para el estado de resultados. Es el reflejo condicionado de la eficiencia moderna. Pero el ejecutivo que ha sobrevivido a un par de crisis ve algo distinto en esos 18 minutos de paro: ve una póliza de seguro.

En el fondo, sabe que la automatización sin supervisión humana es una ruleta rusa acelerada y no progreso. Esa resistencia que tanto molesta a la planilla es, en realidad, el único costo que pagamos para no estrellarnos a 200 km/h mientras el tablero de control sigue marcando todo en verde.

Por eso, cuando pienso en complejidad valiosa, no estoy hablando de volver al pasado. Me interesa extraer principios de lo hecho a mano o de tecnología antigua y usarlos en contextos nuevos. Lo importante es no perder lo que esos gestos generaban: estar alerta, revisar con criterio y no pasar por alto lo que realmente importa.

En un proyecto reciente aplicamos una validación HACCP basada en observación directa bajo carga variable, directamente en la línea. Ese día (13/06, turno B, línea 3) paramos 18 minutos para mirar en caliente. Reveló una desviación térmica que ningún indicador digital había detectado. Pasa que hay que fallar lento para entender qué variable estaba escondida. Retuvimos el lote y se ajustó el set-point; mejoró la estabilidad sin agregar tanta burocracia.

Eso se olvida seguido… La eficiencia es útil para repetir lo que ya funciona. Pero si quieres probar algo nuevo, muchas veces tienes que empezar con algo torpe, confuso o lento, como un experimento.

Lo complejo puede servir para descubrir funciones que aún no tienen nombre. Y si no tienen nombre, no tienen ningún indicador que lo estén monitoreando. Por eso los sistemas tienden a descartarlas antes de que puedan demostrar su valor.

Con los años uno aprende a moverse en los dos planos. Uno: llevar estas ideas al terreno, ajustar flujos, dejar espacio para validaciones humanas, armar protocolos que no apaguen al operador. El otro: explicar esas decisiones sin vueltas, sin adornos y sin humo. Si lo que entiendes del sistema no te ayuda a decidir, entonces no sirve para nada. Y si logra bajar al terreno, deja de ser discurso, empieza a funcionar como parte del sistema.

Una parte es todo lo que el sistema puede registrar, seguir y mostrar: datos, firmas, registros, eventos. La otra no queda escrita en ninguna parte, pero sigue siendo central: el espacio que alguien tiene para decidir antes de que el sistema le cierre esa puerta.

La dificultad es para probar si algo realmente funciona (no para hacer las cosas difíciles). Sirve cuando equivocarse te deja algo, repetir te afina el criterio y cuando lo que aprendiste se puede usar para tomar decisiones, no solo para contarlo después como una anécdota.

Lo que llamamos buena práctica aparece cuando alguien presta atención y actúa antes de que el sistema le diga qué hacer (no leyendo un documento).

Existe el riesgo de sonar más pensador que hacedor si solo te quedas mirando. Pero eso se disuelve cuando el proyecto avanza, cuando lo difícil se vuelve prototipo y ese prototipo se transforma en sistema operativo. Puede parecer que solo estás dándole vueltas, hasta que el proyecto agarra forma y eso que se veía complicado empieza a funcionar sin tanto enredo.

Entonces ya no estás justificando lo complejo. Lo estás usando, y cuando eso pasa, deja de ser un discurso.

Una Pausa de Criterio no necesita ser lenta, solo tiene que frenar en el momento justo. Hay decisiones que no se pueden tomar mientras las cosas fluyen demasiado rápido, ese freno te permite ver a tiempo. Si el sistema no deja ver, no está haciendo la pega.

Y si nunca deja ver, entonces tampoco estamos decidiendo: solo estamos ejecutando lo que otros diseñaron. Tal vez ese sea el mayor riesgo de una automatización mal pensada: que borren el espacio donde el juicio humano todavía podía intervenir.

Hay sistemas que siguen funcionando, pero nadie sabe por qué

Hay momentos en los que un sistema (una empresa, un software, un protocolo administrativo…) empieza a comportarse como esa lavadora redonda que tenía tu mamá por allá en los noventa: mucho ruido, gasta mucha energía, da vueltas innecesarias y, con suerte, termina haciendo bien su trabajo. A veces, un sistema sigue operativo, pero nadie sabe cómo ni por qué.

En mi casa, por ejemplo, hay una luz que solo funciona si enciendes otra primero. La regla carece de lógica, pero la seguimos sin pensar. Así operan demasiados procesos laborales.

Sigue leyendo

El sistema Inmune de las ideas

Una tendencia muy humana es pensar que ya resolvimos lo más difícil. Que lo que queda es solo ajustar detalles, como afinar un auto antes de pasar la revisión técnica.

A fines del siglo XIX, algunos físicos creían que su disciplina estaba casi completa. Y en parte tenían razón, porque habían construido modelos sólidos, pero se equivocaron al pensar que ya no había misterios importantes por resolverFue un error de perspectiva más que de datos, y no sería la última vez que pasa.

Durante un tiempo, en biología bastaba con las leyes de Mendel para explicar la herencia. La llegada del ADN mostró que esa claridad inicial era engañosa, que la parte visible era solo una parte del problema

La economía ofrece un caso fascinante. Según el modelo del «Homo economicus», los humanos somos unas calculadoras impecables con autodisciplina ilimitada. Obviamente, nadie que haya conocido a un ser humano cree que esto sea una descripción literal.

Un economista defendería con razón que es una simplificación necesaria, un modelo esférico en el vacío que permite aislar variables. El problema es que esta ficción útil parece resistir con una tenacidad asombrosa la evidencia de cada crisis financiera, desde 2008 hasta la burbuja de las puntocom.

Kahneman y Tversky mostraron con experimentos que nuestras desviaciones de la racionalidad no son raras, son predecibles, y por eso terminaron con un Nobel…

Pero décadas después, los cursos de introducción a la economía generalmente siguen presentando el «modelo racionalista» no como el caso base idealizado para empezar, lo hacen como la verdad fundamental… Aquí la metaignorancia no es no saber de sesgos cognitivos, sino no darse cuenta de hasta qué punto el armazón conceptual del campo sigue dependiendo de una base que se sabe empíricamente frágil.

Este anclaje a un modelo mental no es exclusivo de las ciencias sociales, también ocurre en las ciencias naturales.

Es difícil mirar un mapa sin sospechar que África y Sudamérica alguna vez fueron vecinas y se pelearon… Esa coincidencia visual estaba ahí desde hacía siglos, disponible para cualquiera con ojos y curiosidad. Wegener no fue el primero en notarlo, pero fue el primero en dar el paso de convertirlo en hipótesis formal.

El rechazo que recibió se debía a que la maquinaria conceptual de la época no ofrecía un lugar donde encajar esa idea no se debía a la ausencia de datos.

Geólogos experimentados podían aceptar fósiles semejantes en ambas costas o similitudes en las formaciones rocosas, pero les resultaba más sencillo atribuirlo a puentes desaparecidos bajo el océano que a continentes enteros deslizándose miles de kilómetros.

Una teoría que carece de cajón conceptual puede ser tratada como absurda incluso cuando el mapa del mundo la exhibe a plena vista.

Es sorprendente lo rápido que nuestro cerebro grita ‘caso cerrado’ con apenas media pista sobre la mesa… Ese exceso de seguridad no nace de un análisis cuidadoso, más bien de un mecanismo psicológico que nos da calma temporal.

Pienso que esta confianza excesiva tiene algo de necesidad emocional. Al mismo tiempo, conviene observar que esa confianza también cumple una función práctica.

Imaginar un cerebro que revisara cada dato con la misma minuciosidad que una comisión de expertos es imaginar un organismo paralizado. La evolución seleccionó un atajo, generar un modelo simplificado de la realidad que da la impresión de estar completo.

La ilusión nos deja actuar sin quedarnos paralizados. Sirve para decidir rápido y ahorrar energía, y aunque en retrospectiva podamos llamarlo un error, en la práctica sostiene buena parte de la vida diaria. Incluso en la ciencia o en los debates, esa confianza excesiva hace que la gente empuje ideas incompletas con tanta fuerza que, de algún modo, la discusión avanza

Esa confianza no siempre equivale a verdad, aunque sin ella nos quedamos sin movimiento. Lo útil de esta ilusión queda claro, hasta que nos enfrentamos con fenómenos que no encajan en el marco disponible.

De vez en cuando aparece un fenómeno que desarma el marco entero. La conciencia es un buen ejemplo. Podemos mapear qué áreas del cerebro se iluminan y cómo interactúan, pero eso no nos dice nada sobre por qué esa actividad se siente como dolor o como alegría

Aunque sabemos qué partes del cerebro se activan y cómo se conectan, aún no entendemos cómo nacen experiencias como el dolor o la alegría.

Saber que el cerebro muestra actividad es como saber que un parlante vibra cuando suena música, no explica por qué sentimos esa música. Algo semejante ocurre cuando ampliamos la mirada al cosmos.

El resto sigue siendo un tremendo misterio. Nuestras teorías no están equivocadas, simplemente no alcanzan a describir todo lo que sucede.

La inteligencia artificial ofrece otro caso actual. Muchas tareas que antes creíamos exclusivas del pensamiento humano ahora son realizadas por máquinas.

La IA moderna puede escribir, resolver problemas y analizar datos masivos, pero todavía no comprendemos bien por qué funciona tan eficientemente y tampoco entendemos qué consecuencias tendrá su desarrollo en el futuro.

Conciencia, cosmos e inteligencia artificial muestran un mismo patrón, que confiamos en lo que entendemos parcialmente y dejamos de lado lo que aún no sabemos explicar. Todo esto refleja un problema más profundo.

Parte II

A veces ignoramos algo sin darnos cuenta de que hay un vacío en nuestra comprensión.

Esta forma de ignorancia es difícil de detectar porque está incorporada en nuestros propios marcos de análisis. Una manera de mostrarlo en la práctica es usar pequeños experimentos.

Un ejercicio útil consiste en pedir a cada persona que identifique un proyecto propio que parecía prometedor en un inicio pero que al revisarlo con detalle, mostró debilidades importantes. A menudo alguien se reconoce en esa situación, incluso uno mismo, y el pequeño bochorno que provoca es un buen detector de metaignorancia, más eficaz que mostrar un gráfico perfecto.

Cuando nadie admite nada ni menos levanta la mano, también aprendemos que con ejercicios así queda claro que la metaignorancia es algo cotidiano y no un concepto teórico.

Pero ver que existe no alcanza, porque el desafío empieza cuando intentamos corregirla. Superarla implica revisar y a veces eliminar por completo las bases de nuestras ideas.

A menudo, cuando creemos que entendemos bien algo, nace un contraejemplo que nos obliga a repensar la base.

Aunque claramente hemos avanzado, confundir progreso con comprensión total puede estancarnos. Si pensamos que ya entendemos lo suficiente, dejamos de revisar nuestras teorías. Y lo que antes ayudaba a explicar, pasa a estorbar cuando impide ver más allá.

Tener dudas está bien, pero se queda corto. Lo interesante es pensar si podemos armar algo así como una epistemología de la incertidumbre activa: un marco donde la duda sea el motor del descubrimiento. La idea sería convertir en rutina el revisar nuestras bases conceptuales y buscar a propósito las zonas donde sabemos menos.

Este enfoque puede sonar abstracto, pero hay ejemplos claros de cómo funciona en la práctica. Uno llamativo es la decisión de la NASA en los sesenta, cuando decidió redactar manuales de vuelo pensando en operadores de planta eléctrica en lugar de astronautas superhéroes.

Alguien notó que manejar turbinas y manejar cohetes compartían más de lo que parecía. Esa decisión evitó accidentes graves y abrió una tradición de checklists que hoy usan hasta en hospitales.

Este cruce de campos muestra que muchas veces la clave está en mirar con ojos ajenos lo que creemos cerrado y no en más expertos del mismo tipo.

En casi veinte años trabajando en producción y seguridad alimentaria, he visto de cerca cómo opera la metaignorancia. Algo parecido me tocó ver en mi trabajo en una planta de alimentos. Los controles de alérgenos llevaban años funcionando sin fallas.

Al revisar los procedimientos no desde los resultados, más bien desde las suposiciones implícitas qué significaba ausencia en términos analíticos, quién definía las zonas limpias, por qué se asumía que cierta maquinaria no generaba contaminación cruzada, se evidenciaron al menos tres fuentes de error posibles que nunca habían sido consideradas.

No hubo problemas, pero tuvimos mucha suerte. Y entender eso cambió la forma de diseñar las auditorías internas, dejamos de preguntar si las cosas estaban bien y empezamos a preguntarnos qué podría estar mal sin que lo sepamos. Ese cambio fue sustancial.

Esa lección se repitió más de una vez en mi trabajo. Recuerdo, por ejemplo, haber pasado semanas convencido de que el plan de muestreo en una auditoría estaba blindado.

Lo había revisado tres veces, cruzado con normativa y hasta presumí de su elegancia frente a colegas. Un mes después, un técnico joven me mostró un vacío que dejaba fuera a un proveedor clave.

No hubo consecuencias graves, pero la vergüenza me duró más que cualquier reunión correctiva. Esa sensación de tener algo bajo control y descubrir que ni siquiera habías formulado bien la pregunta es difícil de olvidar, y por eso me interesa tanto la metaignorancia.

En un hospital el mismo mecanismo es más severo. Un protocolo de higiene puede parecer impecable hasta que un brote revela un hueco que nadie había previsto. En una planta, el hallazgo se resuelve con papeleo, en un hospital, con funerales.

En los dos casos, la lección fue la misma, lo que parece estable puede esconder algunos espacios invisibles hasta que alguien los señala.

Llegados aquí conviene pasar el problema a terreno numérico. Equipos que declaran sus propias probabilidades suelen descubrir que su confianza está descalibrada. Al revisar series de predicciones, el 80 por ciento de confianza acierta bastante menos de lo esperado y el 20 por ciento ocurre con mayor frecuencia que la pronosticada.

El mismo patrón aparece en todos lados, de médicos haciendo pronósticos hasta ingenieros adivinando cuándo se va a caer un puente… La parte sorprendente es que al poner los errores sobre la mesa también se arreglan un montón de decisiones y el aprendizaje se acelera.

La metaignorancia se revela cuando la hoja de cálculo te dice lo que tu intuición había decidido no mirar.

Parte III

También vale enfrentar el mejor argumento en dirección contraria. Los modelos simples funcionan como protocolos de coordinación y esa utilidad es tangible.

Un grupo que comparte reglas simples puede moverse rápido bajo presión porque cada miembro ya sabe más o menos qué harán los demás. Es lo que permite que los controladores aéreos respondan en cuestión de segundos cuando aparece un problema.

El costo escondido aparece cuando el entorno cambia de régimen y la regla común empieza a fabricar errores discretos. La salida práctica exige conservar la simplicidad y a la vez reservar una fracción del esfuerzo para exploración deliberada, simulación de fallas y pequeñas apuestas que verifiquen si el mapa compartido sigue describiendo el terreno.

A esta altura es justo admitir una ironía. Presento un marco ordenado para criticar marcos ordenados y ese gesto puede repetir el patrón que denuncio. Los ejemplos clasificados y la progresión limpia ayudan a pensar y también invitan a ignorar evidencia que no encaja en un párrafo prolijo. Tal vez el antídoto mínimo sea institucionalizar correcciones humillantes en dosis bajas, abrir espacios donde terceros cuestionen supuestos sin deferencia y mantener un archivo de predicciones con fecha que recuerde lo rápido que envejecen las intuiciones.

Si ampliamos el mapa aparecen conceptos que iluminan por qué quedamos atrapados. Nuestros modelos mentales operan como algoritmos de compresión con pérdida que descartan datos para hacer manejable la avalancha de estímulos. El riesgo está en olvidar qué se perdió al comprimir. Algo parecido ocurre con los máximos locales en optimización. Un experto escala durante años una colina de conocimiento y alcanza una cima de rendimiento. Podría existir una montaña más alta lejos de su campo visual. Bajar de la colina actual implica un descenso temporal y esa pérdida momentánea resulta difícil de tolerar, sobre todo cuando la identidad quedó pegada al método que funcionó.

En mi experiencia, una pregunta bien puesta puede mover más que muchas respuestas.

Aunque los sistemas de control son sofisticados, siempre existe un margen de incertidumbre. Protocolos, auditorías y manuales ayudan, pero no garantizan un riesgo cero. Nuevos patógenos, cambios en las materias primas o en el comportamiento de contaminantes nos recuerdan que nuestra ignorancia estructural nunca desaparece.

El diseño de sistemas preventivos como HACCP parte de aceptar que no podemos eliminar todo riesgo. Gestionar lo conocido es solo una parte, lo difícil es prepararse para lo que no entendemos.

La lección de esos episodios fue que el éxito pasado y la rutina pueden generar una peligrosa sensación de control. No es sorprendente, entonces, que este mismo mecanismo opere a una escala mayor en trayectorias profesionales completas.

Hacerse experto suele significar aprender un modelo mental que funciona bien para un rango limitado de problemas. Luego uno pasa años puliéndolo, y cada crisis superada se convierte en una especie de trofeo que refuerza la idea de que el modelo era el correcto.

Con el tiempo, las decisiones dejan de sentirse como elecciones y pasan a ejecutarse como reflejos, lo que libera energía mental para cuestiones más complejas.

Ese mecanismo es eficiente y explica buena parte de la maestría. El inconveniente aparece cuando el modelo se vuelve tan invisible para su usuario que ya no distingue entre él y su propia identidad. El contador que dominó las hojas de cálculo locales no siente que aplica un método, siente que es el método.

Frente a una tecnología disruptiva, como la contabilidad en la nube, el problema no es técnico. El problema es aceptar que el mapa que parecía definitivo ya no describe el territorio. La dificultad no está en aprender un botón nuevo, está en tolerar la incomodidad de volver a ser aprendiz.

La metaignorancia del experto no radica en desconocer su oficio, radica en no advertir que el oficio cambió de forma silenciosa alrededor suyo. Cada vez responde mejor a preguntas que ya no importan tanto. Y ahí queda, custodiando una fortaleza impecable construida en un terreno que otros ya empezaron a abandonar.

Aceptar la metaignorancia también implica un costo personal. Para un cirujano, puede ser descubrir que una técnica dominada durante décadas queda relegada en pocos años.

Para un académico, que la reputación construida alrededor de un paradigma se convierte en un límite. No es solo revisar teorías, es aceptar volver a ser principiante.

Parte IV

Detectar la metaignorancia es útil, pero solo resuelve una parte del problema… La recomendación de una epistemología de la incertidumbre activa es correcta, aunque corre el riesgo de quedarse como una aspiración abstracta. Para que la idea resulte útil, necesita un marco más concreto, un modelo que podamos visualizar y construir.

Lo más parecido que se me ocurre es un sistema inmune… Ningún organismo biológico complejo aspira a la esterilidad total; su meta es la resiliencia. Un sistema inmune sano no elimina cada patógeno potencial, sino que aprende a reconocerlos, gestionarlos y neutralizar las amenazas graves. De forma parecida, un equipo o una mente individual no puede aspirar a la omnisciencia. La meta realista sería construir un sistema inmune epistémico.

Este sistema opera desarrollando anticuerpos específicos. Estos anticuerpos adoptan la forma de procesos deliberados y rituales de equipo, mecanismos diseñados para detectar y neutralizar las cepas más virulentas del exceso de confianza. Y así como un sistema biológico depende de células especializadas, este sistema necesita de sus linfocitos, personas designadas formalmente para cazar anomalías, datos discordantes y supuestos no examinados, exactamente como el técnico joven que detectó el vacío en el plan de muestreo.

Visto así, el problema empieza a parecer distinto. Pasamos de una simple recomendación de dudar más a un proyecto de ingeniería. En otras palabras, se trata de construir un sistema de defensas que proteja nuestras ideas.

En conjunto, todos estos ejemplos señalan lo mismo. Incorporar la duda de manera consciente es esencial para construir sistemas más adaptables y proteger la salud pública. En este sector, reconocer la ignorancia no debe verse como problema, se toma como punto de partida para trabajar bien.

Reconocer lo que no sabemos puede ayudarnos a avanzar con menos riesgo y más claridad. Si después de eso seguimos equivocados, al menos será por motivos nuevos.

La ola que viene de Mustafa Suleyman

Suleyman no necesita currículum para hablar de IA.

Fundó DeepMind, trabajó en Google, pasó por Microsoft. No escribe desde afuera. Estuvo en el núcleo mismo, cuando todo era todavía un experimento técnico.

Y ese pasado se nota. Su libro The Coming Wave no tiene el tono especulativo de quien mira desde lejos, tiene el de alguien que convivió demasiado cerca con algo que, con el tiempo, dejó de parecerle del todo manejable.

La premisa central del libro es la siguiente. Las tecnologías como la inteligencia artificial y la biotecnología están creciendo con una rapidez que los marcos institucionales no pueden seguir.

No hay suficiente regulación, no hay mecanismos globales de control, no hay frenos visibles. Suleyman no duda en eso: la expansión es inevitable. Lo que sí cuestiona es nuestra respuesta.

Si no empezamos a diseñar sistemas de mitigación ahora, las consecuencias podrían estar muy por encima de lo que cualquier análisis actual anticipa.

Hasta ahí, todo parece razonable. El diagnóstico está bien armado, el tono es firme pero sin caer en el pánico. Pero hay un punto donde el texto se queda corto, principalmente en político. ¿Y ahora qué?. Suleyman transmite demasiada preocupación, pero no transmite urgencia.

Habla de regulación, sí. Menciona acuerdos internacionales, también. Pero sugiere más de lo que afirma. En este escenario que está jugando contra el tiempo, ese matiz no es menor.

Desde mi experiencia, eso no alcanza. Lo he visto antes: diagnósticos bien armados que no se traducen en acción concreta. Si ya aceptamos que frenar el avance no es viable, lo mínimo es construir sistemas de supervisión y coordinación que actúen desde ya.

La innovación va a seguir su curso. Lo urgente es actuar antes de que el sistema pierda estabilidad. No hay tiempo para discusiones que se prolonguen por años, porque esto se mueve cada mes.

Sigue leyendo