Una tendencia muy humana es pensar que ya resolvimos lo más difícil. Que lo que queda es solo ajustar detalles, como afinar un auto antes de pasar la revisión técnica.

A fines del siglo XIX, algunos físicos creían que su disciplina estaba casi completa. Y en parte tenían razón, porque habían construido modelos sólidos, pero se equivocaron al pensar que ya no había misterios importantes por resolverFue un error de perspectiva más que de datos, y no sería la última vez que pasa.

Durante un tiempo, en biología bastaba con las leyes de Mendel para explicar la herencia. La llegada del ADN mostró que esa claridad inicial era engañosa, que la parte visible era solo una parte del problema

La economía ofrece un caso fascinante. Según el modelo del «Homo economicus», los humanos somos unas calculadoras impecables con autodisciplina ilimitada. Obviamente, nadie que haya conocido a un ser humano cree que esto sea una descripción literal.

Un economista defendería con razón que es una simplificación necesaria, un modelo esférico en el vacío que permite aislar variables. El problema es que esta ficción útil parece resistir con una tenacidad asombrosa la evidencia de cada crisis financiera, desde 2008 hasta la burbuja de las puntocom.

Kahneman y Tversky mostraron con experimentos que nuestras desviaciones de la racionalidad no son raras, son predecibles, y por eso terminaron con un Nobel…

Pero décadas después, los cursos de introducción a la economía generalmente siguen presentando el «modelo racionalista» no como el caso base idealizado para empezar, lo hacen como la verdad fundamental… Aquí la metaignorancia no es no saber de sesgos cognitivos, sino no darse cuenta de hasta qué punto el armazón conceptual del campo sigue dependiendo de una base que se sabe empíricamente frágil.

Este anclaje a un modelo mental no es exclusivo de las ciencias sociales, también ocurre en las ciencias naturales.

Es difícil mirar un mapa sin sospechar que África y Sudamérica alguna vez fueron vecinas y se pelearon… Esa coincidencia visual estaba ahí desde hacía siglos, disponible para cualquiera con ojos y curiosidad. Wegener no fue el primero en notarlo, pero fue el primero en dar el paso de convertirlo en hipótesis formal.

El rechazo que recibió se debía a que la maquinaria conceptual de la época no ofrecía un lugar donde encajar esa idea no se debía a la ausencia de datos.

Geólogos experimentados podían aceptar fósiles semejantes en ambas costas o similitudes en las formaciones rocosas, pero les resultaba más sencillo atribuirlo a puentes desaparecidos bajo el océano que a continentes enteros deslizándose miles de kilómetros.

Una teoría que carece de cajón conceptual puede ser tratada como absurda incluso cuando el mapa del mundo la exhibe a plena vista.

Es sorprendente lo rápido que nuestro cerebro grita ‘caso cerrado’ con apenas media pista sobre la mesa… Ese exceso de seguridad no nace de un análisis cuidadoso, más bien de un mecanismo psicológico que nos da calma temporal.

Pienso que esta confianza excesiva tiene algo de necesidad emocional. Al mismo tiempo, conviene observar que esa confianza también cumple una función práctica.

Imaginar un cerebro que revisara cada dato con la misma minuciosidad que una comisión de expertos es imaginar un organismo paralizado. La evolución seleccionó un atajo, generar un modelo simplificado de la realidad que da la impresión de estar completo.

La ilusión nos deja actuar sin quedarnos paralizados. Sirve para decidir rápido y ahorrar energía, y aunque en retrospectiva podamos llamarlo un error, en la práctica sostiene buena parte de la vida diaria. Incluso en la ciencia o en los debates, esa confianza excesiva hace que la gente empuje ideas incompletas con tanta fuerza que, de algún modo, la discusión avanza

Esa confianza no siempre equivale a verdad, aunque sin ella nos quedamos sin movimiento. Lo útil de esta ilusión queda claro, hasta que nos enfrentamos con fenómenos que no encajan en el marco disponible.

De vez en cuando aparece un fenómeno que desarma el marco entero. La conciencia es un buen ejemplo. Podemos mapear qué áreas del cerebro se iluminan y cómo interactúan, pero eso no nos dice nada sobre por qué esa actividad se siente como dolor o como alegría

Aunque sabemos qué partes del cerebro se activan y cómo se conectan, aún no entendemos cómo nacen experiencias como el dolor o la alegría.

Saber que el cerebro muestra actividad es como saber que un parlante vibra cuando suena música, no explica por qué sentimos esa música. Algo semejante ocurre cuando ampliamos la mirada al cosmos.

El resto sigue siendo un tremendo misterio. Nuestras teorías no están equivocadas, simplemente no alcanzan a describir todo lo que sucede.

La inteligencia artificial ofrece otro caso actual. Muchas tareas que antes creíamos exclusivas del pensamiento humano ahora son realizadas por máquinas.

La IA moderna puede escribir, resolver problemas y analizar datos masivos, pero todavía no comprendemos bien por qué funciona tan eficientemente y tampoco entendemos qué consecuencias tendrá su desarrollo en el futuro.

Conciencia, cosmos e inteligencia artificial muestran un mismo patrón, que confiamos en lo que entendemos parcialmente y dejamos de lado lo que aún no sabemos explicar. Todo esto refleja un problema más profundo.

Parte II

A veces ignoramos algo sin darnos cuenta de que hay un vacío en nuestra comprensión.

Esta forma de ignorancia es difícil de detectar porque está incorporada en nuestros propios marcos de análisis. Una manera de mostrarlo en la práctica es usar pequeños experimentos.

Un ejercicio útil consiste en pedir a cada persona que identifique un proyecto propio que parecía prometedor en un inicio pero que al revisarlo con detalle, mostró debilidades importantes. A menudo alguien se reconoce en esa situación, incluso uno mismo, y el pequeño bochorno que provoca es un buen detector de metaignorancia, más eficaz que mostrar un gráfico perfecto.

Cuando nadie admite nada ni menos levanta la mano, también aprendemos que con ejercicios así queda claro que la metaignorancia es algo cotidiano y no un concepto teórico.

Pero ver que existe no alcanza, porque el desafío empieza cuando intentamos corregirla. Superarla implica revisar y a veces eliminar por completo las bases de nuestras ideas.

A menudo, cuando creemos que entendemos bien algo, nace un contraejemplo que nos obliga a repensar la base.

Aunque claramente hemos avanzado, confundir progreso con comprensión total puede estancarnos. Si pensamos que ya entendemos lo suficiente, dejamos de revisar nuestras teorías. Y lo que antes ayudaba a explicar, pasa a estorbar cuando impide ver más allá.

Tener dudas está bien, pero se queda corto. Lo interesante es pensar si podemos armar algo así como una epistemología de la incertidumbre activa: un marco donde la duda sea el motor del descubrimiento. La idea sería convertir en rutina el revisar nuestras bases conceptuales y buscar a propósito las zonas donde sabemos menos.

Este enfoque puede sonar abstracto, pero hay ejemplos claros de cómo funciona en la práctica. Uno llamativo es la decisión de la NASA en los sesenta, cuando decidió redactar manuales de vuelo pensando en operadores de planta eléctrica en lugar de astronautas superhéroes.

Alguien notó que manejar turbinas y manejar cohetes compartían más de lo que parecía. Esa decisión evitó accidentes graves y abrió una tradición de checklists que hoy usan hasta en hospitales.

Este cruce de campos muestra que muchas veces la clave está en mirar con ojos ajenos lo que creemos cerrado y no en más expertos del mismo tipo.

En casi veinte años trabajando en producción y seguridad alimentaria, he visto de cerca cómo opera la metaignorancia. Algo parecido me tocó ver en mi trabajo en una planta de alimentos. Los controles de alérgenos llevaban años funcionando sin fallas.

Al revisar los procedimientos no desde los resultados, más bien desde las suposiciones implícitas qué significaba ausencia en términos analíticos, quién definía las zonas limpias, por qué se asumía que cierta maquinaria no generaba contaminación cruzada, se evidenciaron al menos tres fuentes de error posibles que nunca habían sido consideradas.

No hubo problemas, pero tuvimos mucha suerte. Y entender eso cambió la forma de diseñar las auditorías internas, dejamos de preguntar si las cosas estaban bien y empezamos a preguntarnos qué podría estar mal sin que lo sepamos. Ese cambio fue sustancial.

Esa lección se repitió más de una vez en mi trabajo. Recuerdo, por ejemplo, haber pasado semanas convencido de que el plan de muestreo en una auditoría estaba blindado.

Lo había revisado tres veces, cruzado con normativa y hasta presumí de su elegancia frente a colegas. Un mes después, un técnico joven me mostró un vacío que dejaba fuera a un proveedor clave.

No hubo consecuencias graves, pero la vergüenza me duró más que cualquier reunión correctiva. Esa sensación de tener algo bajo control y descubrir que ni siquiera habías formulado bien la pregunta es difícil de olvidar, y por eso me interesa tanto la metaignorancia.

En un hospital el mismo mecanismo es más severo. Un protocolo de higiene puede parecer impecable hasta que un brote revela un hueco que nadie había previsto. En una planta, el hallazgo se resuelve con papeleo, en un hospital, con funerales.

En los dos casos, la lección fue la misma, lo que parece estable puede esconder algunos espacios invisibles hasta que alguien los señala.

Llegados aquí conviene pasar el problema a terreno numérico. Equipos que declaran sus propias probabilidades suelen descubrir que su confianza está descalibrada. Al revisar series de predicciones, el 80 por ciento de confianza acierta bastante menos de lo esperado y el 20 por ciento ocurre con mayor frecuencia que la pronosticada.

El mismo patrón aparece en todos lados, de médicos haciendo pronósticos hasta ingenieros adivinando cuándo se va a caer un puente… La parte sorprendente es que al poner los errores sobre la mesa también se arreglan un montón de decisiones y el aprendizaje se acelera.

La metaignorancia se revela cuando la hoja de cálculo te dice lo que tu intuición había decidido no mirar.

Parte III

También vale enfrentar el mejor argumento en dirección contraria. Los modelos simples funcionan como protocolos de coordinación y esa utilidad es tangible.

Un grupo que comparte reglas simples puede moverse rápido bajo presión porque cada miembro ya sabe más o menos qué harán los demás. Es lo que permite que los controladores aéreos respondan en cuestión de segundos cuando aparece un problema.

El costo escondido aparece cuando el entorno cambia de régimen y la regla común empieza a fabricar errores discretos. La salida práctica exige conservar la simplicidad y a la vez reservar una fracción del esfuerzo para exploración deliberada, simulación de fallas y pequeñas apuestas que verifiquen si el mapa compartido sigue describiendo el terreno.

A esta altura es justo admitir una ironía. Presento un marco ordenado para criticar marcos ordenados y ese gesto puede repetir el patrón que denuncio. Los ejemplos clasificados y la progresión limpia ayudan a pensar y también invitan a ignorar evidencia que no encaja en un párrafo prolijo. Tal vez el antídoto mínimo sea institucionalizar correcciones humillantes en dosis bajas, abrir espacios donde terceros cuestionen supuestos sin deferencia y mantener un archivo de predicciones con fecha que recuerde lo rápido que envejecen las intuiciones.

Si ampliamos el mapa aparecen conceptos que iluminan por qué quedamos atrapados. Nuestros modelos mentales operan como algoritmos de compresión con pérdida que descartan datos para hacer manejable la avalancha de estímulos. El riesgo está en olvidar qué se perdió al comprimir. Algo parecido ocurre con los máximos locales en optimización. Un experto escala durante años una colina de conocimiento y alcanza una cima de rendimiento. Podría existir una montaña más alta lejos de su campo visual. Bajar de la colina actual implica un descenso temporal y esa pérdida momentánea resulta difícil de tolerar, sobre todo cuando la identidad quedó pegada al método que funcionó.

En mi experiencia, una pregunta bien puesta puede mover más que muchas respuestas.

Aunque los sistemas de control son sofisticados, siempre existe un margen de incertidumbre. Protocolos, auditorías y manuales ayudan, pero no garantizan un riesgo cero. Nuevos patógenos, cambios en las materias primas o en el comportamiento de contaminantes nos recuerdan que nuestra ignorancia estructural nunca desaparece.

El diseño de sistemas preventivos como HACCP parte de aceptar que no podemos eliminar todo riesgo. Gestionar lo conocido es solo una parte, lo difícil es prepararse para lo que no entendemos.

La lección de esos episodios fue que el éxito pasado y la rutina pueden generar una peligrosa sensación de control. No es sorprendente, entonces, que este mismo mecanismo opere a una escala mayor en trayectorias profesionales completas.

Hacerse experto suele significar aprender un modelo mental que funciona bien para un rango limitado de problemas. Luego uno pasa años puliéndolo, y cada crisis superada se convierte en una especie de trofeo que refuerza la idea de que el modelo era el correcto.

Con el tiempo, las decisiones dejan de sentirse como elecciones y pasan a ejecutarse como reflejos, lo que libera energía mental para cuestiones más complejas.

Ese mecanismo es eficiente y explica buena parte de la maestría. El inconveniente aparece cuando el modelo se vuelve tan invisible para su usuario que ya no distingue entre él y su propia identidad. El contador que dominó las hojas de cálculo locales no siente que aplica un método, siente que es el método.

Frente a una tecnología disruptiva, como la contabilidad en la nube, el problema no es técnico. El problema es aceptar que el mapa que parecía definitivo ya no describe el territorio. La dificultad no está en aprender un botón nuevo, está en tolerar la incomodidad de volver a ser aprendiz.

La metaignorancia del experto no radica en desconocer su oficio, radica en no advertir que el oficio cambió de forma silenciosa alrededor suyo. Cada vez responde mejor a preguntas que ya no importan tanto. Y ahí queda, custodiando una fortaleza impecable construida en un terreno que otros ya empezaron a abandonar.

Aceptar la metaignorancia también implica un costo personal. Para un cirujano, puede ser descubrir que una técnica dominada durante décadas queda relegada en pocos años.

Para un académico, que la reputación construida alrededor de un paradigma se convierte en un límite. No es solo revisar teorías, es aceptar volver a ser principiante.

Parte IV

Detectar la metaignorancia es útil, pero solo resuelve una parte del problema… La recomendación de una epistemología de la incertidumbre activa es correcta, aunque corre el riesgo de quedarse como una aspiración abstracta. Para que la idea resulte útil, necesita un marco más concreto, un modelo que podamos visualizar y construir.

Lo más parecido que se me ocurre es un sistema inmune… Ningún organismo biológico complejo aspira a la esterilidad total; su meta es la resiliencia. Un sistema inmune sano no elimina cada patógeno potencial, sino que aprende a reconocerlos, gestionarlos y neutralizar las amenazas graves. De forma parecida, un equipo o una mente individual no puede aspirar a la omnisciencia. La meta realista sería construir un sistema inmune epistémico.

Este sistema opera desarrollando anticuerpos específicos. Estos anticuerpos adoptan la forma de procesos deliberados y rituales de equipo, mecanismos diseñados para detectar y neutralizar las cepas más virulentas del exceso de confianza. Y así como un sistema biológico depende de células especializadas, este sistema necesita de sus linfocitos, personas designadas formalmente para cazar anomalías, datos discordantes y supuestos no examinados, exactamente como el técnico joven que detectó el vacío en el plan de muestreo.

Visto así, el problema empieza a parecer distinto. Pasamos de una simple recomendación de dudar más a un proyecto de ingeniería. En otras palabras, se trata de construir un sistema de defensas que proteja nuestras ideas.

En conjunto, todos estos ejemplos señalan lo mismo. Incorporar la duda de manera consciente es esencial para construir sistemas más adaptables y proteger la salud pública. En este sector, reconocer la ignorancia no debe verse como problema, se toma como punto de partida para trabajar bien.

Reconocer lo que no sabemos puede ayudarnos a avanzar con menos riesgo y más claridad. Si después de eso seguimos equivocados, al menos será por motivos nuevos.

Enlace copiado