Ok, ya tiramos a la basura los Juiceros y tenemos equipos robustos. Pero ahora tenemos otro problema: la gerencia en Santiago sigue queriendo controlar ese equipo robusto con una planilla o un dashboard. Arreglamos el cuerpo (hardware), ahora falta arreglar el cerebro (toma de decisiones)


En mi artículo anterior argumenté que el agro chileno necesita menos ‘Juiceros’ (tecnología frágil) y más ‘Kaláshnikovs’ (robustez mecánica). Pero incluso el mejor rifle es inútil si el general que da la orden de disparar está mirando un mapa equivocado a 300 kilómetros de distancia.

Hemos estado llenado el campo de sensores robustos, pero hemos mantenido una jerarquía de mando frágil. Ahora que recuperamos la física, toca recuperar la autoridad epistemológica. Toca hablar de por qué Don Héctor tiene razón.

El motín de Curicó

El incidente ocurrió un martes de inicios de octubre en un huerto de cerezos cerca de Chimbarongo. Lo llamo «incidente» porque «catástrofe burocrática» suena demasiado dramático para un informe trimestral.

La situación era binaria. Por un lado, una red de sondas de capacitancia israelíes indicaba que la humedad del suelo había caído al 12%. El algoritmo, programado con umbrales de seguridad conservadores, gritaba «déficit hídrico». El protocolo de la empresa, una agroexportadora controlada por fondos de inversión era claro: ante alerta roja, se riega.

Por otro lado estaba Don Héctor, el administrador del campo. Héctor no miró el dashboard. Pateó la tierra, observó el brillo ceroso de las hojas y olió el aire. Su diagnóstico fue opuesto: «La planta no tiene sed, tiene frío. Se está protegiendo. Si le metemos agua ahora, con la helada tardía que viene mañana, vamos a asfixiar la raíz».

El conflicto escaló a la gerencia de operaciones en Santiago.

Desde la perspectiva de la oficina central, la elección era entre un dato duro, auditable y transmitido por API, versus la corazonada de un empleado de 60 años que ni siquiera usa WhatsApp correctamente. La gerencia hizo lo racional: protegieron su responsabilidad (liability). Ordenaron el riego.

Tres semanas después, el cuartel entró en colapso. Asfixia radicular, seguida de hongos. Pérdida estimada: 15% de la producción exportable. Héctor tenía razón. El sensor había medido la tensión del agua correctamente, pero había fallado en leer el contexto biológico completo.

Mi primera reacción al escuchar esto fue la predecible indignación romántica. Pensé: «Aquí vamos otra vez. Los tecnócratas de las planillas destruyendo la sabiduría ancestral del campo». Es una narrativa satisfactoria. Nos gusta creer que el humano, con su mètis (astucia práctica), siempre supera a la máquina fría.

Pero si queremos arreglar esto, tenemos que ser honestos. Esa narrativa es mentira.

El abogado del diablo (Por qué la gerencia tenía razón)

Antes de proponer quemar los sensores y volver al feudalismo agrario, debemos hacer un ejercicio de Steelmanning. ¿Por qué una empresa racional gastaría millones de dólares en tecnología que ocasionalmente, mata sus propios árboles?

La respuesta es que estadísticamente, Don Héctor es un problema.

Existe un cuerpo de investigación masivo, iniciado por Paul Meehl en 1954 y expandido por Daniel Kahneman, sobre «Juicio Clínico vs. Juicio Actuarial». La conclusión es brutal: en entornos de baja validez (donde hay mucho ruido y retroalimentación tardía), los algoritmos lineales simples superan a los expertos humanos el 60-70% de las veces.

Los humanos somos máquinas de ruido por tres razones estructurales:

Inconsistencia aleatoria

El juicio humano es biológicamente inestable. Si le muestras a don Héctor el mismo árbol por la mañana (antes del café y descansado) y por la tarde (con calor y tras una discusión con logística), es altamente probable que te dé diagnósticos diferentes para la misma data visual. Un sensor puede estar mal calibrado pero su error es constante, predecible y corregible. El humano es una caja negra estocástica.

Sesgo de disponibilidad y supervivencia

Héctor recuerda vívidamente la vez que salvó el huerto en 1998 ignorando el manual («La gran hazaña»). Pero su cerebro ha editado convenientemente las cinco veces que su intuición falló, o las veces que no hizo nada y el huerto sobrevivió igual. Evaluamos nuestra propia competencia basándonos en nuestros mejores éxitos y no en nuestro promedio.

El problema de la escalabilidad

La métis no escala. No puedes hacer un copy-paste de la intuición de Héctor para gestionar 5.000 nuevas hectáreas en Molina. Un algoritmo, por definición, tiene costo marginal de replicación cercano a cero. Para una empresa en expansión, una herramienta mediocre pero escalable suele ser superior a un genio local que no puede estar en dos lugares a la vez.

Además, hay un incentivo financiero estructural. Un banco no puede prestar dinero basándose en «la rodilla de Héctor». Necesita legibilidad: datos estandarizados que demuestren que el activo biológico está siendo gestionado bajo parámetros industriales… La digitalización se trata de convertir un huerto caótico en un instrumento financiero negociable.

Por lo tanto, la gerencia no es estúpida. Al elegir el sensor, están comprando una reducción de la varianza.

El fantasma de Jena (1806)

Para entender cómo resolver el conflicto entre el sensor centralizado y el operador local, debemos abandonar los campos de cerezos y mirar al ejército prusiano.

En 1806, Napoleón destruyó a las fuerzas prusianas en las batallas de Jena y Auerstedt. Fue una humillación absoluta. El ejército prusiano operaba bajo un modelo de control centralizado y rígido (Befehlstaktik): el general dictaba cada movimiento y los subordinados obedecían ciegamente. Napoleón en cambio, operaba con caos controlado y velocidad.

Los reformadores prusianos, liderados por Scharnhorst y Gneisenau, y más tarde codificado por Moltke el Viejo, entendieron que el problema no era que sus soldados fueran malos disparando. El problema era que el modelo de «mando y control» centralizado caía cuando se enfrentaba a la «niebla de guerra» (Nebel des Krieges).

En la guerra como en la agricultura, la información perfecta es imposible… El terreno cambia, el enemigo se mueve, llueve, los suministros no llegan. Si un oficial tiene que esperar órdenes de Berlín (o de la gerencia en Santiago) para reaccionar a algo que está viendo frente a sus narices, ya ha perdido.

La solución que inventaron se llamó Auftragstaktik (mando de misión).

La premisa radical del Auftragstaktik es: Dile al subordinado qué quieres lograr, pero nunca le digas cómo hacerlo.

El alto mando define el objetivo, por ejemplo, tomar esa colina antes del mediodía, pero otorga al oficial en el terreno la autoridad absoluta para decidir la táctica, e incluso para desobedecer órdenes previas si la situación local cambia drásticamente. Moltke escribió famosamente: «Ningún plan de operaciones sobrevive con certeza al primer contacto con el cuerpo principal del enemigo».

La niebla agrícola

La agroindustria moderna ha cometido el error de adoptar el modelo prusiano anterior a 1806.

Hemos construido sistemas de Befehlstaktik digital. El sensor en el campo envía datos a la nube, la nube procesa y envía una «orden de riego» de vuelta. Se espera que el operador obedezca.

Esto funciona maravillosamente en condiciones estables. Pero el campo es un escenario de guerra biológica. Hay microclimas que cambian en diez metros. Hay plagas que no salen en la foto satelital. Hay intuiciones sobre heladas que no aparecen en el higrómetro. Esa es la «niebla de guerra» agrícola.

Cuando la empresa obliga a Don Héctor a regar basándose en el sensor a pesar de su juicio contrario, está intentando micro-gestionar una batalla compleja desde un búnker lejano usando mapas desactualizados.

El sensor no debería ser el comandante supremo. El sensor debería ser inteligencia satelital. Es un input de alta calidad, pero no es una orden sagrada. El objetivo es «salud del árbol y maximización de fruta exportable», no «obediencia al dashboard de riego».

El parche del ingeniero: Protocolos de anulación con apuesta

No podemos simplemente decir «confíen en Héctor», porque ya establecimos que Héctor es inconsistente y difícil de escalar. Necesitamos un mecanismo de diseño que filtre el ruido humano y solo deje pasar la señal experta de alta calidad.

Propongo el «protocolo de anulación con apuesta». Este sistema consta de cuatro partes mecánicas diseñadas para resistir el sabotaje y el cortoplacismo.

1. El default y la apuesta (piel en el juego)

Por defecto, el sistema sigue al algoritmo. Esto garantiza la estandarización el 90% del tiempo.

Pero el administrador tiene un «botón de veto». Cada administrador recibe un «presupuesto de reputación» (puntos convertibles en bono anual). Para vetar al sensor, debe apostar una cantidad significativa de estos puntos. Esto asegura que Héctor no vetará por capricho; solo lo hará cuando su intuición sea tan fuerte que esté dispuesto a arriesgar su propio dinero.

2. El árbitro de la realidad: cegamiento y materialidad

Para evitar que Héctor manipule los resultados (ej: regando a escondidas las filas de control), necesitamos rigor experimental forzado por hardware.

Filas testigo bloqueadas: Si Héctor veta el sensor, el sistema riega según Héctor en el 95% del cuartel. Pero el algoritmo selecciona aleatoriamente tres «filas testigo» y bloquea digitalmente sus válvulas para seguir la instrucción original del sensor. Héctor no puede intervenir estas filas sin romper un sello físico.

Umbral de relevancia: No basta con que las filas de Héctor estén «un poquito mejor». Para cobrar la apuesta, la diferencia en vigor o potencial hídrico debe superar un margen de error predefinido (ej: >5%). Si la diferencia es menor, se declara empate técnico y se devuelven los puntos. Esto desincentiva apuestas sobre intuiciones débiles.

3. Liquidación diferida (anti-cortoplacismo)

Para evitar que Héctor «gane» la apuesta salvando el árbol hoy pero arruinando la fruta en tres meses, el pago se difiere.

El bono ganado entra en una cuenta de retención. Se libera el 50% al verificar la métrica de corto plazo y el otro 50% solo tras la liquidación de la cosecha (calidad y condición de llegada). Si la calidad se desploma, el bono completo se quema. Esto alinea la intuición con el ciclo económico completo.

4. Contabilidad de I+D y human-in-the-Loop

Finalmente, ¿quién paga por el 5% de las filas testigo que probablemente sufran daños?

La empresa no debe cargar esto al presupuesto operativo del huerto. Debe cargarse al presupuesto de Innovación o I+D. Estamos comprando «truth data».

Cada vez que Héctor gana una apuesta, generamos un dato de entrenamiento etiquetado. Es una señal inequívoca de que el modelo base tiene un punto ciego. El equipo de data science o el proveedor debe usar estas victorias para re-calibrar el algoritmo.

El objetivo final es que el algoritmo absorba la métis de don Héctor. Con el tiempo, gracias a estas correcciones costosas pero vitales, el sensor debería volverse tan sofisticado que Héctor ya no necesite apostar.

Enlace copiado