La automatización no necesita cosas con brazos robóticos o lucecitas que puedas ver: elimina los espacios donde las personas deciden. En este ensayo exploro cómo esa lógica borra nuestras funciones, voces y el sentido del trabajo. Y qué podemos hacer antes de que el juicio humano se vuelva opcional.


Esa es la preocupación general. Pero la primera imagen que suele aparecer es distinta.

Cuando se piensa en automatización, muchos imaginan brazos robóticos, drones que reparten paquetes o asistentes que responden a la voz. Esa imagen no está del todo equivocada, pero se queda corta.

Porque la automatización más profunda ocurre sin máquinas visibles y con menos anuncios. Llega cuando un sistema ya no requiere que un humano tome decisiones. Claro, algunos dirían que eso permite escalar. Pero escalar sin comprensión vuelve frágil cualquier operación.

El reemplazo llega como un flujo de procesos que no sabe detenerse y de paso, olvida que tú existías. Uno donde nadie necesita intervenir. El proceso sigue andando y tú y yo ya no hacemos falta. Y cuando no hacemos falta, tampoco hay memoria de que alguna vez estuviste ahí.

El problema es que, sin intervención humana nadie entiende lo que pasó. No hace falta saber tanto de tecnología para notarlo. A veces, ves que una tarea que solías hacer ahora se completa sola. Eso parece menor, hasta que lo llevas a un entorno donde el detalle importa.

Piensa en un hospital: antes había alguien que decidía si una radiografía ameritaba una segunda toma, porque la primera no mostraba con claridad una fractura. Ahora un sistema procesa las imágenes, aplica filtros, descarta las que “no sirven” y nunca te enteras de lo que se perdió.

O en finanzas: un analista que antes corregía una proyección porque sabía que cierta empresa solía retrasar pagos, ya no está; la curva queda perfecta en el software hasta que explota. Estos espacios minúsculos de corrección se borran con rapidez, y su ausencia solo se nota cuando todo lo demás falla.

Ahí es donde ya no hablamos de operaciones, sino de motivos.

Lo raro es dejar de tener razones y perder el control. Es cierto que no todo juicio humano mejora los procesos, pero su valor está en permitir ajustes cuando lo preestablecido ya no alcanza.

El sistema resolvió por su cuenta. Y nadie puede decir por qué. Ni tú, ni tus compañeros. No hay una explicación, solo un resultado. Algo parecido a seguir una orden que nadie dio. El salto es simple: si no hay espacio para intervenir, tampoco se espera que intervengas.

Si ese lugar ya no existe, entonces tampoco se espera su criterio. Y sin criterio, no hay rol.

Por ejemplo, si trabajas en logística y solías cambiar rutas según el clima o el tráfico, probablemente ahora lo haga un algoritmo. El pedido llega igual, pero el cambio es otro: ya no puedes explicar por qué se eligió esa ruta, porque no fuiste tú. Y el sistema no da explicaciones, solo ejecuta. Si algo falla, no hay nadie que sepa cómo empezó el error. No hay testigos (lo que también deja un vacío en la trazabilidad: un auditability gap).

Ese tipo de sistema no intenta imitarte, no razona como tú. Solo evita que estés. Y si nadie necesita tu criterio, tampoco se necesita tu experiencia. Ese borrado del criterio se nota incluso cuando el sistema parece tan neutro como un piloto automático.

La automatización de decisiones se parece menos a un robot futurista y más a poner piloto automático en un avión que nunca despega de la pista. En teoría el sistema mantiene las cosas contraladas, pero al mismo tiempo ya no hay nadie revisando si de verdad había que despegar.

En la práctica, esto puede sonar más absurdo de lo que parece. Es como tener un mayordomo que te organiza la google calendar, pero borra las citas que “no encajan” sin avisarte, todo luce más ordenado, hasta que descubres que te perdiste tu propio cumpleaños. Ese tipo de comparación suena ridícula, pero refleja bien el vacío que aparece cuando se confunde eficiencia con criterio.

Ya no hay momentos para compartir lo aprendido o para ajustar sobre la marcha. Todo sigue una lógica cerrada. Ese cierre es cómodo hasta que miras qué pasa en los márgenes.

Si el sistema funciona la mayoría del tiempo, los errores no justifican pagarle a alguien para estar ahí por si acaso (lo cual, en términos de diseño, sería mantener un human-in-the-loop solo para el manejo de excepciones). Pero si nadie queda disponible para notar lo que falla, lo que se gana en eficiencia se pierde en capacidad de respuesta.

Algunos podrían defender que si un sistema funciona el 95% del tiempo, entonces el otro 5% no importa. Esa lógica se siente convincente hasta que uno recuerda que las puertas de emergencia también están pensadas para un 5% de escenarios.

El problema es que nadie quiere pagarle a un humano para “estar ahí por si acaso”, lo cual suena razonable hasta que eres tú el que necesita al humano. Y claro, siempre se puede entrenar otro algoritmo para detectar errores… salvo que ese algoritmo también falle, en cuyo caso solo queda enviar un ticket de soporte al mismo sistema que acaba de colapsar.

Seguro alguien diría que el criterio no desaparece, solo se esconde en otra parte del proceso. “El algoritmo fue calibrado por humanos, así que la decisión sigue ahí, solo que en otra parte del proceso.”

El problema es que una decisión que ocurre antes de que empiece el proceso no es realmente criterio en funcionamiento: es un fósil. La distancia entre calibrar un sistema y tomar decisiones reales se ve mejor con un ejemplo simple.

Es como afirmar que los pasajeros deciden la ruta de un avión porque en algún momento eligieron “Madrid” en una página web.

Después de eso, el piloto automático gobierna todo, y el hecho de haber hecho clic meses atrás no sirve cuando hay que corregir el rumbo en pleno vuelo. Cuando llega la hora de decidir, ya pasó el tren y solo puedes ver la parte trasera alejándose.

Y no hace falta mirar sistemas técnicos. En trabajos comunes el efecto ya se siente.

II

Esto ya ocurre en funciones comunes, no solo en sistemas complejos, por ejemplo, trabajos administrativos. Conozco personas que antes revisaban, aprobaban o ajustaban tareas. Ahora solo reciben correos donde están en copia. Nadie les pregunta nada, su función desapareció, aunque sigan presentes.

Es como si el flujo aún ocurriera, pero sin testigos. Y sin testigos, tampoco hay responsabilidad.

No hace falta llorar por cada trámite perdido, pero sí conviene fijarse qué pieza del dominó quitaste antes de que caigan todas las demás. Lo divertido es que las organizaciones siempre subestiman el trabajo invisible.

De hecho, lo convierten en invisible a propósito: si reconoces su existencia, alguien tendría que rendir cuentas. Así que se sostiene todo el edificio con piezas fantasmas, y luego fingen sorpresa cuando falla. De hecho, a veces la motivación es aún menos técnica.

Estas decisiones no siempre responden a la eficiencia. A veces se busca evitar que una persona decida, porque decidir implica asumir errores. Y los errores traen consecuencias. En fin, detrás de muchas automatizaciones no hay una lógica de mejora operativa, lo que hay es una lógica de protección estructural; «que nadie decida, para que nadie tenga la culpa» (muy ligado a compliance by design).

Por eso, muchos sistemas se han diseñado tanto para automatizar, como para cerrar la puerta a cualquier objeción. En este punto la motivación no es meramente técnica. Es legal: si nadie decide, nadie se equivoca.

Algunos lo ven como una ventaja operativa, pero si no hay criterio presente, tampoco hay forma real de interpretar lo que ocurre ni corregirlo a tiempo.

El razonamiento suena convincente hasta que cambias el escenario. Imagina un hospital que despidiera a todos los radiólogos porque su modelo acierta en 99 de cada 100 diagnósticos.

El problema es que el error restante no es un pequeño retraso en un paquete, es un cáncer no detectado. Lo mismo en justicia: un sistema que acierta casi siempre, pero que cuando falla manda inocentes a prisión, no puede justificarse con “eficiencia”.

En contextos triviales tal vez sí valga ese cálculo, pero los algoritmos no distinguen entre lo trivial y lo crítico. Esa ceguera es la que convierte un porcentaje aceptable en un riesgo inaceptable.

En ese punto, cabe preguntarse qué implica que algo funcione sin personas.

III

Si uno quiere tomarlo en serio, hay al menos tres formas de abordarlo.

Primero, identificar los espacios donde todavía conviene que alguien decida. Y cuidarlos con argumentos, no con reglas.
Segundo, diseñar funciones en torno a lo que las personas hacen bien, en vez de adaptarlas al sistema.
Y tercero, reconocer que no todo lo automatizable debe ser automatizado.

Cada decisión técnica tiene consecuencias que no son neutrales. Alguien podría decir que no automatizar también tiene costos, y es cierto. Pero asumir esos costos puede ser una forma de proteger la capacidad de ajustar en situaciones no previstas. Eso también se debe considerar.

Y esto no se resuelve con más capacitaciones ni con charlas sobre el futuro del trabajo. Lo que hay que tener en cuenta es que esto se puede resolver reconociendo que pensar sigue siendo útil. Esa capacidad de juicio es lo que nos permite notar lo que los sistemas no ven. Si no, acabamos en organizaciones donde nadie entiende lo que hace, ni sabe si tiene sentido.

La automatización reemplaza porque ya no hay un lugar donde tenga sentido estar. Eso no lo define un algoritmo. Lo decidimos nosotros cuando preferimos cerrar procesos en vez de abrir discusiones.

Personalmente, no quiero trabajar en un lugar donde ya nadie puede explicar lo que hace. Prefiero uno donde las decisiones tengan una razón, aunque no sea perfecta. Porque si nadie piensa por qué hace algo, entonces nadie va a mejorar nada.

Y eso lo soluciona una conversación abierta en el momento en que algo deja de tener sentido.

Enlace copiado