tl:dr; Los modelos de lenguaje como ChatGPT no solo sirven para responder preguntas. También pueden diseñarse para algo más ambicioso… como ayudarnos a pensar distinto. La ilusión de agencia (esa sensación de que la máquina “piensa”) suele considerarse un error, pero yo pienso que puede usarse como recurso de diseño.
Si la aceptamos, podemos crear estructuras que simulen voces diversas, multipliquen ángulos de análisis y nos muestren escenarios que solos no imaginaríamos. La meta es ampliar el espacio donde ocurre nuestro juicio.
Como ejercicio de diseño, desarrollé un GPT que simula un equipo HACCP con distintos perfiles cognitivos. Cada voz representa un estilo de pensamiento diferente y responde al usuario desde esa perspectiva.
Además, hice una versión de prueba con 28 escenarios, donde estas voces interactúan a modo experimental. A diferencia del GPT, no generan una ilusión de agencia, pero sirven para graficar el ensayo y el concepto: mostrar que una IA puede usarse como un entorno de pensamiento compartido, donde las voces simuladas permiten observar cómo se forman, chocan y evolucionan las ideas.
El punto es que se puede usar la simulación como una herramienta para pensar mejor, del mismo modo que un equipo real confronta miradas distintas para detectar riesgos o decisiones que uno solo no vería.
Cuando trabajábamos en la actualización los planes HACCP en Walmart (unas 250 tiendas entre Lider y Express de Lider) descubrimos que los mejores hallazgos no salían de seguir el protocolo al pie de la letra. Aparecían cuando juntábamos enfoques distintos y dejábamos que chocaran.
Lo que observamos ahí no era distinto de lo que hoy vemos con los sistemas de lenguaje. El valor estaba en el cruce de perspectivas diversas, cada una limitada, pero juntas más potentes.
Ese tipo de observaciones me hizo pensar en algo más general. No siempre necesitamos teorías sofisticadas para detectar cómo funcionan ciertos procesos.
Podría adornar todo esto con citas de filósofos o con estudios de revistas indexadas, pero al final la escena más útil es la del jefe de sala que encuentra un riesgo que nadie más vio.
No aparece en ningún manual de epistemología, pero funciona como evidencia. A veces la academia se comporta como ese invitado que llega tarde a la fiesta y quiere opinar de todo sin haber estado en la conversación inicial… Aquí prefiero quedarme con lo que pasa en la práctica, que suele ser menos elegante pero más claro.
Con los modelos de lenguaje ocurre algo similar. Lo valioso aparece cuando esas formas concretas amplifican lo que ya pensamos, y nos obligan a aterrizar las ideas en lugar de dejarlas flotando en lo abstracto.
Lo mismo me pasa con los modelos de lenguaje. A veces busco en ellos la “respuesta correcta”, aunque sé que no existe. Es extraño porque lo racional lo tengo claro, pero igual caigo en la tentación.
Quizás me obliga a notar cómo yo mismo pienso peor cuando espero certezas de una máquina. Es ahí donde se vuelve útil tener múltiples voces, juntas me sacan de la ilusión de exactitud.
Por ejemplo, un operador de tienda obsesivo con detalles veía riesgos invisibles para el jefe de área, y el subgerente encontraba soluciones que nadie había previsto antes. Al final, el cruce venía de combinar distintas formas de analizar los datos.
Ahora imagino que algo similar podría lograrse con sistemas de lenguaje bien diseñados. Estructuras lo suficientemente variadas como para ofrecer «perspectivas con apariencias de verdad» y diversas que nos ayuden a pensar mejor.
Si vamos al fondo, actualmente estamos de acuerdo en que un modelo de lenguaje como ChatGPT predice palabras. No entiende lo que dice, no tiene ideas propias y tampoco piensa por sí mismo (aunque quieras lo contrario).
Ahí se cruzan lo técnico y lo humano. Te puedo describir con precisión que se trata solo de un predictor estadístico y al mismo tiempo, confesar que lo primero que hice fue pedirle consejos como si fuera un colega con experiencia. Suena ridículo, lo sé… pero funcionó mejor de lo esperado.
Lo irónico es que esa situación ya tiene un costado gracioso en sí misma, aunque no lo busquemos.
Hay algo inevitablemente gracioso en pedirle consejo estratégico a un predictor de texto. La situación no requiere remate. Ya es un chiste en sí misma.
Si alguien insiste en la solemnidad, basta recordar que estamos confiando en un sistema que funcionaría igual de bien generando recetas con ingredientes inventados… Esa tensión entre lo serio y lo ridículo es parte del atractivo. Y aunque parezca absurdo, a veces de ahí salen las mejores ideas.
De todas formas por más extraño que parezca, esa mezcla de ridículo y utilidad es lo que vuelve tan interesante el experimento. Esa oscilación entre el dato técnico y la confesión personal vuelve interesante la experiencia. No hay que elegir entre el rigor y lo cotidiano, se pueden mezclar sin que uno cancele al otro.
Aunque esto lo sabemos racionalmente, nuestra tendencia a buscar una intención detrás del lenguaje nos puede engañar.
Uno pensaría que esto ya lo tenemos resuelto. Suena obvio, pero no lo es. La manera en que el lenguaje se presenta nos sigue descolocando, incluso cuando creemos estar preparados.
Esa confusión no siempre es un error a corregir, puede ser el punto de partida para diseñar herramientas distintas, como ya se vio décadas atrás con ELIZA y más tarde en la película Her.
Ya en los años 60, Joseph Weizenbaum lo observó con ELIZA, un programa muy simple que imitaba a un terapeuta. Aunque solo reformulaba frases, muchos usuarios sentían que realmente “los entendía”.
Décadas más tarde, la película Her mostró cómo esa ilusión puede escalar hasta el apego emocional. Porque el lenguaje fluido activa en nosotros una proyección automática de intención y afecto. (no, la maquina no te comprende aunque pienses que si)
A mí me pasó lo mismo. La primera vez que probé un modelo avanzado sentí que había una voz con intención detrás. Sabía en teoría que solo estaba prediciendo palabras, pero la experiencia era otra cosa.
Me sorprendí creyendo que “pensaba”. Esa confusión inicial me ayudó a entender por qué tanta gente cae en la ilusión. No necesitas un máster en estadística para explicar lo que ocurre, basta con reconocer que el lenguaje toca fibras demasiado humanas. Y una vez que te pasa, entiendes que no es tan fácil mantener la distancia crítica.
Si sabemos que esa reacción ocurre, lo sensato es incorporarla al diseño desde el principio, con cuidado y sin aprovecharse de ella.
El enfoque actual limita el potencial.
Hoy, la mayoría de los esfuerzos en inteligencia artificial buscan corregir esa ilusión.
Las empresas diseñan productos donde nos aclaran que la máquina no entiende, ajustan expectativas y nos dan advertencias. Es lógico, ayuda a preservar la credibilidad.
Pero también nos encierra en un marco limitado. Las empresas están tan ocupadas en protegernos de la ilusión de agencia que olvidamos algo obvio, esa respuesta automática puede aprovecharse para crear sistemas más útiles y formas de colaboración que aún no existen.
Antes que seguir perfeccionando interfaces para que no nos confundamos, tal vez valga más pensar en cómo usar esa ilusión a nuestro favor. Esa es la diferencia entre construir muros de protección y abrir escenarios de exploración.
No solo mejorar la interfaz, crear experiencias de pensamiento.
En la práctica, hablamos de diseñar interacciones que usen esa inclinación humana a atribuir intención, siempre que el lenguaje conserve un mínimo de orden.
Cuando un sistema se expresa con orden y fluidez, muchas personas interpretan que hay algo consciente detrás.
Esa ilusión no tiene por qué eliminarse. Puede convertirse en una parte útil del diseño si se usa con claridad, sin engañar y dejando siempre visible quién toma realmente las decisiones.
Varios estilos de pensamiento, no un solo asistente.
En lugar de simplemente corregir percepciones, podríamos construir modelos que simulan distintos estilos de pensamiento. Uno más analítico, otro más creativo, otro más impulsivo, uno crítico pero aterrizado. Eso encaja con cómo solemos organizar las ideas en voces distintas.
El resultado sería menos una máquina que responde y más una estructura que amplifica nuestro propio proceso de razonamiento.
Como si en lugar de tener un asistente que sugiere frases, tuviéramos un pequeño equipo de trabajo simulado que nos ayuda a mirar los problemas desde perspectivas diversas.
Un Líder HACCP podría interactuar con un equipo simulado que no solo genera opciones, también hace preguntas y pone en duda sus supuestos.
Esa dinámica funciona porque el sistema responde con un lenguaje familiar, lo que facilita que lo tratemos como si estuviera pensando.
El lenguaje no sería solo el canal de comunicación, sería la herramienta principal para expandir nuestra imaginación y explorar distintos caminos.
De responder preguntas a modelar posibilidades.
A partir de ahí, el enfoque sobre qué productos construir cambiaría.
En lugar de mejores chatbots o asistentes más simpáticos, podríamos desarrollar plataformas de exploración. Por ejemplo, sistemas donde, además de pedir respuestas, podamos modelar posibilidades en tiempo real.
Y aquí aparece algo clave, los modelos no trabajan con verdades, trabajan con probabilidades. Su mecánica no consiste en decidir qué es cierto, consiste en calcular qué combinación de palabras resulta verosímiles en un contexto dado. Dicho de otro modo, funcionan como motores de «apariencia de verdad», generan respuestas que suenan razonables, aunque no provengan de un juicio ni de una intención.
Asumir esto cambia la manera en que los usamos. En vez de esperar confirmaciones, podemos ponerlos a prueba como generadores de hipótesis, como disparadores de exploración, como herramientas que expanden nuestras preguntas más que cerrarlas. El modelo deja de ser una especie de “Dios oráculo” y se convierte en un constructor de escenarios. Eso transforma la interacción en una herramienta de creatividad.
Construir entornos vivos de exploración.
En términos comerciales, esto implicaría crear sistemas que prometen entornos vivos de exploración, más fértiles.
Plataformas de escritura, herramientas de estrategia, espacios de diseño. Productos donde el valor es abrir nuevas preguntas y caminos.
Hay riesgos, claro. Gestionar mal la ilusión de agencia puede llevar a confusiones o dependencias emocionales. No se resuelve solo con moderación.
Se resuelve con diseño activo, construir marcos claros, dar señales constantes de que el sistema no piensa y mantener siempre visible la responsabilidad del usuario en la interpretación de la interacción.
Acompañar la toma de decisiones.
Una de las cosas más útiles que podríamos hacer con estos sistemas es usarlos para pensar mejor cuando las decisiones se complican. Principalmente, para simular distintas posibilidades y ver qué aparece.
Imagina un sistema que pueda hablarte como lo haría alguien impulsivo, otro que te frene como alguien prudente y otro que empuje como tu parte más ambiciosa. Sería una forma concreta de pensar mejor cuando estás enredado.
Y no tendría que ser perfecto ni entender nuestras emociones. Bastaría con ofrecer formas creíbles de articular distintos ángulos. Como cuando pedimos consejo a varias personas para ver un problema desde perspectivas diferentes.
Romper el esquema de pregunta-respuesta.
Seguimos atrapados en el modelo de “pregunta y respuesta”, como si toda interacción con una máquina debiera replicar la lógica de los buscadores.
El potencial real está en romper esa estructura y crear experiencias donde la interacción sea construcción conjunta, no una simple consulta.
Imaginar sistemas donde múltiples estilos narrativos se cruzan y se complementan no es más artificial que un taller creativo con humanos. Aquí, la disponibilidad es inmediata y la diversidad de perspectivas puede ser muy poderosa.
Redefinir la colaboración humano-máquina.
Aceptar que los modelos no piensan debería llevarnos a diseñar tecnologías que potencian nuestras capacidades de exploración, creación y decisión.
Podría desviarme hacia discusiones más ambiciosas sobre conciencia artificial o futuros distópicos, pero no es lo que importa aquí.
Es tentador desviarse hacia debates sobre conciencia, apocalipsis tecnológico o dilemas morales que nunca ocurrirán en la realidad cotidiana. Pero esas discusiones suelen inflar más el ego del autor que la utilidad del lector. Aquí lo valioso es notar cómo un sistema torpemente diseñado para predecir palabras termina siendo un espejo raro de nuestro pensamiento. Lo otro puede esperar para un congreso filosófico. Esto, en cambio, ya está en nuestras manos y se puede usar ahora mismo.
Lo que sí importa es cómo estos sistemas, con todas sus limitaciones, pueden abrir ángulos nuevos para pensar lo inmediato.
A construir herramientas que respeten nuestra tendencia a proyectar agencia y la canalicen de manera abierta y útil.
Aceptar esa proyección como lo mostró Her en su sofisticación emocional significa usar esa respuesta humana como parte del diseño, para acompañar procesos complejos sin perder la conciencia de quién toma realmente las decisiones.
Es fácil dejarse llevar por la imagen de sistemas que “amplían la mente” y olvidar que la colaboración humano-máquina siempre será imperfecta. Siempre habrá riesgos de interpretación errónea, exceso de confianza o atribuciones emocionales. Eso es parte de cómo funcionamos.
Por eso, la solución no está en pretender máquinas “más humanas”, ni en resignarnos a construir solo herramientas pasivas.
Quizás estoy exagerando el potencial. Tal vez en la práctica estas estructuras resulten más limitadas de lo que parecen en el papel. No me preocupa admitirlo, cualquier intento de proyectar seguridad absoluta sería artificial. Lo interesante es dejar espacio para esa duda.
Cuando un texto o una propuesta reconoce sus huecos, genera más confianza que cuando se presenta como perfecto. Aquí, más que un plan acabado, importa tener la disposición a probar y corregir sobre la marcha. Al final, esa disposición a aceptar límites puede ser más valiosa que cualquier promesa de perfección.
Y en ese sentido, lo interesante no es que estos sistemas se parezcan a nosotros, es que expandan lo que podemos pensar por cuenta propia. A veces lo más valioso es la manera en que nos empujan a revisar nuestras ideas, y no precisamente la respuesta que entregan. Ese espacio de exploración compartida puede convertirse en una de sus funciones más útiles.