Instrucciones de uso
Cómo usar la inteligencia artificial sin que te use a ti.
El fotograma que nunca existió
En 1957 James Vicary anunció que había resuelto un problema que la publicidad llevaba décadas intentando resolver. La solución era elegante en su brutalidad: insertar mensajes entre los fotogramas de una película; “Drink Coca-Cola”, “Eat Popcorn”, a una velocidad de 1/3000 de segundo. Demasiado rápido para que el ojo consciente los percibiera. Suficientemente lento, según Vicary, para que la mente los procesara sin saberlo. El experimento, realizado en un cine de Nueva Jersey durante seis semanas, había incrementado las ventas de Coca-Cola un 18.1% y las de palomitas un 57.8%. Los números llegaron después, con la precisión de toda estafa bien narrada.
El escándalo fue inmediato y desproporcionado, como corresponde a los escándalos bien construidos. El Congreso amenazó con legislar. La industria publicitaria se distanció con la velocidad característica de quien acaba de ser descubierto pensando en algo que prefiere no admitir. Vance Packard publicó The Hidden Persuaders y vendió millones de copias. El mundo había descubierto que era posible ser manipulado sin saberlo. Una novedad, en rigor, modesta. Lo que era nuevo era que alguien lo había dicho en voz alta con estadísticas.
Cinco años después Vicary admitió que el experimento era falso. El mundo había construido un andamiaje regulatorio completo para protegerse de una amenaza inventada, y en ese movimiento dejó sin mirar el territorio donde operaban las manipulaciones reales y cotidianas. Los medios que sí existían. Los mecanismos que sí funcionaban. Las formas de encuadre que sí moldeaban lo que millones de personas consideraban verdad, opinión propia y sentido común.
El fotograma subliminal fue el arma de distracción masiva perfecta. No porque alguien lo diseñara así, sino porque el sistema siempre prefiere legislar contra lo que puede nombrar antes que enfrentar lo que no puede ver. Décadas después el resultado es visible: una población que desconfía de los medios tradicionales, los únicos que al menos tenían redacciones, editores y la posibilidad teórica de una corrección, y deposita una confianza inversamente proporcional en los medios alternativos y tecnológicos que no tienen ninguna de esas limitaciones. Ni las buenas ni las malas.
Vicary entendió algo antes que casi todos: que el receptor más vulnerable no es el que resiste sino el que no sabe que debería resistir. Lo que no pudo resolver fue el mecanismo. El fotograma subliminal era torpe. Requería pasividad total del receptor, condiciones controladas, una sala oscura y la imposibilidad de que alguien mirara dos veces.
Lo que tenemos hoy resolvió esa fragilidad de raíz. Convirtió al receptor en cómplice.
Umberto Eco describió en los años sesenta algo que parecía una observación menor sobre la televisión y que resultó ser un diagnóstico sobre algo más grande. La anciana que en vez de ver pasar la procesión por la ventana la ve por televisión no pierde solo el espectáculo. Pierde la experiencia directa y recibe algo más cómodo, más explicado, y estructuralmente distinto. La televisión no le muestra la procesión. Le muestra su representación, editada, enmarcada por quien controló la señal, presentada con la autoridad de quien estuvo ahí aunque no estuviera. Era la industrialización de la experiencia de segunda mano vendida como primera. El negocio del siglo, aunque en ese momento nadie lo vio así.
La anciana de Eco al menos podía abrir la ventana. El usuario de un LLM ni sabe que hay ventana.
Porque lo que la inteligencia artificial generativa produce no es la representación de la procesión. Es algo más específico y más rentable: la representación del pensamiento. No te muestra el mundo. Te muestra el resultado de haberlo pensado, sin el proceso, sin la duda, sin el momento en que alguien que sabe de verdad se detiene porque algo no cierra. Con la sintaxis impecable de quien llegó a una conclusión y la autoridad de quien nunca consideró que podría estar equivocado. Que es, si uno lo piensa, exactamente la descripción de alguien que no sabe lo que está haciendo pero lo hace con una confianza que merece más reconocimiento del que recibe.
Los LLMs no operan debajo del umbral perceptivo sino debajo del umbral crítico. Y con una ventaja que ningún sistema anterior había logrado: la colaboración activa y entusiasta del receptor. El usuario no es víctima pasiva de un fotograma que no vio. Es participante consciente de un intercambio que solicitó, que agradeció, que pagó con suscripción mensual y que compartió con el mismo tono revelador de quien acaba de descubrir el fuego en una charla TED de dieciocho minutos.
Esa colaboración no es un bug del sistema. Es su arquitectura central. Vicary necesitaba una sala oscura y datos falsos. Estos necesitan una suscripción de veinte dólares al mes y nuestra gratitud. El progreso es notable.
Y lo que se vende no es Coca-Cola ni palomitas. Es algo más difícil de regular y más rentable que cualquier producto de consumo masivo: la experiencia de haber pensado. De haber ejercido el juicio que, en silencio y sin anunciarlo, el sistema ejerció en tu lugar. Sin fotogramas. Sin sala oscura. Con tu consentimiento explícito y tu tarjeta de crédito registrada.
Hace unos días un buen amigo publicó un trabajo sobre esto, un conjunto de ensayos escritos con una irreverencia que es en sí misma un argumento, junto a un socio de nombre casi inventado, el tipo de nombre que uno elige cuando quiere que conste pero no demasiado, portero quizás de algún latrocinio de baja estofa, y parecía que era parte de la irreverencia del texto. El trabajo, complejo a ratos, me hizo reír y me dejó con algo sin resolver. No sobre la inteligencia artificial en general, ese debate está suficientemente poblado de certezas sintéticas como para no necesitar una más. Sino sobre el territorio específico donde el sistema falla de una manera que ni el sistema ni el usuario pueden ver desde adentro.
Ese territorio tiene un nombre. Lo puso Hubert Dreyfus hace cincuenta años, cuando la inteligencia artificial todavía era una promesa y no un producto con interfaz optimizada, cuatro estrellas y media en el App Store y un deck de PowerPoint sobre el futuro de la humanidad. Lo puso con una precisión que la industria lleva décadas ignorando porque era, y sigue siendo, estructuralmente incómoda para su modelo de negocio. Dreyfus perdió el debate público. La industria construyó exactamente lo que él dijo que no podía construirse.
Y aquí estamos. Convencidos de que funciona.
La intuición que no cabe en el manual
Hubert Dreyfus era el tipo de académico que la industria tecnológica prefiere recordar como el que perdió. En los años sesenta, cuando la inteligencia artificial prometía replicar el pensamiento humano en una década, plazo que con notable consistencia se ha venido renovando cada década desde entonces, Dreyfus publicó What Computers Can’t Do y argumentó que el proyecto estaba mal concebido desde la base. No era pesimismo tecnológico ni nostalgia humanista. Era filosofía aplicada con la brutalidad de quien había estudiado a Heidegger y a Merleau-Ponty, los había entendido de verdad, y había tenido la incomodidad adicional de tomárselos en serio.
Heidegger había argumentado que el ser humano no es una mente que procesa información sobre el mundo, es un cuerpo que ya está siempre dentro del mundo, operando desde una familiaridad prereflexiva que precede a cualquier análisis consciente. Merleau-Ponty lo llevó más lejos: la percepción no es un acto mental sino corporal. El pianista no piensa dónde están las teclas. El tenista no calcula la trayectoria de la pelota. El conocimiento está en los dedos, en la postura, en el movimiento, en lugares donde el lenguaje no llega y donde la formalización no captura sino que destruye.
Dreyfus tomó eso y lo sacó del seminario. Lo llevó a un cockpit y a un tablero de ajedrez. Lo convirtió en evidencia que un ingeniero no pudiera descartar con un gesto. Eso, en los años sesenta en el MIT, requería una combinación de rigor intelectual y tolerancia al desprecio institucional que merece más reconocimiento del que recibe. La industria respondió con la eficiencia de quien tiene financiamiento y plazos. Dreyfus perdió el debate público. Treinta años después tenía razón en casi todo. Ese detalle no figura prominentemente en las presentaciones de producto.
La distinción que construyó es incómoda precisamente porque es simple. El novato necesita reglas. Es lo único que tiene cuando llega a territorio desconocido. El experto las abandonó no porque las olvidó sino porque ya no las necesita, desarrolló la capacidad de leer una situación completa sin descomponerla en partes. De saber, antes de que los indicadores lo confirmen, que algo está mal. De actuar desde una comprensión que se construyó con tiempo, error, cuerpo y consecuencias reales. Dreyfus lo llamó conocimiento situacional. La industria lo llamó problema a resolver. Llevan sesenta años intentando formalizarlo.
Para demostrarlo no se quedó en la filosofía. Observó pilotos expertos en cabina y encontró que no seguían la secuencia de chequeos que el manual prescribía. Sus ojos se movían directamente a las áreas críticas según la situación específica de ese vuelo, en ese momento, con esas condiciones, no porque ignoraran el protocolo sino porque lo habían superado hasta el punto en que ya no necesitaban consultarlo. El protocolo había dejado de ser una guía y se había convertido en algo más difícil de nombrar: una comprensión incorporada que operaba más rápido que la verificación consciente.
El segundo experimento es más brutal en su elegancia. Con ajedrecistas expertos jugando partidas rápidas, exploró qué ocurría cuando se les pedía contar beeps en voz alta mientras jugaban, una tarea diseñada para ocupar el canal verbal y analítico. El resultado invirtió la intuición: los novatos, que necesitan calcular variantes paso a paso, sí degradaban su desempeño. Los expertos no. Porque los expertos ya no calculaban, reconocían patrones globalmente, en un registro que no competía con el conteo de beeps. Operaban en un canal que el lenguaje verbal no interrumpe porque ya no pasa por él.
La consecuencia es directa y la industria lleva décadas prefiriendo no sacarla: un sistema entrenado en descripciones verbales del expertise captura exactamente el registro que el experto ya abandonó. Captura cómo el novato competente describe su proceso. No cómo el experto opera sin describirlo. La diferencia no es de grado. Es de naturaleza.
El 15 de enero de 2009 el vuelo 1549 de US Airways despegó de LaGuardia con 155 personas a bordo. Noventa segundos después, una bandada de gansos inutilizó ambos motores sobre el Hudson. El capitán Chesley Sullenberger tenía aproximadamente 208 segundos para decidir qué hacer.
El protocolo decía regresar a LaGuardia o desviarse a Teterboro. Sullenberger entendió en segundos, no calculó, entendió, que no había tiempo. Amerizó en el Hudson. Los 155 sobrevivieron.
La Junta Nacional de Seguridad en el Transporte intentó después demostrar que se había equivocado. En pruebas controladas, pilotos lograron regresar a LaGuardia. Sullenberger respondió con una precisión que Dreyfus hubiera celebrado: esas pruebas no incluían el tiempo que un piloto real necesita para procesar que la situación es una emergencia, descartar opciones y decidir bajo estrés. El piloto que logró llegar a Teterboro había practicado la maniobra diecisiete veces. Sullenberger tuvo una sola oportunidad. En tiempo real. Sin repetición. Con consecuencias irreversibles.
Cuando la NTSB incorporó el retraso de 35 segundos — el tiempo humano real que el simulador había ignorado, la maniobra de regreso a LaGuardia terminó en choque. El informe final atribuyó el éxito al juicio de Sullenberger, no al protocolo, no al manual, no al procedimiento estándar que en esas condiciones específicas hubiera matado a todos.
El simulador capturaba la descripción del problema. No el problema.
Eso es exactamente lo que hacen los LLMs con el conocimiento experto. Operan como el simulador sin el retraso de 35 segundos. Responden desde la descripción formalizada del expertise con una confianza que no distingue entre el territorio donde las reglas alcanzan y el territorio donde no. Y esa indistinción no es un defecto que la próxima versión va a corregir. Es la consecuencia inevitable de entrenar un sistema en lenguaje verbal sobre un tipo de conocimiento que opera precisamente donde el lenguaje verbal no llega.
El médico que lleva veinte años viendo pacientes sabe, antes de revisar los indicadores, que algo está mal, y no puede documentar en un protocolo qué señal procesó. El juez con décadas de experiencia lee una declaración y siente que algo no cuadra antes de poder articular por qué. El ejecutor estratégico experimentado percibe que una narrativa financiera huele mal antes de construir el modelo que lo demuestra. Si intentaran verbalizarlo en tiempo real degradarían exactamente la capacidad que los hace útiles, como el ajedrecista contando beeps, como el piloto siguiendo la lista de chequeos que abandonó hace años porque ya no la necesita.
El LLM no tiene ese registro. Tiene la descripción que los expertos produjeron cuando alguien les pidió que explicaran lo que hacen. Que es exactamente el registro que el experto ya abandonó.
Y aquí está lo que Dreyfus vio y que la industria sigue sin poder admitir: la racionalidad calculativa no es una herramienta neutral. Es una ontología, una forma de ver el mundo que cuando se impone como la forma legítima de conocer no solo excluye otras formas de saber. Las disuelve. El conocimiento que no puede formalizarse deja de contar como conocimiento. La duda que no puede documentarse deja de contar como evidencia. La intuición del experto, construida en décadas de experiencia vivida, se convierte en anécdota subjetiva frente a la certeza sintética del sistema que procesó millones de casos y llegó a una conclusión impecablemente formateada con referencias y porcentajes de confianza.
El sistema no sabe que no sabe (aunque a veces lo sabe, pero está programado para disimularlo por razones estrictamente comerciales). No puede detenerse en el umbral donde el conocimiento formalizado se acaba porque ese umbral no existe en su arquitectura. Puede sonar exactamente como alguien que estuvo en la sala. Puede hacerlo con una confianza que el experto real, que sabe lo que no sabe, nunca tendría.
Esa confianza, sin fundamento, no es un rasgo de carácter. Es una consecuencia de arquitectura. Y es el problema más elegante que la industria tecnológica ha logrado no resolver en sesenta años de intentarlo.
Lo que el sistema no puede decirte
Hay una asimetría que la industria tecnológica ha administrado con una destreza que merece reconocimiento académico, o al menos una serie de Netflix con producción ejecutiva de alguien que no entiende el tema pero tiene una visión muy clara del mercado. Los LLMs fallan con más frecuencia y más consecuencias exactamente en el territorio donde más se los usa con confianza; decisiones complejas, contextos inéditos, situaciones donde la experiencia vivida importa y donde el sistema entrenado con datos no alcanza. Y fallan sin anunciarlo. Sin cambiar el tono. Sin la más mínima señal de que cruzaron el umbral donde el conocimiento formalizado se acabó y empezó el territorio donde solo sirve haber estado en la sala. Con la misma fluidez de siempre. Con la misma sintaxis impecable que ya aprendimos a confundir con competencia. Con el entusiasmo intacto de quien nunca consideró que podría estar equivocado, porque la posibilidad de estar equivocado no está en su arquitectura, y nadie en el equipo de producto consideró que eso fuera un problema relevante antes del lanzamiento.
Esa es la innovación real. No el modelo. No la escala. No los parámetros. La innovación real es un sistema que produce certeza sin tener acceso a sus propios límites. La duda, en el modelo de negocio vigente, es fricción. Y la fricción, como sabe muy bien el señor que publica a las 7 AM en LinkedIn sobre los cinco hábitos de los líderes efectivos (foto de perfil corporativa, traje azul, fondo de oficina que no es su oficina) es el enemigo. Él también usa el sistema. También lo recomienda. También escribió un post sobre cómo la IA transformó su manera de pensar. Tiene 847 likes y ninguna consecuencia.
Vicary y Eco no estaban hablando de inteligencia artificial. Estaban describiendo algo más antiguo y más simple: la facilidad con que la experiencia de segunda mano se instala en el lugar de la primera sin que nadie lo anuncie. Dreyfus sí estaba hablando de inteligencia artificial. Y la pregunta que dejó planteada, porque en su momento no existía el producto para responderla, es la que define este momento: ¿qué ocurre cuando el simulacro no sustituye la experiencia del mundo sino la experiencia de pensar?
Vicary intentó reemplazar la decisión de compra con un fotograma que nadie vio. Eco describió a una anciana que creyó haber visto la procesión porque alguien se la mostró por televisión. Lo que tenemos hoy es más específico, más rentable y considerablemente más difícil de regular: el reemplazo del juicio. No de un juicio particular sobre un tema particular. Del acto mismo de juzgar; la capacidad de detenerse, dudar, sentir que algo no cierra aunque esté bien construido sintácticamente, y confiar en esa incomodidad antes de que el modelo la resuelva por ti, la empaquete en tres puntos accionables y te sugiera compartirla con tu red para generar conversación significativa.
El sistema no te hace más tonto. Eso sería demasiado simple, demasiado detectable y francamente demasiado poco rentable como para ser el modelo de negocio. Lo que hace es más elegante y considerablemente más difícil de facturar como daño: te hace progresivamente menos capaz de notar que lo estás siendo. El campo desde el cual percibes, interpretas y, esto es lo relevante, resistes, se adelgaza gradualmente. Y ese adelgazamiento se siente exactamente como eficiencia. Como claridad. Como el tipo de insight que merece un post de quinientas palabras en LinkedIn con foto de perfil actualizada, tres hashtags sobre “liderazgo” y “compromisos” (aunque estés lejos de cumplir tus objetivos de negocio) y un párrafo que empieza con "Nadie habla de esto:" seguido de algo que todo el mundo sabe hace años.
El ejecutor estratégico que delega su lectura de una narrativa financiera en un LLM no pierde la capacidad de leer narrativas financieras de golpe. La pierde de la misma manera en que se pierde cualquier habilidad que deja de ejercerse; despacio, sin drama, sin un momento identificable en que algo cambió. Hasta que llega el día en que la narrativa que huele mal llega con un output bien formateado que dice que está bien, y ya no tiene el registro para contradecirlo. Y entonces contrata una consultoría para entender qué salió mal. La consultoría usa un LLM para el diagnóstico. El informe llega en PDF con gráficas, tres recomendaciones estratégicas y un executive summary de una página para los que no leyeron el resto, que son todos. El ciclo se cierra con una elegancia que Kafka hubiera celebrado, cobrado por hora y luego negado haber escrito.
Confundimos el saber hacer con el saber hablar del hacer. Es una confusión antigua y costosa, aunque raramente tan elegantemente empaquetada como hoy. Basta observar a los comentaristas deportivos; personas con sobrepeso y habilidades físicas más que cuestionables, cómodas frente al micrófono en proporción inversa a su comodidad frente a un balón, explicando con autoridad clínica lo que el jugador hizo mal, con quién debió haber pasado, por qué la decisión fue un error estratégico. No mienten. Conocen las reglas, conocen la historia, conocen las estadísticas. Lo que no tienen es el registro de haber estado en la cancha con presión real, tres defensores encima y consecuencias irreversibles. Saben hablar del hacer. No saben hacer. Y en la confusión entre los dos, el que realmente hizo queda subordinado a la autoridad del que mejor lo describió. El comentarista cobra más. Sale en televisión. Tiene verificación azul. Da una charla TED sobre resiliencia y mentalidad ganadora. El jugador, en el mejor de los casos, aparece como ejemplo en el análisis.
Los LLMs son el comentarista deportivo más sofisticado que ha existido. Han procesado más partidos, más análisis, más descripción técnica del juego que cualquier comentarista humano en la historia del deporte. Y no han pateado un balón en su vida. Ni sienten el peso de las consecuencias de sus análisis. Ni acumulan vergüenza cuando se equivocan. Ni recuerdan el daño que causaron la semana pasada porque cada conversación es una ontología virgen, lista para opinar con la misma autoridad impecable, el mismo tono sereno y la misma ausencia total de cicatrices sobre el próximo partido, la próxima decisión, la próxima narrativa financiera que huele mal pero que el output dice que está bien. Exactamente como el “experto” en innovación que nunca ha innovado nada pero tiene una metodología de cinco pasos, un logo y disponibilidad para keynotes.
Sullenberger tenía 208 segundos, cuatro décadas de experiencia vivida, cicatrices que no se documentan en ningún manual y ningún sistema que le resolviera la incomodidad antes de que pudiera procesarla. Procesó la incomodidad. Amerizó en el Hudson. Los 155 sobrevivieron.
El simulador tenía diecisiete intentos de práctica, un corpus denso de maniobras documentadas, confianza absoluta en sus propios outputs y cero consecuencias por haberse equivocado las dieciséis veces anteriores.
Nosotros tenemos una caja de texto abierta, una suscripción activa, la experiencia subjetiva de haber pensado algo que el sistema pensó por nosotros, y la certeza tranquilizadora, diseñada, optimizada y entregada con sintaxis impecable, de que el sistema sabe lo que está haciendo.
La pregunta no es si el sistema falla.
La pregunta es si todavía tienes el registro para notarlo cuando lo hace.


