El Mito de la Decisión “Basada en Datos”
Decisión, cálculo y la ilusión contemporánea de objetividad
La falacia de la objetividad numérica
Durante más de veinte años he trabajado en industrias que viven de decidir bajo incertidumbre: crédito corporativo, factoraje, valuación de empresas, mercado de valores, estructuración de IPOs y seguros. Cambian los mercados, los productos y los sistemas; el error estructural se repite con una regularidad casi tranquilizadora. No es un problema de sector ni de tecnología. Es un problema de método.
En las últimas décadas se instaló una convicción cultural poderosa —popularizada incluso por el cine, desde Moneyball en adelante—: que el número vino a reemplazar la intuición, que el dato vino a disciplinar al juicio. La historia es atractiva y, además, funcional. Permite creer que el conflicto fue resuelto. Pero es incompleta. Lo que rara vez se dice es qué tipo de número y qué clase de intuición están realmente en juego.
En la práctica cotidiana del riesgo ocurre algo distinto. Intuiciones humanas —sobre personas, culturas organizacionales o viabilidad de un negocio— son convertidas en números. Scores, semáforos, matrices. El procedimiento es conocido y, precisamente por eso, tranquilizador; sobre todo para quienes no tendrán que explicar el resultado. Una vez numerizadas, esas opiniones adquieren estatus de dato duro y comienzan a operar como si describieran la realidad, no como si la interpretaran. La cifra ordena, decide y, con la misma naturalidad, absuelve.
Ahí se consolida la distorsión central del riesgo moderno: no tanto la confusión entre lo que es y lo que se cree, sino entre decidir y justificar. El número ya no opera como instrumento de análisis, sino como cierre anticipado del razonamiento. La decisión queda tomada antes de ser pensada y, una vez tomada, deja de requerir explicación. El sistema no se equivoca: simplemente deja de hacerse preguntas.
Cuando la opinión se disfraza de dato
Durante años se repitió —en escuelas de negocio, directorios y presentaciones corporativas— una misma consigna tranquilizadora: los números vienen a corregir los sesgos de la intuición. La escena quedó fijada en el imaginario colectivo con una eficacia cinematográfica difícil de igualar. Moneyball cristalizó esa promesa: el dato frío, bien elegido, desplaza al cazador de talentos que decide por corazonadas, gestos y mitologías heredadas. La lectura dominante fue simple y seductora: menos opinión, más número; menos relato, más evidencia. Una fórmula lo suficientemente elegante como para no pedir demasiadas precisiones.
El problema es que esa moraleja se importó al mundo del riesgo de manera acrítica. Se asumió que numerizar equivalía automáticamente a objetivar. Que el solo hecho de asignar un valor bastaba para transformar una interpretación en un dato. Y ahí empezó la confusión, no como error técnico, sino como hábito intelectual.
En Moneyball, el número no triunfa porque sea número, sino porque mide algo que ocurre efectivamente en el campo. El porcentaje de veces que un jugador llega a base no es una interpretación psicológica ni una metáfora del carácter: es un hecho observable, repetible y verificable. La película no elimina el juicio experto; elimina algo más primitivo y, por eso mismo, más cómodo: la opinión que se hacía pasar por experiencia sin jamás reconocerse como tal.
Ahí aparece una distinción que el riesgo moderno suele borrar —tal vez porque obliga a hacerse cargo— y que resulta crucial para entender el fenómeno: no es lo mismo una afirmación que un juicio.
Una afirmación describe un hecho del mundo. Es verificable, independiente del observador y, en principio, no admite discusión semántica. “La empresa tuvo tres incumplimientos de pago en los últimos cinco años.” “La planta opera con equipamiento de más de veinte años.” Un juicio, en cambio, es una interpretación sobre ese hecho. Pertenece al evaluador, no al activo. “La empresa aprendió de esos incumplimientos.” “El equipamiento está bien mantenido.” El juicio puede ser razonable, incluso valioso, pero no es un dato: es una hipótesis. Y como toda hipótesis, debería permanecer abierta a revisión.
En Moneyball, los números funcionan porque se apoyan en afirmaciones. En el riesgo corporativo sucede lo contrario. No se reemplazan prejuicios por hechos; se reemplazan juicios por cifras. Lo que antes se decía en voz baja —“confío en este gerente”, “este cliente siempre responde”, “esta operación es estratégica”— se traduce ahora en un score, una ponderación o un color. El lenguaje cambia, la sustancia no. La opinión no desaparece: se vuelve opaca.
Así, la cifra deja de cumplir la función que tenía en la película. No revela una regularidad escondida en la realidad; la sustituye. El número no describe el juego: describe la confianza del evaluador. Y una vez que esa confianza se expresa como dato, adquiere un privilegio peligroso: deja de discutirse. Nadie debate un 7.4 con la misma intensidad con la que debatiría una frase como “me parece un buen operador”. El número no refuta: clausura.
Los comités a veces lo saben, aunque no siempre lo admitan. La discusión avanza hasta que alguien mira la pantalla y pronuncia la sentencia final: “el score está dentro de rango”. A partir de ese momento, los argumentos ya no buscan comprender el riesgo, sino alinearse con la cifra. El número, que supuestamente venía a disciplinar la subjetividad, termina funcionando como amparo. No decide mejor: decide sin dejar huellas.
Ahí se produce el deslizamiento central. Lo que en Moneyball era un acto de honestidad —medir lo que realmente importa, aunque incomode— se transforma, en la práctica del riesgo, en un gesto de comodidad institucional. El dato deja de ser una herramienta para ver mejor y pasa a ser un artefacto para no ver aquello que sigue siendo incómodo formular en palabras.
La paradoja es evidente: cuanto más sofisticados se vuelven los sistemas de scoring, más fácil resulta esconder dentro de ellos viejas intuiciones, ahora blindadas por la estética de la objetividad. La organización cree haber superado el reino de la opinión, cuando en realidad solo lo ha matematizado. Y esa es la antesala de la alucinación cuantitativa: no cuando el número falla, sino cuando acierta en tranquilizar.
Cuando el sistema aprende a olvidar
(Del juicio codificado a la excepción normalizada)
El efecto más corrosivo de la confusión entre afirmaciones y juicios no aparece en el momento de la decisión, sino después. Cuando algo falla. Cuando hay una pérdida, un siniestro o un default. Es entonces cuando la organización intenta reconstruir su propio razonamiento y descubre algo inquietante: el sistema decidió, pero ya no recuerda por qué. No recuerda quién decidió, ni desde dónde, ni bajo qué supuesto. Solo recuerda que decidió.
Ese olvido no es accidental. Es el resultado directo de un mecanismo que suele presentarse como razonable, incluso sofisticado. Un mecanismo diseñado, paradójicamente, para reducir la incertidumbre. El problema es que, en ese proceso, elimina algo más frágil y más costoso que el riesgo mismo: la memoria de la decisión. No se trata de una falla técnica, sino de una falla de memoria institucional, cuidadosamente normalizada.
El proceso suele comenzar con una evaluación cualitativa. Un analista, un suscriptor o un comité emite un juicio sobre aspectos que no son físicos ni directamente medibles: calidad de gestión, cultura operativa, confiabilidad del cliente, alineación de incentivos. Ese juicio se expresa en categorías comprensibles y aparentemente inocuas: muy bueno, bueno, moderado, malo, muy malo. Lenguaje común, compartido, tranquilizador. Hasta ese punto, no hay engaño. Todos saben —al menos implícitamente— que se trata de una opinión experta. Nadie la confunde todavía con un hecho.
El problema aparece en el siguiente paso. No cuando se evalúa, sino cuando se intenta operar esa evaluación. Cuando el juicio debe entrar al sistema.
Para volver esa opinión “operable”, el sistema la convierte en número:
Muy bueno = 5
Bueno = 4
Moderado = 3
Malo = 2
Muy malo = 1
A veces el rango es más sofisticado; a veces se disfraza de porcentaje, ponderación o índice compuesto. Da igual. El gesto es siempre el mismo y, por eso mismo, raramente discutido: una interpretación se codifica como magnitud. En ese acto, el juicio pierde su naturaleza. Deja de presentarse como una hipótesis formulada por alguien, bajo ciertos criterios y supuestos, y comienza a circular como un dato comparable, agregable y promediable. El sistema gana operatividad. Pierde contexto.
El fenómeno es transversal y no distingue entre registros culturales. Ocurre cuando se evalúa una planta nuclear mediante escalas “cualitativas”, cuando se invocan constelaciones familiares en una sesión terapéutica o cuando una agencia calificadora asigna una nota de riesgo financiero. Cambian los lenguajes —ingeniería, espiritualidad o finanzas—, pero el mecanismo es idéntico. La opinión adopta la forma del número y, con ella, reclama la autoridad del hecho. No porque lo sea, sino porque ahora lo parece.
Una vez convertida en cifra, la opinión entra al sistema junto con hechos de otra naturaleza. Para el algoritmo, para el dashboard y para el comité, todo es input. El porcentaje de cartera vencida de un banco —un dato contable, verificable, inapelable— convive con la calificación del “clima organizacional” de una empresa, expresada también como un número. Ambos aparecen alineados en la misma tabla, ponderados en la misma fórmula y promediados sin fricción. Como si pertenecieran al mismo plano de realidad. Como si exigieran el mismo tipo de cautela.
Ahí se produce la mutación decisiva: la opinión adquiere apariencia de hecho. No porque haya cambiado su naturaleza, sino porque el sistema dejó de distinguirla.
El número no solo simplifica; despersonaliza. Ya no importa quién evaluó, con qué experiencia, bajo qué estándares o con qué incentivos. El sistema conserva el resultado, pero elimina la autoría. Lo que fue un juicio situado en un contexto se transforma en un atributo del objeto evaluado. No parece algo que alguien pensó; parece algo que simplemente es. El riesgo deja de ser interpretado y pasa a ser administrado.
Cuando meses después ocurre un evento adverso y se revisa el expediente, lo único que aparece es el score final o la ponderación consolidada. El rastro del juicio —quién lo emitió, qué observó, qué descartó, qué estándar usó— ha desaparecido. El sistema no puede distinguir si el problema fue la realidad del activo o el optimismo del evaluador. Ambos quedaron fundidos en la misma cifra. La pregunta correcta ya no puede formularse, porque el lenguaje para hacerlo fue eliminado antes.
Esto es la amnesia institucional en su forma más pura: no olvidar hechos, sino olvidar decisiones.
Es en este punto donde la inteligencia artificial entra en escena, no como ruptura, sino como culminación. Los sistemas de riesgo crediticio o de siniestros basados en IA no parten de una observación neutra del mundo, sino de estas categorías ya codificadas. Aprenden a anticipar comportamientos futuros a partir de juicios pasados convertidos en datos. La promesa es seductora: objetivar la intuición, eliminar el sesgo humano, transformar la experiencia acumulada en predicción.
Pero lo que la IA realmente hace es estabilizar ese gesto inicial. No reemplaza el juicio: lo fija. No elimina la opinión: la generaliza. Las evaluaciones que antes alguien aplicaba con dudas, contexto y responsabilidad ahora se proyectan como probabilidades, scores o alertas tempranas. El sistema no dice “esto fue evaluado así”; dice “esto es así”. La opinión ya no aparece como interpretación situada, sino como propiedad anticipable del objeto.
La IA no solo automatiza el juicio: lo deshistoriza. Borra las condiciones bajo las cuales fue formulado y lo presenta como regularidad objetiva. Donde antes había una hipótesis sostenida por alguien, ahora hay una predicción respaldada por el modelo. Y cuanto más preciso parece el número, más fácil resulta olvidar que lo que se está anticipando no es un hecho futuro, sino la repetición sistemática de criterios pasados. Esa misma lógica atraviesa también a los sistemas de medición en tiempo real, que suelen presentarse como antídoto contra el rezago y la interpretación. La actualización continua no corrige el problema: lo acelera. La inmediatez refuerza la ilusión de objetividad, pero no restituye contexto ni memoria. El juicio sigue ahí, solo que ahora circula con latencia cero.
La pretensión de anticipación funciona así como una ilusión de objetividad reforzada. El sistema no descubre el riesgo: lo reproduce con mayor velocidad y menor fricción narrativa. Y en ese movimiento, el juicio deja de ser reconocible incluso para quienes lo diseñaron.
Y es precisamente ese olvido el que habilita la siguiente mutación.
Toda organización que decide bajo incertidumbre convive con la excepción. No hay portafolio real sin casos que se apartan de la norma, ni negocio relevante construido solo con riesgos “de manual”. El problema nunca fue la existencia de excepciones. El problema fue cómo el sistema aprendió a tolerarlas sin nombrarlas, sin asumirlas y sin registrarlas como tales.
Cuando finalmente ocurre una pérdida significativa, la revisión ex post suele arrojar una conclusión cómoda: “el riesgo cumplía con los criterios al momento de la aprobación”. Y es cierto. Cumplía con criterios que ya habían sido erosionados por un sistema que aprendió primero a olvidar y luego a tolerar lo que no podía justificar.
En ese punto, la excepción deja de ser una herramienta de flexibilidad y se convierte en una forma de gobierno implícita. No se decide romper la regla; se decide no verla. Y cuando la excepción deja de ser visible, deja también de ser controlable.
Gobernar no es calcular
(Decisión, poder y la ilusión contemporánea de certeza)
Todo lo anterior converge en un punto que suele evitarse porque incomoda: el problema no es técnico, es político. No en el sentido partidario, sino en el sentido fuerte del término: quién decide, bajo qué hipótesis y con qué capacidad real de hacerse cargo de las consecuencias. Lo demás —modelos, métricas, herramientas— viene después, aunque a menudo se lo presente como lo primero.
Los sistemas de scoring, las matrices y los dashboards no eliminaron la política de la decisión; la desplazaron. La sacaron del espacio visible del conflicto —donde alguien argumenta, firma y asume— y la reubicaron en un terreno aparentemente neutro, donde el resultado “emerge” de un cálculo. La cifra no gobierna: hace innecesario preguntar quién gobierna.
En ese desplazamiento, la tecnología no fue un mero acelerador operativo. Introdujo algo más profundo: una ilusión de cierre. Donde antes quedaban zonas explícitas de duda, ahora aparecen números. Donde antes el sistema debía admitir “no sabemos”, ahora ofrece una estimación. La incertidumbre no desaparece; se presenta mejor. Y suele alcanzar.
La inteligencia artificial no elimina los sesgos: los perfecciona. Cuando los datos son incompletos —y siempre lo son— los modelos no se detienen. Completan. Interpolan, infieren, suavizan. Donde había un vacío incómodo, ahora aparece una predicción plausible, con decimales.
El sistema no aclara que está operando por inferencia. Presenta el resultado con la misma gramática de certeza que un dato observado. La diferencia entre lo medido y lo estimado se vuelve irrelevante para quien recibe el número. Así se construye un espacio nuevo y peligroso: un espacio de certezas simuladas, donde la duda no desaparece, pero deja de ser visible.
No hace falta ser Nassim Nicholas Taleb para advertir las consecuencias. El problema no son los “cisnes negros” entendidos como eventos metafísicamente imprevisibles. El problema es más elemental y frecuente: decisiones cotidianas tomadas sobre supuestos que el sistema dejó de reconocer como tales. Los grandes desastres rara vez irrumpen como sorpresas absolutas; suelen ser el resultado acumulado de pequeñas concesiones tranquilizadas por números, imposibles de reconstruir después porque nadie recuerda qué se estaba asumiendo.
Cuando algo sale mal, la explicación adopta siempre la misma forma: “con la información disponible en ese momento, la decisión era correcta”. Tal vez lo era. Lo que ya no existe es la memoria de qué se consideró información, qué fue inferencia y qué fue apuesta. El modelo “indicaba” que era razonable. El sistema “lo absorbía”. Nadie decidió; el cálculo resolvió. Y una resolución sin autor suele resultar muy conveniente.
Ahí el gobierno se vacía de contenido. Gobernar deja de ser sostener el conflicto entre hechos, hipótesis e incertidumbre, y pasa a ser administrar outputs. No se discuten supuestos; se ajustan umbrales. No se formulan apuestas; se confía en que el sistema “ya lo tuvo en cuenta”. La responsabilidad se diluye en una arquitectura que nadie controla del todo y que, precisamente por eso, se vuelve incuestionable.
El contraste cultural con Moneyball ayuda a cerrar el círculo. La película nunca prometió eliminar la incertidumbre. Hizo algo más incómodo y honesto: la delimitó. Midió lo que efectivamente ocurría en el campo y dejó visible lo que quedaba fuera del modelo. La apuesta era explícita porque el límite también lo era. Si fallaba, se sabía por qué. El sistema podía aprender porque recordaba qué había decidido y bajo qué premisa.
Eso es lo que se pierde cuando gobernar se confunde con calcular. No la capacidad de anticipar eventos extremos, sino algo más básico y político: la posibilidad de saber cuándo un número describe un hecho y cuándo está ocupando el lugar de una decisión.
No se trata de desconfiar del dato ni de romantizar la intuición. Se trata de algo más exigente: restituir la diferencia entre dato, hipótesis y simulación, incluso —y sobre todo— cuando la tecnología los presenta con la misma apariencia de verdad. Porque cuando una organización deja de ver dónde termina el cálculo y empieza la apuesta, ya no gobierna. Solo ejecuta.
Epílogo. Tiempo, práctica y fricción
A veces me preguntan cómo llegué a observar estos fenómenos. La pregunta suele venir acompañada de una expectativa indulgente: talento, intuición, alguna forma de lucidez excepcional. La respuesta es menos elegante. No fue talento. Fue exposición. Tiempo, lugar y contexto. Haber estado, demasiadas veces, donde los números prometían cerrar lo que en realidad apenas estaban empezando a ocultar.
Pasé por economía durante la dictadura en mi país, en pleno auge de los Chicago Boys. Me formé cuando la elegancia del modelo ofrecía orden y cierre en un contexto que desalentaba toda indagación sobre sus supuestos. El rigor matemático era incuestionable. También lo era algo que entonces se naturalizaba: todo el edificio formal descansaba sobre premisas que no se discutían. El ceteris paribus operaba como cláusula de salvataje permanente. Las ecuaciones cerraban, los modelos eran impecables, pero el mundo quedaba sistemáticamente fuera del encuadre.
No concluí la carrera. La distancia entre la consistencia formal de ese aparato y sus inconsistencias sistémicas se volvió demasiado evidente. Era una disciplina entrenada para producir respuestas rápidas, no para sostener preguntas incómodas. Abandoné la estructura académica, pero no el problema. Continué formándome por fuera, de manera autónoma, buscando marcos que no confundieran precisión matemática con comprensión del mundo.
Ahí vi por primera vez cómo un sistema puede ofrecer exactitud formal a cambio de suspender la duda.
Luego seguí por la antropología social. El contraste fue brusco. Menos técnica, más fragilidad, menos rigor, pero una obsesión distinta: quién observa, desde dónde y con qué autoridad. Con dos maestros excepcionales me introduje en la epistemología, la filosofía de las ciencias y la teoría de sistemas. Aprendí algo que no volví a perder de vista: los números no aparecen solos; siempre llegan después de una decisión previa sobre qué mirar, qué dejar fuera y bajo qué criterio considerar eso legítimo.
Casi en paralelo, por una combinación de edad y oportunidad, tuve acceso temprano —en la casa de mis padres— a una computadora PC 386 XT. Aprendí a programar antes de entender del todo qué significaba hacerlo. Empecé a trabajar convirtiendo material cualitativo, impreciso y a menudo pobre, en tablas, coeficientes y gráficos para profesores universitarios.
Nada mejoraba en la calidad de los pobres datos originales. No aparecía nueva información, no se corregían los sesgos, no se volvía más riguroso el punto de partida. Pero algo cambiaba de inmediato: la forma. Y con ella, la percepción de verdad.
El mismo contenido, una vez numerizado, adquiría autoridad. Dejaba de parecer una opinión trabajosa y pasaba a presentarse como resultado. Ahí entendí —todavía sin poder nombrarlo— que el número no solo describe: produce realidad. Que su poder no reside en lo que revela, sino en lo que hace posible dejar de discutir.
Más adelante, por razones estrictamente profesionales, quedé ligado de forma permanente a entornos donde no bastaba con comprender la realidad: había que hacerla visible. Resultados, métricas, indicadores. No se pedía explicación; se pedía evidencia. Fue entonces cuando aprendí la trampa más elemental y más persistente del mundo corporativo: no solo interpretar indicadores, sino producirlos.
Diseñar un KPI no es un acto descriptivo, es una decisión constitutiva. Define qué existe para el sistema y qué queda fuera de campo. Lo que no entra en el indicador no desaparece: deja de contar. No hay neutralidad posible en ese gesto. Hay poder.
En ese recorrido apareció algo decisivo: el trabajo con dos colegas y amigos con los que empecé a cuestionar la industria del riesgo desde adentro. Ninguno de los dos proviene de la formación matemática. Tal vez por eso nunca estuvieron fascinados por la elegancia del modelo ni por la estética del score. Lo nuestro no fue un ejercicio intelectual ni una conversación brillante alrededor de una mesa con cervezas —aunque también hubo de eso—, sino un proceso más áspero: ensayo y error en negocios reales, en tecnología y en riesgo, con costos concretos, con decisiones que no siempre salían bien y con sistemas que, cuando fallaban, no sabían explicar por qué.
Ahí la crítica dejó de ser conceptual y se volvió operativa. No se trataba de denunciar abstracciones, sino de convivir con sistemas que prometían certeza y entregaban opacidad. De ver cómo los números tranquilizaban comités mientras erosionaban la capacidad de aprendizaje. De constatar, una y otra vez, que el problema no era la falta de datos, sino la pérdida de memoria sobre qué se había supuesto para producirlos.
Ese trayecto se volvió más exigente aún en un plano inesperado. Desde hace años, mis sentimientos más profundos y estables están ligados a una mujer para quien la coherencia formal nunca alcanza. Su mente matemática, su pesimismo existencial y su resistencia a aceptar conclusiones demasiado limpias me obligaron a revisar mis propios modelos como hipótesis y no como refugios. Ninguna construcción intelectual sobrevive mucho tiempo cuando se la somete a una convivencia honesta con alguien que no deja pasar lo obvio sin interrogarlo.
Por eso este texto no nace de una teoría cerrada ni de una posición cómoda. Nace de fricciones acumuladas. De haber visto demasiadas veces cómo los números adquieren autoridad sin memoria, cómo las excepciones se normalizan sin nombre y cómo la tecnología ofrece cierre allí donde debería persistir la pregunta.
No hay aquí una propuesta para abandonar el cálculo ni para romantizar la intuición. Hay algo más modesto e incómodo: reconocer que decidir siempre implica una apuesta, incluso cuando se presenta como resultado técnico. Y que cuando un sistema deja de saber qué está apostando, ya no gobierna el riesgo: simplemente lo administra hasta que algo falla.
Ese fue el aprendizaje. No teórico. Práctico. Y, por momentos, costoso.


