El Banco Invisible
Cuarenta años ignorando la infraestructura de la lealtad.
El pecado original: la ceguera como decisión política
Hay instrumentos técnicos que terminan funcionando como verdades y hay dogmas políticos que, con el tiempo suficiente, se naturalizan hasta operar como instrumentos técnicos. El FICO score pertenece a esta segunda categoría, aunque hace décadas que nadie lo presente en esos términos porque hacerlo obligaría a explicar demasiadas cosas incómodas. Se lo describe como una métrica objetiva, como la traducción algorítmica del comportamiento financiero individual. La retórica que lo rodea es la de la neutralidad: datos entran, probabilidades salen. Riesgo cuantificado. Incertidumbre domesticada. El algoritmo no opina; simplemente calcula. Y esa es, precisamente, la opinión más poderosa que puede sostenerse.
Lo que rara vez se recuerda —porque la operación fue tan eficaz que borró sus propias premisas— es que antes de convertirse en un número fue una decisión filosófica: que el individuo, aislado de sus vínculos, despojado de su red, abstraído de su comunidad, es la unidad adecuada para medir el riesgo crediticio. No la familia ampliada. No la cooperativa informal. No el circuito productivo del barrio. El individuo. Una decisión que el sistema tomó sin someterla a votación, sin anunciarla como lo que era y sin permitir que nadie le preguntara sobre sus fundamentos.
Esa elección no surgió de la evidencia empírica ni del estudio de cómo las personas realmente sobreviven en contextos de volatilidad. Fue la aplicación coherente de un supuesto previo, más antiguo y mucho menos inocente. Cuando Thatcher afirmó que “la sociedad no existe”, que solo existen individuos y familias, no estaba ofreciendo una descripción sociológica. Estaba formulando una ontología operativa con consecuencias que sus sucesores en los centros financieros anglosajones supieron traducir al lenguaje de la estadística con una fidelidad que habría enorgullecido a cualquier doctrinario. Lo demás —las redes, las comunidades, las tramas de reciprocidad— quedaba relegado al terreno de lo anecdótico o lo moral, pero en ningún caso de lo económico. El FICO score, creado técnicamente en los años cincuenta, esperó pacientemente su momento: fue la revolución thatcheriana y reaganiana la que lo institucionalizó, lo masificó y lo exportó al mundo como si fuera una ley de la naturaleza y no la consecuencia de una elección política.
El homo economicus nunca fue un hallazgo empírico. Fue una convención teórica elevada, por razones más políticas que epistemológicas, al rango de fundamento universal —con la misma elegancia con que se eleva a principio lo que simplemente resultaba conveniente para quienes diseñaban el sistema. Y cuando esa convención descendió desde los manuales hacia los sistemas de información, se convirtió en arquitectura. Los modelos de scoring que se globalizaron desde los centros financieros anglosajones hacia América Latina, Asia y África no exportaron únicamente una técnica estadística. Exportaron una antropología.
En esa antropología el riesgo es individual, la responsabilidad es individual, el fracaso es individual y la evaluación no puede ser otra cosa: una biografía de deuda sin contexto, sin red, sin los vínculos que en la realidad determinan si alguien paga o no paga. Eliminar la red no fue un accidente metodológico ni una restricción computacional. Fue una decisión. Porque aceptar que la red familiar o productiva puede funcionar como colateral implicaría admitir que el individuo no es autosuficiente, que su capacidad de pago depende de una estructura de reciprocidades que lo precede y lo sostiene. Y esa admisión resquebrajaría la ficción del individuo soberano que sostiene la arquitectura entera. Mejor, entonces, no verla. El sistema financiero aprendió muy temprano que hay preguntas que es preferible no formular, sobre todo cuando la respuesta obliga a rediseñar el modelo.
La consecuencia es observable en los márgenes del sistema, aunque el sistema prefiera no mirar los márgenes con demasiada atención. Cientos de millones de personas quedan clasificadas como no bancarizables no por ausencia de comportamiento financiero, sino porque el comportamiento que exhiben no es legible bajo la ontología elegida. Su solvencia existe, pero está distribuida. Su historial existe, pero es reticular. Y el modelo los descarta con la misma eficiencia con que descarta cualquier otro ruido estadístico —o los incorpora a tasas que en los evangelios tienen nombre propio: usura.
El sistema ve perfectamente aquello que decidió medir. Lo que quedó fuera no fue excluido por error sino por coherencia doctrinal. La exclusión financiera masiva no es un bug del algoritmo. Es la consecuencia consistente de una elección ontológica que convirtió al individuo aislado en la única unidad legítima de análisis del riesgo. Ese es el pecado original: no una falla de datos, sino una definición previa de lo que cuenta como dato.
El grafo que el sistema sí sabe leer
Existe una distinción que el debate sobre inclusión financiera rara vez formula con la precisión necesaria, quizás porque formularla con precisión obliga a responderla: la diferencia entre una limitación técnica y una decisión acerca de qué tipo de información merece convertirse en señal. No es lo mismo afirmar que la red no es medible bajo estándares prudenciales que admitir que se ha decidido no incorporarla al perímetro del modelo. La primera formulación sugiere incapacidad. La segunda implica voluntad. Y el sistema financiero, que ha demostrado una capacidad notable para distinguir entre ambas cuando le conviene, ha preferido durante décadas habitar la primera.
Durante décadas, el sistema financiero ha administrado esa frontera con una tranquilidad llamativa. La red —familia ampliada, cadena productiva informal, circuito migratorio, estructura de reciprocidad barrial— aparece como ruido cuando se trata de otorgar crédito. Se invoca la dificultad de estandarizar vínculos, la necesidad de trazabilidad individual, la prudencia regulatoria. Todo eso es razonable, hasta que se observa lo que el mismo ecosistema tecnológico hace cuando el objetivo no es prestar sino intervenir. Ahí la complejidad desaparece con una velocidad que debería, al menos, generar alguna incomodidad intelectual.
La arquitectura necesaria para mapear interdependencias sociales no es tecnología futurista ni promesa de laboratorio. Es tecnología desplegada y operativa a escala estatal, con una granularidad que ningún comité de crédito admitiría explorar en público —no porque sea imposible, sino porque las preguntas que respondería resultan difíciles de ignorar una vez formuladas. La diferencia no está en la capacidad técnica. Está en la dirección del uso.
Cuando ICE ejecuta operativos masivos de deportación, no persigue individuos aislados. Los identifica como nodos dentro de tramas: colocalización en espacios de trabajo, coincidencias de dispositivos, patrones de movilidad compartida, vínculos familiares, flujos transfronterizos de remesas. El flujo periódico de dinero hacia una comunidad de origen —que para el sistema bancario rara vez constituye señal suficiente de solvencia— se convierte aquí en traza estructural. No habilita crédito. Habilita localización. No prueba capacidad de pago. Prueba pertenencia a una red identificable. Cuando el objetivo es deportar masivamente, la red es perfectamente medible. Curiosamente, cuando el objetivo es prestar, esa misma red se vuelve de repente demasiado compleja, demasiado difusa, demasiado poco estandarizable para el modelo. La complejidad, al parecer, es selectiva.
Más lejos aún, sistemas de análisis algorítmico como Lavender, The Gospel o Where’s Daddy? —documentados por investigaciones independientes en el contexto de la campaña militar israelí en Gaza— operan precisamente porque renunciaron al individuo como unidad cerrada. La evaluación se construye sobre topologías: densidad de comunicaciones, proximidad física entre nodos, centralidad dentro de entramados familiares y operativos. El llamado daño colateral no aparece como accidente externo al modelo; es una variable incorporada en la función de cálculo. La red no es invisible ni inasible. Es cuantificada con suficiente precisión como para estimar radios de impacto y anticipar consecuencias sobre estructuras completas. Lo que para el sistema bancario es inconmensurable, para el sistema militar es una variable de optimización.
La constatación es incómoda pero técnica: la tecnología sabe leer la red cuando necesita hacerlo. Lo que cambia no es la posibilidad de medición, sino el propósito. En el terreno del crédito, la misma red se vuelve vaporosa. La reciprocidad intergeneracional que sostiene durante décadas un flujo de remesas no alcanza categoría de colateral. La solvencia distribuida no encaja en la gramática individual que el modelo exige. No estamos frente a una brecha tecnológica. Estamos frente a una inercia ontológica.
El análisis de grafos no tiene ideología propia. Puede emplearse para desarticular una red o para estimar su capacidad de absorción de shocks. Puede calcular vulnerabilidades o medir resiliencias. La herramienta es la misma. Lo que varía es la decisión sobre para qué se la utiliza. Si el mismo grafo que permite identificar un nodo para aislarlo puede estimar la densidad de reciprocidad que lo sostiene, la discusión deja de ser metodológica. No se trata de si la red es medible. Se trata de si conviene medirla cuando el resultado obligaría a reconocer que el riesgo no siempre es individual y que la solvencia puede estar distribuida.
La tecnología ya demostró que puede. La pregunta es por qué, cuando se trata de prestar, el sistema de repente descubre que la complejidad lo supera. O quizás nadie se ha hecho aún la pregunta.
Tres herejías y un milagro que el FICO nunca leyó
Antes de avanzar conviene despejar una coartada habitual: que la red social es inconmensurable, que los vínculos comunitarios carecen de traducción financiera rigurosa, que la reciprocidad intergeneracional es demasiado blanda para operar como colateral. No es una postura técnica. Es una decisión adoptada frente a un cuerpo de conocimiento que lleva medio siglo afirmando lo contrario, con evidencia publicada y, en un caso notable, con el Premio Nobel como respaldo institucional. La ciencia social no esperaba que las finanzas formularan el problema. Ya lo había resuelto. Lo que ocurrió después fue más incómodo: el sistema financiero decidió no leer.
Cuando Robert Putnam estudió por qué comunidades con condiciones materiales comparables obtenían resultados económicos distintos, no pensaba en scoring crediticio. Pero lo que encontró resulta difícil de ignorar sin esfuerzo deliberado. La confianza acumulada, las normas de reciprocidad y la densidad de redes de cooperación no son adornos culturales: son activos. Se acumulan, se erosionan, se transfieren entre generaciones y determinan la capacidad de absorber shocks y sostener compromisos bajo incertidumbre. En términos financieros, era una teoría del colateral distribuido. El sistema financiero la archivó como literatura interesante.
Elinor Ostrom llevó la herejía más lejos. Demostró que comunidades sin supervisión centralizada gestionan recursos comunes y riesgos compartidos con una eficiencia que mercado y Estado rara vez alcanzan simultáneamente. El mecanismo no era romántico: monitoreo mutuo, sanciones graduadas, reputación como capital circulante, reglas adaptadas al contexto. En 2009 recibió el Nobel por demostrar lo que la ortodoxia consideraba improbable. Mientras tanto, el riesgo seguía modelándose como si la comunidad fuese irrelevante. El Nobel, al parecer, no constituía señal suficiente.
Luego está Mark Granovetter, cuyo aporte es más incómodo porque toca la arquitectura misma del modelo. No todos los vínculos son equivalentes. Los lazos fuertes proveen resiliencia y absorción de shocks; explican por qué una familia migrante sostiene compromisos en contextos donde cualquier scoring la habría declarado insolvente. Pero son los lazos débiles —los puentes entre clústeres— los que introducen información nueva y liquidez externa. Una red sin lazos débiles se consume; una red con ellos respira. Medio siglo después, el scoring dominante sigue evaluando individuos como si flotaran en el vacío.
Tres autores. Décadas de evidencia. Un Nobel. Y una conclusión convergente: que la unidad económica relevante no es el individuo sino la red; que el riesgo no es propiedad personal sino emergente de estructuras de vínculo. El sistema procesó esa información con eficiencia admirable: la ignoró.
Todo esto podría haberse quedado en teoría. Pero hubo un experimento histórico que complica la comodidad del modelo. En 1978, cuando Deng Xiaoping abrió la costa china, no había burós de crédito ni scoring masivo. Lo que había eran redes familiares densas, reputación intrageneracional como garantía y monitoreo mutuo como disciplina. Peter Berger documentó cómo esas tramas funcionaban como infraestructura económica antes de que ningún banco decidiera reconocerlas como tales.
Lo que emergió no fue a pesar de esas redes, sino sobre ellas: el crecimiento más acelerado y sostenido que el capitalismo haya producido en tiempos modernos. Un milagro protagonizado por actores sin historial crediticio formal pero con capital social circulante. El capitalismo más exitoso del siglo se apoyó en aquello que el modelo financiero occidental había descartado como demasiado blando para medir.
La ironía histórica tiene filo propio. Ese mismo capital social que sostuvo el despegue se convirtió luego en infraestructura de disciplinamiento estatal. La red que construyó el milagro es hoy también instrumento de control. La lección no es sentimental. Es estructural.
La red siempre fue medible. La pregunta fue quién haría el trabajo de hacerlo.
El activo dormido: cuarenta años de datos que nadie leyó
Un flujo de remesas no es una transferencia de dinero. Es la telemetría de un compromiso. Es, probablemente, la base de datos más extensa, persistente y sistemáticamente subutilizada de comportamiento financiero disciplinado en el planeta. Cada envío es un dato. Cada semana o quincena cumplida es una observación. Cada año ininterrumpido es una serie temporal que ningún modelo de scoring ha tenido la curiosidad —o la capacidad intelectual— de leer como lo que es. El migrante que envía dinero cada semana o quincena durante veinte años no es un cliente sin historial. Es un cliente con el historial más largo y más verificable que el sistem financiero ha decidido, con notable consistencia, no verificar. Una decisión que requiere, hay que reconocerlo, cierto esfuerzo sostenido.
El sistema bancario, entretanto, observa a ese mismo migrante y registra ausencia. Lo que no registra es que esa persona lleva años demostrando, con una regularidad que envidiaría cualquier instrumento de renta fija, que puede y quiere cumplir compromisos bajo presión. Que lo hizo durante la pandemia, cuando la arquitectura financiera formal reducía operaciones y los analistas debatían en seminarios virtuales sobre la resiliencia de los sistemas de pago. Las remesas, mientras tanto, seguían llegando. Sin seminario. Sin panel de expertos. Sin que nadie lo registrara como evidencia de solvencia.
La historia larga de los flujos remeseros es, en realidad, la historia de una resiliencia mal leída. Las remesas atravesaron la crisis de deuda latinoamericana de los años ochenta, persistieron durante la crisis del Tequila cuando el peso mexicano se desplomó y el sistema bancario necesitó rescates, resistieron la crisis financiera global de 2008 y, durante la pandemia de 2020, no colapsaron; en corredores como México y Centroamérica incluso marcaron máximos históricos. En cada episodio los montos variaron y los canales se ajustaron. Pero el flujo no se extinguió.
No lo hizo porque el mecanismo que lo sostiene no es contractual sino relacional. No depende de cláusulas ejecutables sino de obligaciones distribuidas en una red de pertenencia y reputación que ha demostrado, bajo presión sistémica, una elasticidad que ningún contrato estandarizado ha logrado replicar. Las remesas no sobreviven por diseño institucional. Sobreviven por vínculo.
Lo mismo ocurre, en otra escala, con la PyME de barrio, el taller, el puesto de mercado que articula proveedores y clientes en circuitos de alta interdependencia. Son nodos dentro de sistemas circulatorios productivos cuya salud no puede leerse en el balance individual de ninguno de sus componentes, del mismo modo que la salud de un organismo no puede determinarse analizando una célula en el vacío. La empresa que lleva quince años siendo proveedor principal de tres clientes no es un riesgo individual mal documentado. Es un nodo cuya caída genera externalidades que la red entera tiene incentivos concretos para evitar, con una eficiencia que ningún fondo de garantía diseñado desde arriba ha logrado replicar. Y no figura en el scoring tradicional porque incorporarla obligaría a admitir que el individuo aislado no es la única unidad económica relevante. Admitir eso es exactamente lo que el modelo lleva cuarenta años evitando con una disciplina que, irónicamente, superaría el umbral de cualquier score que él mismo administra.
Cuarenta años de datos. Millones de transacciones. Series históricas que cualquier actuario reconocería como extraordinariamente informativas si alguien se tomara el trabajo de interpretarlas como comportamiento financiero estructurado y no como flujo macroeconómico sin sujeto. No estamos ante escasez de información. Estamos ante una lectura selectiva sostenida con la coherencia de quien sabe exactamente lo que encontraría si mirara y ha decidido, con pragmatismo admirable, no mirar.
El activo existe. Es masivo. Es verificable. Y lleva cuatro décadas generando rendimientos para las familias que lo administran sin que ninguna institución financiera haya tenido la iniciativa de preguntarse si podría hacer lo mismo.
La inversión del vector: cuando α, β y γ reemplazan al FICO
Si la arquitectura de grafos ha demostrado capacidad técnica para mapear una red con el fin de desarticularla —identificar nodos, ponderar vínculos, calcular puntos de quiebre, estimar radios de impacto— entonces esa misma arquitectura puede, sin un solo desarrollo adicional, hacer lo contrario: leer la red para capitalizarla. No estamos ante una promesa ni ante una hipótesis de laboratorio. Es el mismo instrumental aplicado en dirección inversa. El vector cambia. La física, como suele ocurrir con las cosas que el sistema prefiere ignorar, permanece.
Lo que cambia con el vector no es la tecnología. Es la pregunta. Y es una pregunta que el modelo tradicional lleva décadas evitando con una disciplina que, hay que reconocerlo, resulta en sí misma notable. El modelo pregunta: ¿tiene este individuo, considerado en aislamiento, suficiente historial de deuda para estimar su probabilidad de incumplimiento? Es una pregunta coherente si se acepta la premisa de que el individuo aislado es la unidad correcta de análisis. El problema es que esa premisa es estructuralmente falsa. Y un modelo construido sobre una premisa estructuralmente falsa produce resultados coherentes con su error: exclusión masiva de personas solventes y validación generosa de quienes han aprendido a comportarse dentro de la ontología del sistema.
La pregunta pertinente es otra. No ¿qué biografía financiera individual exhibe este nodo?, sino ¿qué posición ocupa en su red?, ¿qué densidad de vínculos lo sostiene?, ¿qué capacidad de absorción tiene el sistema del que forma parte? Esas preguntas tienen traducción matemática. No requieren metafísica ni retórica. Requieren variables. Llamémoslas α, β y γ. No como adorno académico ni como notación destinada a impresionar comités de inversión que nunca las pronunciarán en voz alta. Como el alfabeto mínimo de lo que el sistema financiero no sabe leer.
α mide la centralidad de intermediación: qué tan crítico es un nodo para que los flujos del ecosistema productivo que lo rodea sigan funcionando. Una PyME con α elevado no es solo un negocio con buenas ventas; es un puente cuya interrupción genera perturbaciones en cascada sobre proveedores y clientes que dependen de su continuidad. El riesgo de impago deja de ser exclusivamente suyo y pasa a ser un riesgo sistémico localizado que la red entera tiene incentivos —comerciales, reputacionales, incluso afectivos— para evitar. α captura esa relevancia estructural. El scoring tradicional no tiene variable para ello, lo cual dice más sobre el scoring que sobre la PyME.
β mide la densidad y estabilidad de la reciprocidad. En un corredor de remesas, β es la regularidad histórica del flujo entre quien envía y quien recibe, ponderada por su persistencia ante shocks previos. Un β elevado no indica simplemente buen carácter crediticio. Indica disciplina sostenida en condiciones adversas. El migrante con β alto no necesita educación financiera para aprender a cumplir compromisos. Lleva años haciéndolo sin que nadie lo haya reconocido como señal. El sistema, mientras tanto, sigue ofreciéndole productos de inclusión financiera diseñados para enseñarle lo que ya sabe.
γ mide el coeficiente de agrupamiento: la densidad de conexiones dentro del vecindario inmediato de un nodo. Un γ alto implica que ante un shock individual la carga no se concentra sino que se redistribuye, porque existen canales de soporte internos que ningún regulador diseñó desde arriba. En cualquier manual actuarial, esa capacidad de absorción sería considerada un amortiguador de riesgo. En el scoring dominante, simplemente no existe. Porque incorporarla obligaría a admitir que el individuo aislado nunca fue la unidad económica suficiente. Y esa, conviene admitirlo, no es una limitación técnica.
α, β y γ no prometen un sistema financiero más compasivo. Prometen algo más incómodo: un sistema financieramente más preciso. Porque si el riesgo es una propiedad emergente de las estructuras de vínculo, seguir midiéndolo exclusivamente a nivel individual no es prudencia. Es miopía con pretensión científica.
La pregunta que el sistema no sabe hacerse
A lo largo de este texto han aparecido, sin estridencia pero con insistencia, tres tipos de actores.
Primero, los académicos que durante décadas demostraron —con método, con evidencia y hasta con premios— que la red social no es una metáfora sino una unidad económica mensurable. Que el capital social no es literatura moral sino estructura operativa. Que la comunidad, bajo ciertas condiciones, gestiona el riesgo con una eficiencia que las instituciones formales no siempre replican.
Segundo, los estados y sus aparatos tecnológicos, que probaron en escenarios extremos que mapear una red con precisión no solo es posible sino rutinario cuando el objetivo es intervenir sobre ella. La red se vuelve perfectamente legible cuando se trata de localizar, aislar o neutralizar. La complejidad deja de ser excusa cuando el propósito exige claridad.
Tercero, los millones de personas que, durante cuarenta años, construyeron semana a semana la base de datos de comportamiento financiero disciplinado más extensa y menos leída de la economía contemporánea. Migrantes que sostienen flujos bajo presión. Pequeñas empresas que sobreviven a shocks que arrastran balances auditados. Redes productivas que redistribuyen carga sin manual ni regulador.
Los tres comparten una característica incómoda: ninguno participó en el diseño del modelo que define quién es solvente y quién no.
No es una omisión anecdótica. Es una decisión con consecuencias acumulativas. La infraestructura de la lealtad existe. Ha absorbido shocks que quebraron instituciones formales. Ha sostenido compromisos donde los contratos fallaron. Ha generado flujos que la macroeconomía registra como cifra pero rara vez interroga como conducta.
Esa infraestructura no necesita reivindicación. Opera con la indiferencia de los fenómenos físicos: continúa enviando remesas, sosteniendo cadenas productivas, redistribuyendo riesgo, aunque el sistema no la incorpore en sus modelos. Lo que no es indiferente es persistir en ignorarla.
Porque ignorarla no es neutral. Es optar por una definición estrecha de solvencia cuando la evidencia sugiere que esa definición es incompleta. Es declarar insolventes a quienes exhiben disciplina relacional sostenida, mientras se celebra como bancables a quienes dominan la gramática individual del scoring.
La pregunta, entonces, no es técnica. Tampoco es moral. Es estratégica.
¿Seguir midiendo el riesgo con una ontología que la propia evidencia ha vuelto insuficiente? ¿O aceptar que la infraestructura ya existe y que lo único pendiente es decidir leerla?
Durante más de una década he trabajado sobre esa pregunta. No como ejercicio teórico sino como necesidad. La pandemia no fue para mí un debate estadístico: fue un período de supervivencia real, con quirófanos, titanio en el cuerpo y cicatrices que no figuran en ningún modelo de riesgo. Sobreviví a eventos que dejaron marca física, no metáfora. Y mientras el sistema recalculaba balances y multiplicadores, yo recalculaba otra cosa: qué significa absorber un shock cuando la red es lo único que sostiene.
No escribo esto desde la indignación académica ni desde el optimismo tecnológico. Lo escribo porque esa pregunta dejó de ser abstracta hace años. Y porque esa pregunta dejó de ser teórica hace mucho tiempo. Lo que siguió no fue una respuesta inmediata, sino un trabajo más lento: traducir un método que la ciencia social ya había formulado en una arquitectura que el sistema financiero pueda finalmente ejecutar.
Porque la pregunta no desaparece por no formularse. Solo espera.
Y hay un momento en que esperar deja de ser prudencia y se convierte en negligencia.


