Todos Querían Ser Billonarios
Cómo la narrativa reemplazó a la física en la era de los unicornios
De la narrativa a la física
Durante la era de las tasas de interés cero, el capital dejó de comportarse como un recurso escaso y pasó a operar como una expectativa permanente. No sólo se abarató el financiamiento: se alteró el modo en que se juzgaban los negocios. En ese contexto, el futuro —prometido, proyectado, narrado— adquirió una gravitación desproporcionada frente al presente operativo. Crecer dejó de ser una consecuencia; pasó a ser una condición previa de legitimidad.
Sobre ese terreno se financió una hipótesis ambiciosa y frágil a la vez: que la tecnología podía neutralizar las restricciones físicas de industrias intensivas en capital. Así emergió una figura recurrente en la última década: empresas que operaban activos tradicionales —crédito, vivienda, logística, movilidad— pero que fueron valuadas con los múltiplos y las expectativas del software puro. No eran ilusiones individuales ni errores groseros de cálculo. Eran construcciones coherentes dentro de un sistema que premiaba la velocidad, la escala narrativa y la promesa de disrupción antes que la estabilidad operativa.
Ese régimen, hoy, ha cambiado. El mercado ya no convalida el “crecimiento a cualquier costo” ni la expansión como argumento autónomo. Ha comenzado a auditar otra cosa: la coherencia entre lo que una empresa dice ser y lo que efectivamente puede sostener. Lo que está ocurriendo no es una corrección episódica, sino un ajuste más profundo: el retorno de la física a un ecosistema que durante años creyó poder postergarla. El cambio no fue semántico, sino físico: la reaparición de límites donde antes se había supuesto elasticidad infinita.
Una vez que el tiempo volvió a tener costo, la física terminó imponiéndose.
El negocio de la expectativa
Antes de que aparezcan los activos pesados, la logística deficitaria o la inteligencia artificial ornamental, hay una condición previa que vuelve inteligibles a todos esos desvíos. No es tecnológica ni financiera en sentido estricto. Es temporal. Durante la era de tasas bajas, el capital de riesgo no sólo financió empresas: financió tiempo. Y al hacerlo, transformó el futuro en un activo negociable.
En ese régimen, la valuación dejó de ser una fotografía del presente para convertirse en un instrumento de gobierno. Un número alto no describía una realidad consolidada; organizaba comportamientos. Permitía contratar talento, abrir líneas de crédito, firmar acuerdos comerciales, absorber pérdidas operativas y postergar definiciones incómodas. La valuación no medía lo que la empresa era, sino lo que el sistema estaba dispuesto a creer por anticipado que podía llegar a ser.
Conviene decirlo sin caricaturas: muchos de los modelos que hoy parecen absurdos no fueron errores ingenuos. Fueron estrategias coherentes con el negocio del fundraising. Una compañía podía ser débil como máquina de caja y, al mismo tiempo, extraordinariamente eficiente como máquina de rondas. El incentivo no era alcanzar el equilibrio, sino sobrevivir lo suficiente para habilitar el próximo evento de capital. Ronda tras ronda, el tiempo comprado reemplazaba al desempeño probado.
En ese circuito, la narrativa cumplió una función operativa central. No como relato inspiracional, sino como dispositivo de validación. Conceptos como “plataforma”, “full stack”, “IA”, “network effects” o “escala exponencial” no operaban sólo como hipótesis técnicas, sino como categorías de valuación. Si una empresa lograba ser leída como software, podía ser valuada como software; si era valuada como software, podía absorber costos propios de un operador físico; y si lograba sostener esa tensión el tiempo suficiente, la ficción adquiría densidad institucional.
El capital de riesgo no fue un actor externo a ese proceso. También competía. Necesitaba historias de excepcionalidad para levantar sus propios fondos, necesitaba retornos potenciales extraordinarios para justificar riesgo agregado, necesitaba unicornios como prueba viva de tesis. En ese espejo, muchas startups no fueron sólo inversiones: fueron argumentos comerciales. Y cuando el argumento se vuelve central, la verificación empírica puede esperar.
Este mecanismo no eliminó el riesgo. Lo desplazó en el tiempo. La promesa de eficiencia futura funcionó como prórroga permanente frente a restricciones presentes. Los márgenes negativos se justificaban por escala futura; la complejidad operativa, por integración pendiente; la fragilidad financiera, por la ronda que venía. Mientras el costo del tiempo fue bajo, el sistema se sostuvo por pura inercia racional.
El problema no fue moral ni técnico. Fue físico. Cuando el tiempo dejó de ser barato, la narrativa perdió capacidad de absorción. El mercado dejó de financiar hipótesis abiertas y comenzó a exigir cierres. Y en ese momento, los desajustes que habían sido tolerables como expectativa se volvieron visibles como estructura.
Los mecanismos que siguen no son anomalías independientes. Son expresiones concretas de ese régimen. Distintas formas de intentar convertir tiempo financiado en valor real. Distintas maneras de postergar, con mayor o menor sofisticación, el encuentro inevitable entre relato y balance.
A partir de aquí, la pregunta ya no es por qué fallaron estas empresas. La pregunta es por qué el sistema entero consideró razonable que funcionaran así.
La trampa de los activos pesados
(Asset Heavy)
Durante el auge de las valuaciones, una confusión conceptual se volvió estructural: la identificación de operadores físicos como plataformas tecnológicas. No fue un error semántico menor. Fue el punto de partida de una distorsión profunda en la forma de medir escala, riesgo y valor.
Empresas como Kavak, Casai o Selina fueron presentadas —y leídas— como infraestructuras digitales que “orquestaban” mercados. El relato era consistente: tecnología propietaria, data, efectos de red, optimización algorítmica. Sin embargo, en el núcleo de su operación no había código escalando sin fricción, sino activos físicos acumulándose en balance.
La diferencia no es ideológica; es contable. A diferencia del software, los activos materiales se deprecian. Requieren mantenimiento, capital de trabajo, reposición permanente. Cada auto en inventario, cada edificio en operación, cada habitación acondicionada introduce una fricción que no se elimina con mejores dashboards. El CAPEX no es una contingencia: es una condición de existencia.
Ahí aparece el desajuste central. Estas compañías no escalan de forma exponencial, sino lineal. Para duplicar ingresos no basta con más usuarios o más tráfico: hay que duplicar talleres, mecánicos, patios de inventario; sumar edificios, personal operativo, contratos de mantenimiento. El crecimiento no desacopla costos: los arrastra.
Durante un tiempo, esa fricción fue invisible. La narrativa de plataforma permitió aplicar múltiplos propios del software —quince veces ventas, a veces más— a negocios cuya lógica económica se parece mucho más a la de un operador tradicional, típicamente valuado cerca de una vez ingresos. La brecha no era técnica; era simbólica. Mientras el mercado aceptó la categoría equivocada, la aritmética pareció funcionar.
El problema no fue que estas empresas usaran tecnología. Todas la usaban. El problema fue asumir que la tecnología transmutaba la naturaleza del negocio. Que un operador intensivo en capital podía comportarse, y por lo tanto ser valuado, como un sistema liviano. Esa alquimia sólo es posible mientras el financiamiento permita cubrir la diferencia entre la promesa de escala y la realidad del balance.
Cuando el costo del capital volvió, la trampa quedó expuesta. Los activos siguieron ahí, depreciándose. Los costos fijos no se evaporaron. Y el crecimiento, lejos de liberar márgenes, amplificó la necesidad de capital. Lo que había sido presentado como plataforma reveló su condición real: una operación física sofisticada, pero física al fin.
Este mecanismo no explica un fracaso puntual. Explica por qué tantos modelos distintos, en geografías y sectores diversos, convergieron en el mismo límite. No porque la tecnología no funcionara, sino porque no podía anular la gravedad del activo.
La falacia del “full stack” logístico
En el apogeo del ciclo expansivo, controlar toda la cadena de valor se convirtió en una aspiración casi moral. “Del productor al consumidor”, “del campo a la mesa”, “sin intermediarios”. El full stack no era sólo una decisión operativa: era una narrativa de poder. Quien dominaba cada eslabón —abastecimiento, almacenamiento, preparación, distribución— se presentaba como dueño de una eficiencia estructural imposible de replicar.
Empresas como Jokr, Merqueo o Jüsto encarnaron esa tesis. No querían ser marketplaces livianos ni simples coordinadores de oferta y demanda. Querían ser infraestructura total. La promesa era clara: al integrar verticalmente la operación, las ineficiencias del retail tradicional desaparecerían bajo la disciplina algorítmica.
La fricción real apareció en el lugar menos glamoroso del discurso: el costo unitario. En modelos de entrega ultrarrápida, cada pedido concentra una secuencia de gastos difícil de comprimir: picking, preparación, última milla, gestión de inventario, desperdicio. A diferencia del software, donde el costo marginal tiende a cero, aquí cada transacción agrega costo desde el primer centavo. Y en muchos casos, ese costo supera el margen bruto del producto entregado.
El error no fue abrir una ciudad sin suficiente escala. Fue creer que la escala, por sí sola, resolvería el problema. Cada nueva ciudad no aportó eficiencias automáticas; agregó capas completas de complejidad: nuevos centros de micro-fulfillment, flotas propias o tercerizadas, equipos operativos, negociación con proveedores locales. El sistema no se volvió más liviano con el crecimiento; se volvió más frágil.
Para sostener la expansión, el envío fue subsidiado. El precio dejó de reflejar el costo real del servicio y pasó a funcionar como incentivo artificial de adopción. Durante un tiempo, la demanda respondió. Pero no porque el modelo fuera superior, sino porque el usuario estaba comprando por debajo del costo. Cuando el subsidio se redujo —por presión de caja o cambio de mercado— la demanda no se contrajo gradualmente: desapareció.
El full stack reveló entonces su límite: integrar no elimina deseconomías de escala cuando el producto es físico y la distribución intensiva en trabajo. Sólo las internaliza. La promesa de control total se transformó en exposición total. Cada punto de la cadena dejó de ser una ventaja competitiva para convertirse en un centro de pérdida.
Este mecanismo repite la lógica del anterior, pero con un matiz crucial. No se trató de confundir activos con software, sino de confundir control con eficiencia. La integración vertical fue leída como sinónimo de ventaja estructural, cuando en realidad amplificaba la sensibilidad del modelo a cualquier variación de costo, demanda o financiamiento.
Una vez que el capital dejó de absorber pérdidas operativas, el full stack dejó de parecer una fortaleza y pasó a exhibirse como lo que era: una arquitectura rígida, diseñada para un mundo donde el tiempo no tenía precio.
Indigestión inorgánica
(Roll-up failure)
Cuando el crecimiento orgánico empezó a mostrar límites —márgenes que no cerraban, unit economics frágiles, adopción más lenta de lo prometido— muchas startups recurrieron a una solución aparentemente elegante: comprar escala ya existente. El roll-up se presentó como atajo estratégico. No había que esperar a que el producto madurara; bastaba con adquirir negocios operativos, integrarlos bajo un mismo paraguas tecnológico y capturar sinergias.
Casos como Thrasio o WeWork encarnaron esa tesis en versiones distintas, pero conceptualmente emparentadas. La premisa era simple: activos fragmentados y supuestamente ineficientes podían ser ordenados desde el centro mediante software, procesos y capital abundante. El crecimiento no se construía; se ensamblaba.
La fricción apareció donde el relato menos quería mirar: en la integración real. Sistemas heredados incompatibles, culturas operativas disímiles, cadenas de suministro autónomas, contratos distintos, incentivos cruzados. Cada adquisición traía consigo una deuda técnica y organizacional que no figuraba en los modelos financieros. Integrar no era sumar; era multiplicar complejidad.
En el caso de Thrasio, la acumulación fue literal. Cientos de marcas, cada una con proveedores, tiempos logísticos y dinámicas propias, quedaron bajo una estructura que asumía que el software podía homogeneizarlo todo. No lo hizo. La empresa no colapsó por falta de datos ni de dashboards, sino por la imposibilidad práctica de gobernar un sistema que crecía más rápido en diversidad que en control efectivo.
El error conceptual fue profundo: confundir coordinación con control, y control con eficiencia. El roll-up funciona cuando existe un núcleo operativo robusto capaz de absorber complejidad. Aquí ocurrió lo inverso. El crecimiento inorgánico no fortaleció al centro; lo sobrecargó. Cada nueva adquisición ocultaba, además, un problema más incómodo: la falta de tracción suficiente del producto principal como para justificar crecimiento propio.
Durante un tiempo, el mercado celebró la expansión. Las cifras agregadas crecían, las valuaciones acompañaban, el relato de “consolidación” sonaba convincente. Pero esa expansión no producía aprendizaje operativo; producía entropía. Y cuando el financiamiento dejó de estar garantizado, la indigestión se volvió evidente. El sistema no podía digerir lo que había incorporado.
Este mecanismo expone un límite claro del ciclo unicornio: el software no corrige automáticamente ineficiencias estructurales cuando estas se acumulan más rápido de lo que pueden integrarse. El crecimiento comprado puede acelerar el tamaño, pero también acelera el colapso cuando no hay una base operativa capaz de sostenerlo.
Si en los mecanismos anteriores la fricción venía del activo o de la logística, aquí proviene de la organización misma. El problema ya no es cuánto cuesta crecer, sino quién puede gobernar lo que crece.
La caja negra rota
(Fake AI)
En el punto más alto del ciclo, la inteligencia artificial dejó de ser una herramienta y pasó a funcionar como un sustituto del juicio. “Modelos propietarios”, “alternative data”, “scoring no tradicional”. El lenguaje prometía algo más que eficiencia operativa: prometía una nueva forma de conocer el riesgo. No entenderlo mejor, sino trascenderlo.
Casos como Kreditech o ZestFinance se apoyaron en esa promesa. La tesis era seductora: donde la banca tradicional veía informalidad, falta de historial o ausencia de colateral, los algoritmos verían patrones ocultos. El crédito dejaría de depender de balances y garantías para basarse en señales alternativas: comportamiento digital, consumo, trazas de datos dispersas.
La fricción real apareció en una distinción elemental que el relato tendió a borrar: no es lo mismo originar crédito que cobrarlo. La tecnología demostró ser eficaz para acelerar la primera parte del proceso. Automatizó decisiones, redujo fricción, permitió desembolsos rápidos. Pero el riesgo no vive en la velocidad del otorgamiento. Vive en la voluntad —y la capacidad— de repago a lo largo del tiempo.
Ahí se quebró la caja negra. En segmentos sin flujo de efectivo estable, sin disciplina financiera y sin mecanismos de enforcement efectivos, los algoritmos no podían predecir lo que nunca estuvo en los datos: la disposición y posibilidad real a pagar. El modelo podía identificar correlaciones, pero no fabricar solvencia. Cuando la mora apareció, la sofisticación técnica no ofreció refugio.
El desajuste se volvió evidente cuando muchas de estas fintechs necesitaron introducir garantías líquidas, colaterales o mecanismos tradicionales de control para sostener la cartera. En ese momento, la promesa algorítmica perdió sentido. Si el crédito depende de colateral o exhibe niveles estructuralmente altos de default, la inteligencia artificial no es ventaja competitiva: es decoración narrativa.
Durante un tiempo, la confusión fue funcional. El mercado premió la idea de que el riesgo había sido “resuelto” por tecnología, aunque en la práctica sólo hubiera sido acelerado. El desembolso se volvió más rápido; la cobranza, no. Y cuando el financiamiento dejó de cubrir el gap entre originación y recuperación, la fragilidad del modelo quedó expuesta.
Este mecanismo revela un límite central del ciclo unicornio: la tecnología puede optimizar procesos, pero no sustituir condiciones económicas básicas. No hay algoritmo que convierta informalidad crónica en flujo estable. No hay dato alternativo que reemplace ingresos inexistentes. La caja negra no falló por falta de cómputo, sino por exceso de fe.
Si en los mecanismos anteriores la fricción provenía de la materia o de la organización, aquí proviene del conocimiento mismo. El error no fue usar inteligencia artificial, sino creer que podía responder preguntas que pertenecen al terreno de la economía real y la conducta humana.
Riesgo de gobernanza
(OpCo vs. PropCo)
Cuando los modelos híbridos comenzaron a convivir con regulación, balance y supervisión prudencial, apareció una tentación conocida: separar el negocio en dos cuerpos jurídicos con lógicas distintas. De un lado, la OpCo (Operating Company), la entidad operativa regulada —banco o financiera— donde ocurren la originación, el fondeo, la cartera, las pérdidas y las obligaciones prudenciales; es decir, donde se concentra el riesgo y se exige capital. Del otro, la PropCo (Property Company o holding), la tenedora privada que suele concentrar la marca, la plataforma, la propiedad intelectual y los contratos de “servicios”, y que por eso se presenta como el activo liviano y altamente valuado del grupo. Operación y Promesa (expectativa).
La estructura no es, en sí misma, ilegítima. En contextos bien gobernados puede ordenar funciones, aislar riesgos y facilitar inversión. El problema surge cuando esa separación deja de ser organizativa y se vuelve extractiva. Casos como Crédito Real, Accendo Banco o Unifin ilustran ese límite con crudeza.
La fricción central aparece en la alineación de incentivos. La OpCo existe para preservar solvencia, proteger depositantes o acreedores y sostener una operación prudente. La PropCo, en cambio, existe para maximizar valuación, crecimiento percibido y retornos de capital. Cuando ambas conviven sin contrapesos claros, el conflicto no es teórico: es contable.
En varios de estos esquemas, la tenedora tecnológica comenzó a cobrar a la entidad operativa por “servicios”, “licencias”, “desarrollos” o “uso de plataforma” a precios difíciles de justificar en condiciones de mercado. El efecto fue silencioso pero persistente: drenaje de capital desde la entidad regulada hacia una estructura privada menos visible, menos supervisada y mejor valuada. No innovación. Transferencia.
Durante un tiempo, el mercado toleró —e incluso celebró— estas arquitecturas. La narrativa era atractiva: tecnología desbloqueando eficiencia, activos tradicionales “modernizados”, estructuras sofisticadas. Pero cuando el ciclo cambió, la lectura también lo hizo. Lo que antes se interpretaba como diseño inteligente empezó a verse como riesgo de gobierno corporativo. No sólo por el impacto financiero, sino por lo que revelaba sobre las prioridades reales de la organización.
El punto de quiebre llegó cuando los reguladores y el mercado comenzaron a hacer la misma pregunta, desde lugares distintos: ¿quién captura el valor y quién absorbe el riesgo? Si la entidad que asume pérdidas, mora y requerimientos de capital no es la misma que extrae rentas recurrentes, la estructura deja de ser sostenible. No por ideología, sino por aritmética.
Este mecanismo expone un límite que el ciclo unicornio tendió a ignorar: no se puede maximizar valuación privada a costa de solvencia pública sin consecuencias. Cuando el financiamiento se encarece y la supervisión se intensifica, la separación OpCo/PropCo deja de ser una ventaja y pasa a ser una señal de alerta.
Aquí el problema ya no es técnico ni operativo. Es de gobernanza. Y cuando la gobernanza falla, ningún modelo de negocio —por sofisticado que sea— puede sostenerse indefinidamente.
El regreso a los fundamentales
La corrección en curso no es una crisis pasajera ni un ajuste técnico del mercado. Es algo más profundo y menos negociable: un ajuste ontológico. Durante años, el ecosistema funcionó bajo un régimen de descubrimiento de precio apoyado en narrativas futuras, proyecciones elásticas y promesas de escala todavía no probadas. Ese régimen permitió postergar la verificación empírica, desplazar el riesgo en el tiempo y confundir expansión con solidez. Hoy, ese tiempo se terminó.
El mercado ha comenzado a operar bajo otra lógica. Ya no pregunta cuánto podría valer una empresa si todo sale bien, sino qué valor produce efectivamente bajo restricciones reales. El foco se ha desplazado desde la historia hacia la estructura, desde la expectativa hacia el flujo de caja, desde la velocidad hacia la coherencia. No se trata de un cambio de humor, sino de un cambio de criterio.
En ese tránsito, muchas de las métricas que dominaron el ciclo anterior han perdido relevancia. Usuarios registrados, GMV, crecimiento bruto, ciudades abiertas o activos incorporados funcionaron como soportes narrativos en un entorno donde el capital absorbía pérdidas y el tiempo era barato. No eran falsos; eran insuficientes. Medían tracción aparente, no sostenibilidad. Cuando el financiamiento dejó de cubrir la distancia entre relato y balance, esas métricas quedaron expuestas como lo que siempre fueron: indicadores secundarios elevados a categoría de prueba.
Lo que sobrevive a este ajuste es más austero y, por eso mismo, más sólido. Los modelos híbridos que persistan serán aquellos que acepten su naturaleza sin disfraces. Si operan como bancos, deberán ser valorados y gestionados con la disciplina de riesgo de un banco. Si operan activos físicos, deberán convivir con CAPEX, depreciación y límites de escala. La tecnología seguirá siendo una herramienta poderosa, pero ya no podrá funcionar como coartada ontológica.
La alquimia que intentó convertir balances pesados en múltiplos ligeros se ha agotado. No por una conspiración del mercado, ni por una pérdida de fe en la innovación, sino porque la física volvió a ocupar el lugar que nunca dejó de tener. En el nuevo régimen, el valor no se proclama: se demuestra. Y se demuestra, como siempre, en el punto más incómodo del sistema: donde los flujos cierran o no cierran.


