
Las valoraciones en los mercados de las tecnológicas en estos meses llevan a muchos a evocar los excesos de finales de los noventa. Cada semana aparece una nueva startup que promete transformar algún sector, y el capital fluye con generosidad, mientras que el miedo a quedarse fuera parece que dicta decisiones de inversión con una intensidad que recuerda peligrosamente a los momentos previos al estallido de la burbuja puntocom allá en los últimos años del pasado siglo. Con estos mimbres, la pregunta parece obvia y levita entre inversores y expertos en bolsa: ¿estamos ante una nueva burbuja tecnológica destinada a explotar con consecuencias devastadoras?
La respuesta, sin embargo, es más compleja de lo que sugiere esta analogía superficial. Aunque existe indudablemente espuma especulativa en segmentos del mercado, y es imposible descartar que esta reviente llevando por delante buena parte de las posiciones de las empresas del sector, no cabe duda, sin embargo, de que debajo de esta nueva explosión tecnológica hay una transformación industrial real con impactos directos en la productividad de muchos sectores. Mucho más de lo que hubo con la explosión de internet.
Así, en estas semanas han coincidido dos acontecimientos que me han ayudado a entender parte de estos matices. Uno primero, una presentación de un trabajo académico en la universidad donde imparto clases sobre ecosistemas digitales y regulación de datos. En segundo lugar, unos días antes, el lanzamiento de Gemini 3.0 por parte de Google. La convergencia entre teoría económica y realidad tecnológica resulta reveladora.
La tesis central del trabajo presentado por Andrew Rhodes y realizado con varios coautores es que los ecosistemas digitales no compiten mediante los mecanismos tradicionales de precio y calidad en productos aislados, sino a través de lo que denominan “externalidades de datos”. La idea es muy sencilla: los datos recolectados en un mercado, como son las búsquedas en Google, el uso de Maps, las interacciones con YouTube, se utilizan para mejorar la calidad de productos en mercados completamente distintos, como la inteligencia artificial generativa (IAG). Como es fácil de entender, quien posea esos datos posee ventajas competitivas que resultan casi imposibles de replicar para empresas especializadas en un único producto.
El lanzamiento de Gemini 3.0 pro ilustra perfectamente esta teoría en acción. Los datos técnicos revelan avances significativos que no pueden atribuirse meramente a estrategias de marketing para tranquilizar a los accionistas. Por ejemplo, en el test Arc AGI 2, diseñado específicamente para medir capacidad de adaptación e inteligencia fluida el modelo supera el 30% de precisión. Este porcentaje puede parecer modesto en términos absolutos, pero representa un salto cualitativo frente al 10% que alcanzaban las generaciones anteriores de modelos de lenguaje.
Estos avances no son producto del azar ni de una carrera publicitaria, sino resultado directo de poseer el ecosistema de datos más completo del planeta. Y aquí radica la diferencia fundamental con la crisis puntocom: entonces, empresas sin modelo de negocio real, sin usuarios genuinos y sin flujos de caja alcanzaban valoraciones absurdas basadas en proyecciones irreales que el mercado se encargó de tamizar. Ahora, gigantes tecnológicos con ecosistemas consolidados, millones de usuarios activos y flujos de ingresos están integrando tecnología transformadora en infraestructuras ya existentes y, cada vez, mucho más rentables. Construyen nuevos centros de datos y anuncian inversiones desorbitadas. No todas tendrán el flujo de caja deseado, pero hay una implementación real de sus negocios.
La implicación económica es profunda y redibuja el mapa competitivo. OpenAI, Anthropic y otras empresas especializadas desarrollan tecnología excelente; sus modelos representan hazañas técnicas admirables. Pero operan como lo que el trabajo de Rhodes denomina “firmas de producto único”. Deben monetizar directamente sus modelos de lenguaje para cubrir costes operativos que superan los millones diarios y para justificar valoraciones que alcanzan decenas de miles de millones. Cada consulta, cada token generado, debe traducirse eventualmente en ingresos.
Google, por el contrario, posee el ecosistema completo. Puede subsidiar servicios de IA, incluso ofrecerlos gratuitamente durante períodos prolongados, para capturar datos que luego mejoran exponencialmente sus productos. Solo hay que mirar su nuevo producto estrella: Antigravity. Estos productos mejorados optimizan YouTube, perfeccionan Android, refinan Search, y cada uno de estos servicios, a su vez, genera más datos que retroalimentan a Gemini, creando un ciclo virtuoso que ningún competidor aislado puede replicar sin décadas de inversión y construcción de ecosistema.
Esta “complementariedad de demanda”, donde cada producto del ecosistema mejora el valor de los demás, sin embargo, genera barreras de entrada formidables que la teoría económica tradicional apenas comenzaba a modelizar. No estamos ante monopolios clásicos basados en control de recursos escasos o patentes, sino de efectos de red y sinergias de datos que se autorrefuerzan con cada usuario adicional.
Y esto, y no una posible burbuja (que no necesariamente se puede descartar pero que tendría una naturaleza diferente) es el principal problema de esta evolución del mercado. A medida que los modelos de diferentes empresas convergen en capacidades técnicas similares, la ventaja competitiva sostenible se desplaza inexorablemente hacia quien controla la distribución, el cómputo a escala industrial y, sobre todo, los datos integrados verticalmente a través de múltiples productos y servicios.
Esto constituye un nuevo fallo de mercado que nos puede llevar a un punto final para nada deseable. Es por ello por lo que puede tener sentido que los reguladores intenten abordar este poder de mercado creciente mediante normativas que limiten el uso cruzado de información personal, buscando proteger la privacidad del usuario y fomentar la competencia. Sin embargo, los estudios que existen al respecto advierten que tales medidas, aunque bienintencionadas, pueden producir efectos perversos: reducir los incentivos del ecosistema para innovar, ralentizar el desarrollo tecnológico y, paradójicamente, elevar precios al consumidor al fragmentar las eficiencias que el uso integrado de datos permite. Es un dilema regulatorio sin soluciones fáciles ni respuestas unívocas.
La conclusión para los mercados financieros es inquietante pero clara: no estamos ante una burbuja especulativa clásica destinada a colapsar cuando la realidad contradiga las expectativas infladas, sino ante una consolidación industrial donde la concentración de poder responde a ventajas estructurales reales y difíciles de desafiar. Los románticos de la startup disruptiva que desde un garaje revoluciona industrias enteras enfrentan una realidad incómoda: el capital y el talento, aunque necesarios, resultan claramente insuficientes sin el ecosistema subyacente de datos, distribución y usuarios que solo años de inversión sostenida pueden construir.
La carrera de la inteligencia artificial ya no es únicamente de velocidad en innovación tecnológica, sino de profundidad estructural y amplitud de ecosistema. Y en ese campo de batalla, los que poseen los datos acumulados durante décadas tienen prácticamente todas las ventajas. La pregunta no es si habrá ganadores y perdedores, sino cuánto tiempo tardaremos en reconocer oficialmente una realidad que los datos ya muestran con claridad. A los que pierdan les pondremos la etiqueta de burbuja.































