Unas semanas atrás, me senté frente a mi laptop y creé una plataforma de negociaciones. Está conectada a tres mercados financieros. Toma información de fuentes RSS (actualización automática), búsquedas en la web, Reddit y Twitter. Usa un gran modelo de lenguaje (LLM) para analizar los mercados, calcular probabilidades y determinar cuándo el precio es incorrecto. Determina el tamaño de las posiciones según el criterio de Kelly. Gestiona el riesgo en toda la cartera. Dirige las órdenes de forma inteligente a través de los distintos mercados.
Esta plataforma funciona las 24 horas del día sin necesidad de supervisión. Tiene un sistema de nivel de producción que abarca 50 módulos, conectores de intercambio, gestión de riesgos, análisis del lenguaje natural, enrutamiento de órdenes, seguimiento de carteras, etc., y opera en mercados de predicciones como Polymarket y Kalshi.
Esto lo construí en seis días.
Debo contarte qué hago para ganarme la vida. Soy hidrólogo computacional. Estudio los ríos, el deshielo y el balance de masa de los glaciares. Tengo un doctorado en Ciencias Ambientales del Ártico. Nunca he intercambiado (trading) nada en mi vida.
Te cuento esto porque me aterra.
Las herramientas que usé están disponibles para cualquiera que tenga una computadora portátil y una suscripción mensual. Creé mi plataforma utilizando Claude Code de Anthropic, un agente de programación de inteligencia artificial basado en terminal.
Le describí lo que quería en un lenguaje sencillo. La inteligencia artificial escribió el código. Yo lo revisé, lo orienté y lo perfeccioné. En poco menos de una semana, tenía un sistema que, hace cinco años, habría sido la propiedad intelectual fundamental de una startup fintech financiada con un equipo de ocho personas.
De acuerdo con una encuesta hecha en marzo de 2026 a 906 desarrolladores por The Pragmatic Engineer, un boletín de Substack del ingeniero de software Gergely Orosz, el 71% de quienes usan regularmente agentes de programación basados en IA usan Claude Code.
SemiAnalysis estima que el 4% de todas las contribuciones de código público en GitHub ya fueron creadas por este; está previsto que alcance el 20% a finales del 2026.
Los efectos ya son visibles en los mercados financieros.
Se informa que catorce de las veinte cuentas más rentables de Polymarket son bots. Más del 30% de las billeteras en la plataforma son operadas por agentes de IA, según la plataforma de análisis LayerHub, basada en datos de CoinDesk.
Prácticamente todos estos sistemas se basan en los mismos modelos fundamentales. Si no utilizan Claude, seguramente usan GPT de OpenAI, que comparte datos de entrenamiento y patrones de razonamiento prácticamente idénticos.
Miles de personas, de forma independiente, crean agentes de negociación autónomos en cuestión de días, todos impulsados por la misma familia de modelos de IA y operando en los mismos mercados. Esto no es hipotético. Está sucediendo ahora mismo.
Entonces, ¿por qué me asusta esto?
Las instituciones encargadas de salvaguardar la estabilidad financiera han identificado el riesgo en principio.
El FSB (por sus siglas en inglés, Consejo de Estabilidad Financiera) , el Banco de Pagos Internacionales y el Banco de Inglaterra (BOE, por sus siglas en inglés) han advertido que el uso generalizado de modelos comunes de inteligencia artificial podría aumentar las correlaciones del mercado y amplificar la tensión.
Jonathan Hall, del Comité de Política Financiera del Banco de Inglaterra, ha advertido sobre la aparición de un “monocultivo” en el que desaparece por completo el incentivo financiero para usar modelos alternativos.
Un nuevo informe de la Reserva Federal de San Francisco usa directamente la expresión “monocultivos de modelos”, advirtiendo que podrían aumentar las vulnerabilidades sistémicas.
El problema es que, si bien estas advertencias son correctas en cuanto al diagnóstico, están equivocadas en cuanto al paciente.
El propio Comité de Política Financiera del BOE, en una evaluación de abril , concluyó que el sistema financiero “aún no ha adoptado formas más avanzadas de inteligencia artificial, como la IA generativa o la IA con agentes, de una manera que presente un riesgo sistémico”, pero reconoció que es “probable que los riesgos aumenten, potencialmente con rapidez”.
El comité solicitó a los reguladores que profundizaran en el estudio de la inteligencia artificial con agentes en los mercados financieros. Esta es la evaluación más rigurosa que ha realizado una institución importante.
Y, precisamente, ahí radica su punto débil: el comité supervisa si las empresas reguladas han adoptado la IA con agentes, pero no si miles de personas no reguladas la han desarrollado e implementado de forma independiente.
Estos informes parten de la base de que los actores relevantes son los bancos: entidades reguladas con departamentos de cumplimiento y obligaciones de información. El FSB recomienda “encuestas periódicas” e “informes regulatorios” para supervisar la adopción de la IA. Estas herramientas están diseñadas para un mundo donde se puede cuantificar a los participantes.
Ese mundo ya no existe.
Los actores que impulsan el comportamiento correlacionado de la IA en los mercados financieros son ingenieros de software, científicos de datos, estudiantes de doctorado y, bueno, hidrólogos.
No estamos obligados a presentar informes. No tenemos departamentos de cumplimiento normativo. No hay requisitos de capital. No hay mecanismos de interrupción automática. Somos invisibles para cualquier marco de supervisión.
Los mercados de predicción son el campo de pruebas, no el objetivo final.
Las mismas herramientas de codificación de inteligencia artificial y los mismos modelos básicos implementados en Polymarket se están adoptando en los mercados de divisas, acciones y crédito; el trading algorítmico ya representa entre el 70% y el 80% de la actividad de divisas al contado.
La barrera que antes separaba a los inversores minoristas aficionados de la infraestructura de negociación institucional se ha derrumbado. La dinámica que describo se extiende directamente, al igual que los riesgos a escala global.
Consideremos una economía mediana, Turquía, Brasil, Sudáfrica, con déficits fiscales que, si bien pueden justificarse mediante un análisis detallado, resultan preocupantes para los sistemas de reconocimiento de patrones. El país anuncia una revisión presupuestaria ambigua. Miles de agentes de IA, que operan con modelos base similares, rebajan simultáneamente su evaluación de la solvencia crediticia del país.
Estos agentes no se coordinan. Ni siquiera saben de la existencia de los demás. Pero llegan a la misma conclusión al mismo tiempo, porque piensan de la misma manera.
Comienzan a deshacer posiciones. Los rendimientos de los bonos se disparan. La moneda cae. Otros agentes detectan la volatilidad y reducen su exposición. Los diferenciales de los swaps de incumplimiento crediticio se amplían. Todo esto sucede en cuestión de minutos.
El banco central se reúne, en una sala, con personas que deben leer informes y llegar a un consenso, mientras que el mercado ya ha adoptado precios acordes a la crisis. Para cuando anuncian la intervención, los agentes ya la han incorporado a sus precios, han modelado su insuficiencia y han tomado medidas adicionales.
Los agentes podrían estar equivocados. El evento inicial podría haber sido genuinamente ambiguo. Un grupo diverso de analistas humanos podría haber discrepado. Pero debido a que miles de agentes de IA convergieron en la misma interpretación con la suficiente rapidez como para alterar la realidad subyacente, su evaluación errónea se convierte en una profecía autocumplida.
Por lo tanto, un ajuste fiscal manejable se convierte en una crisis de financiación soberana, no porque los fundamentos lo exigieran, sino porque las máquinas estuvieron de acuerdo.
Esto difiere de la crisis asiática de 1997 o de la crisis de deuda soberana europea de 2010. Aquellas fueron provocadas por grupos humanos que se movían con la lentitud suficiente como para dejar atrás los puntos de intervención.
Los grupos controlados por agentes se mueven a la velocidad de una máquina. No hay interrupciones. Cada decisión en la cadena es racional.
El resultado global es un sistema que nadie diseñó, nadie gobierna y que concentra el riesgo de correlación como ninguna tecnología financiera anterior lo había logrado. Se trata de una tragedia de los bienes comunes, con la salvedad de que esos bienes comunes son la estabilidad financiera global.
Lo que distingue este momento de las anteriores oleadas de negociación algorítmica es, principalmente, la barrera de entrada. La negociación de alta frecuencia requería servidores en ubicaciones específicas y físicos con doctorado. Los fondos de cobertura cuantitativos requerían millones de dólares en capital.
Lo que demostré es que una sola persona sin experiencia previa puede construir un sistema de negociación autónomo y competitivo en menos tiempo del que se tarda en tramitar una solicitud de hipoteca.
El número de agentes en los mercados financieros no crecerá linealmente, sino exponencialmente. Y cada agente incrementa la correlación sistémica, ya que todos descienden de la misma pequeña familia de modelos.
¿Es inevitable esta toma de control por parte de los bots? Quizás, pero existen medidas concretas que podrían adoptarse ahora para intentar mitigar el riesgo.
Primero, se debería exigir a las empresas de inteligencia artificial que supervisen y divulguen el grado de uso de sus modelos para el comercio financiero autónomo. Tienen los datos. Pueden ver las llamadas a la API (proceso en que un software pide información a otro). Son los únicos actores con visibilidad de la magnitud del enjambre.
Segundo, las bolsas deberían implementar disyuntores que detecten la correlación: sistemas que identifiquen cuándo el flujo de órdenes es impulsado por agentes que usan los mismos modelos subyacentes y que pausen la negociación cuando dicha correlación supere los umbrales de seguridad.
Los disyuntores tradicionales se activan con el movimiento del precio. La nueva generación debe detectar el comportamiento correlacionado de la IA antes de que el precio se mueva.
Tercero, los reguladores deberían crear un marco de registro obligatorio, coordinado entre las principales jurisdicciones financieras, para los sistemas de negociación autónomos, independientemente del capital invertido. Un bot que opera con US$10.000 contribuye al riesgo de correlación de la misma manera que lo hace uno que opera con US$10 millones.
Por último, las pequeñas economías abiertas, Islandia, Nueva Zelanda, Singapur, deberían comenzar a fortalecer su resiliencia desde ahora: mayores reservas, mecanismos de liquidez de emergencia prenegociados y planes de contingencia para desconectar los mercados de deuda soberana de la negociación automatizada durante las crisis detectadas. No pueden reformar el sistema global, pero sí pueden prepararse para sus fallos.
Seguiré utilizando mi bot de trading. Pero no me hago ilusiones de que mi ventaja dure. Es probable que, en un año, los mercados de predicción se conviertan casi exclusivamente en un duelo entre máquinas.
En tres años, ocurrirá lo mismo con la mayoría de los mercados financieros líquidos a nivel mundial. En cinco años, o bien habremos adaptado nuestras instituciones para que regulen agentes de IA autónomos que tomen decisiones financieras a la velocidad de las máquinas, o bien habremos aprendido el coste de no hacerlo.
Estudio los ríos. Sé algo sobre cómo los pequeños caudales se convierten en inundaciones. El agua está subiendo.
Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.
Lea más en Bloomberg.com













