Cómo usar cadenas de Markov para ganar cada operación (Marco cuantitativo)

Cómo usar cadenas de Markov para ganar cada operación (Marco cuantitativo)

@RohOnChain
INGLÉShace 3 días · 12 may 2026

AI features

3.3M
1.6K
242
49
5.5K

TL;DR

Esta guía integral explica cómo construir modelos de cadenas de Markov para el trading, cubriendo matrices de transición, probabilidades de varios pasos y modelos ocultos de Markov para detectar estados ocultos del mercado.

Voy a desglosar cómo los fondos de cobertura usan las Cadenas de Markov para encontrar operaciones ganadoras de alta probabilidad de forma consistente y compartir el marco exacto que puedes empezar a construir hoy.

Vamos directo al grano.

Guarda esto — Soy Roan, desarrollador backend especializado en diseño de sistemas, ejecución estilo HFT y sistemas de trading cuantitativo. Mi trabajo se centra en cómo se comportan realmente los mercados de predicción bajo carga. Para sugerencias, colaboraciones reflexivas o alianzas, los DM están abiertos.

La mayoría de los traders miran un gráfico y ven precio.

Los cuants miran el mismo gráfico y ven algo completamente diferente. Ven una secuencia de estados. Alcista. Bajista. Lateral. Cada estado con su propia probabilidad de persistir o transitar al siguiente. Cada transición gobernada por matemáticas que se han usado para modelar desde incumplimientos de préstamos hasta secuencias de ADN y el algoritmo PageRank original de Google.

El marco se llama Cadena de Markov. Y es una de las herramientas más versátiles y subutilizadas en el trading sistemático.

Mientras los traders minoristas dibujan líneas de soporte y miran el RSI, los equipos de investigación cuantitativa en firmas como Citadel y Two Sigma construyen modelos de cambio de régimen que entienden no solo dónde está el mercado, sino hacia dónde es más probable que vaya a continuación según dónde ha estado. Las matemáticas detrás de esos modelos comienzan exactamente aquí.

Ya he escrito el marco completo de implementación de redes neuronales para construir señales de trading con machine learning. Ese artículo es el complemento lógico de este.

Al final de este artículo entenderás exactamente qué es una Cadena de Markov y por qué mapea el comportamiento del mercado mejor que cualquier indicador individual, cómo construir un modelo completo de transición de estados a partir de datos reales de mercado, cómo calcular la probabilidad de cualquier estado futuro del mercado usando nada más que multiplicación de matrices, el pipeline completo de implementación desde datos de precio brutos hasta señales de trading en vivo, y los errores exactos que hacen que la mayoría de los modelos de Cadena de Markov fallen en mercados reales.

Nota: Este artículo es deliberadamente largo. Cada parte se construye sobre la anterior. Si hablas en serio sobre agregar una ventaja cuantitativa genuina a tu trading, lee cada palabra. Si buscas un atajo, esto no es para ti.

Parte 1: Por qué la independencia falla y dónde comienzan las Cadenas de Markov

Antes de que puedas construir algo con Cadenas de Markov, necesitas entender el problema fundamental que fueron diseñadas para resolver.

La mayoría de los modelos de probabilidad básicos asumen independencia. Cada evento se trata como si no tuviera conexión con lo que vino antes. Lanzas un dado. El resultado del lanzamiento 100 no tiene nada que ver con el lanzamiento 99. Cada lanzamiento es completamente independiente.

Los mercados no funcionan así.

Imagina que estás modelando una cartera de préstamos. Cada préstamo en cualquier momento puede estar en uno de cuatro estados: al día, 30 a 59 días de retraso, 60 a 89 días de retraso, o 90 o más días de retraso. Quieres modelar cómo evoluciona esta cartera con el tiempo. Así que pruebas el enfoque más simple. Modelas cada mes de forma independiente. Extraes de la distribución histórica de cada estado.

Un mes después, tu modelo dice que algunos préstamos que estaban al día el mes pasado ahora están morosos por más de 90 días.

Eso es matemáticamente imposible. Un préstamo no puede saltar de estar al día a más de 90 días de retraso en un solo período de 30 días. La suposición ingenua de independencia produjo un modelo que viola la realidad.

Este es exactamente el problema que resuelven las Cadenas de Markov. En lugar de asumir que cada paso es independiente de todo lo que vino antes, una Cadena de Markov introduce dependencia condicional local. El siguiente estado depende del estado actual. No de todo lo que ocurrió hace diez pasos. Solo de dónde estás ahora.

Formalmente, una secuencia de variables aleatorias X₀, X₁, X₂, ... es una Cadena de Markov si satisface la propiedad de Markov:

P(Xₙ₊₁ = s | X₀, X₁, ..., Xₙ) = P(Xₙ₊₁ = s | Xₙ)

La probabilidad del siguiente estado depende solo del estado actual, no de toda la historia. Esta única propiedad es lo que hace que las Cadenas de Markov sean a la vez manejables y poderosas. Capturan la estructura de dependencia esencial de un proceso sin requerir que rastrees toda la historia.

Para los mercados financieros, esto se traduce directamente. La probabilidad de que el mercado esté en un régimen alcista el próximo mes depende de si está en un régimen alcista, bajista o lateral este mes. No de lo que ocurrió hace dos años. El estado actual lleva toda la información relevante que necesitas para pronosticar el siguiente estado.

Roan - inline image

Esto no es una simplificación por conveniencia. Es una suposición matemáticamente fundamentada que, cuando se aplica correctamente, produce modelos que son dramáticamente más precisos que la independencia ingenua, mientras siguen siendo computacionalmente manejables.

Parte 2: Construyendo el espacio de estados y la matriz de transición

El primer paso práctico para construir un modelo de trading con Cadenas de Markov es definir tus estados. Esto es más importante de lo que la mayoría de los profesionales creen.

Para los mercados financieros, las definiciones comunes de estados incluyen:

Regímenes de volatilidad: Baja volatilidad, volatilidad media, alta volatilidad definidos por umbrales de volatilidad realizada móvil.

Regímenes de tendencia: Alcista, bajista, lateral definidos por la posición del precio relativa a medias móviles o por el signo y magnitud de los retornos recientes.

Regímenes de liquidez: Alta liquidez, baja liquidez definidos por spreads de oferta-demanda o profundidad del libro de órdenes.

Regímenes de crédito: Risk-on, risk-off definidos por spreads de crédito o correlaciones entre activos.

Para una implementación inicial concreta, un modelo de régimen de mercado de tres estados funciona bien. Define:

Estado 0 como Alcista: el retorno a 20 días está por encima de un umbral positivo. Estado 1 como Bajista: el retorno a 20 días está por debajo de un umbral negativo. Estado 2 como Lateral: todo lo demás.

El requisito clave es que tus estados deben ser mutuamente excluyentes y colectivamente exhaustivos. Cada observación debe caer exactamente en un estado en cualquier momento. Sin vacíos ni superposiciones.

Una vez que has definido tus estados, necesitas estimar las probabilidades de transición entre ellos. Esto es la matriz de transición. Cada entrada P(i,j) representa la probabilidad de pasar del estado i al estado j en un paso de tiempo.

La matriz de transición para un modelo de tres estados se ve así:

P = | P(0,0) P(0,1) P(0,2) | | P(1,0) P(1,1) P(1,2) | | P(2,0) P(2,1) P(2,2) |

Cada fila debe sumar exactamente 1.0 porque desde cualquier estado dado, el sistema debe transitar a algún estado en el siguiente paso, incluyendo permanecer en el mismo estado.

El estimador de máxima verosimilitud para cada probabilidad de transición es maravillosamente simple. Cuenta cuántas veces el sistema transitó del estado i al estado j. Divide por el número total de transiciones desde el estado i:

P̂(i,j) = Conteo(i → j) / Conteo(i → cualquier estado)

Así es exactamente como estimarías una probabilidad de forma intuitiva. También es lo que produce la derivación completa del estimador de máxima verosimilitud cuando maximizas la función de log-verosimilitud para datos de Cadenas de Markov. La respuesta intuitiva y la respuesta matemáticamente rigurosa son la misma.

Aquí está la implementación completa en Python:

La matriz de transición que produces a partir de este proceso es el mapa de tu mercado. Cada entrada te dice la probabilidad de moverse entre dos regímenes específicos. Es la base de todo lo que sigue.

Parte 3: Cálculo de probabilidades de transición de múltiples pasos

Aquí es donde las Cadenas de Markov se vuelven genuinamente poderosas como herramienta de trading.

Ahora tienes la matriz de transición de un paso P. Pero lo que realmente quieres saber como trader no es solo lo que ocurre el próximo mes. Quieres saber cómo se verá probablemente el mercado en tres meses, seis meses, doce meses. Quieres saber la probabilidad de comenzar en un régimen alcista hoy y terminar en un régimen bajista después de doce transiciones.

Aquí es donde entra la ecuación de Chapman-Kolmogorov. Establece que la probabilidad de transición de n pasos del estado i al estado j es la entrada (i,j) de la matriz P elevada a la n-ésima potencia:

P^(n)(i,j) = [Pⁿ]ᵢⱼ

Eso es todo. Para calcular la probabilidad de transitar de cualquier estado a cualquier otro estado en n pasos, simplemente multiplicas la matriz de transición por sí misma n veces y lees la entrada correspondiente.

Este es un resultado extraordinariamente elegante. Toda la complejidad matemática de calcular caminos a través de un espacio de estados durante múltiples pasos se reduce a una sola potencia de matriz.

Lo que esto te dice como trader es específico y accionable. Si actualmente estás en un régimen alcista, ahora puedes cuantificar la probabilidad de que todavía estés en un régimen alcista en 12 meses versus haber transitado a bajista o lateral. Esa probabilidad informa tu tamaño de posición, tus decisiones de cobertura y tu asignación de estrategias.

Hay otro resultado crítico de este marco: la distribución estacionaria. A medida que n se vuelve muy grande, la distribución entre estados converge a un vector fijo π independientemente del estado inicial:

π = π × P

La distribución estacionaria te dice la proporción a largo plazo del tiempo que el mercado pasa en cada régimen. En la práctica, resuelves para π usando:

La distribución estacionaria es tu línea base a largo plazo. Cualquier estrategia que apueste fuertemente por un régimen que la distribución estacionaria te dice que es raro está asumiendo un riesgo de cola significativo. Conocer las proporciones de régimen a largo plazo es esencial para el diseño de estrategias.

Roan - inline image

Parte 4: Del modelo de régimen a la señal de trading

Tener un modelo de régimen no es una estrategia de trading. Convertirlo en una requiere conectar las probabilidades del régimen con decisiones de posición específicas.

La idea central es esta: la Cadena de Markov te da una distribución de probabilidad sobre estados futuros en cada punto en el tiempo. Tu señal de trading es una función de esa distribución.

El enfoque más simple es la asignación directa basada en el régimen. Cuando el modelo dice que estás en un régimen alcista, ve largo. Cuando bajista, ve corto o plano. Cuando lateral, reduce el tamaño de la posición.

Un enfoque más sofisticado usa el vector de probabilidad completo como entrada para el tamaño de la posición. El vector de distribución de estado actual π_t representa tu asignación de probabilidad entre regímenes en el tiempo t. Puedes construir una posición que sea proporcional a tu confianza en cada régimen:

La estructura de walk-forward en el backtest anterior es crítica. Reestimas la matriz de transición en cada paso usando solo los datos históricos disponibles en ese punto. Nunca usas información futura para estimar probabilidades pasadas. Esta es la diferencia entre un backtest realista y uno que está garantizado para decepcionar en trading en vivo.

Roan - inline image

Parte 5: El pipeline completo de implementación y limitaciones críticas

Esta sección ensambla todo en un sistema de trading con Cadenas de Markov listo para producción y aborda las suposiciones que determinarán si tu modelo sobrevive al contacto con mercados reales.

Implementación completa del sistema:

Las tres suposiciones que debes entender antes de desplegar:

La primera es la propia propiedad de Markov. El modelo asume que el siguiente estado depende solo del estado actual, no de una historia más larga. En realidad, los mercados a veces exhiben dependencias de mayor alcance. Una tendencia que ha estado corriendo durante seis meses puede tener probabilidades de transición diferentes a una que acaba de comenzar. Puedes abordar esto parcialmente expandiendo tu espacio de estados para incluir información de duración, aunque esto aumenta significativamente la complejidad.

La segunda es la homogeneidad temporal. El modelo asume que las probabilidades de transición son constantes en el tiempo. No lo son. La probabilidad de que un régimen alcista transite a bajista era muy diferente en 2008 que en 2021. La mitigación estándar es la reestimación con ventana móvil, que ya has visto en el backtest walk-forward anterior. Ventanas más cortas se adaptan más rápido pero producen estimaciones más ruidosas. Ventanas más largas producen estimaciones más estables pero se retrasan en los cambios de régimen.

La tercera son datos suficientes para una estimación confiable. El estimador de máxima verosimilitud converge a las verdaderas probabilidades de transición a medida que observas más transiciones. Con pocas observaciones, particularmente para transiciones raras, tus estimaciones serán ruidosas y poco confiables. Siempre verifica que cada celda en tu matriz de transición haya sido estimada a partir de al menos 20 a 30 transiciones observadas. Si no, considera fusionar estados o extender tu historial de datos.

Parte 6: Modelos Ocultos de Markov — Llevando el marco más allá

Cada suposición en el modelo hasta ahora tiene algo en común. Asumiste que podías ver el régimen.

Etiquetaste cada día como Alcista, Bajista o Lateral usando retornos móviles. Pero el régimen nunca fue directamente observable. Lo dedujiste del precio. Eso no es lo mismo. Un régimen bajista que aún no se ha mostrado en los precios porque el posicionamiento institucional se está moviendo silenciosamente bajo la superficie es completamente invisible para tus etiquetas de estado.

Esta es la limitación central de las Cadenas de Markov observables. Los Modelos Ocultos de Markov (HMM) la solucionan.

Roan - inline image

En un HMM, el verdadero régimen es un estado oculto que no puedes observar. Lo que puedes observar es la secuencia de retornos. Cada estado oculto genera retornos desde su propia distribución. El régimen alcista produce retornos con una media positiva y baja varianza. El régimen bajista produce retornos con una media negativa y alta varianza. El modelo aprende tanto las transiciones de régimen como las distribuciones de retorno al mismo tiempo, solo a partir de datos de precio, sin que tú etiquetes un solo día manualmente.

Hay dos algoritmos que hacen esto posible.

El primero es Baum-Welch. Este es el algoritmo que estima todos los parámetros del modelo a partir de la secuencia de retornos observable. Le das retornos. Aprende la matriz de transición, la distribución de retorno para cada régimen y las probabilidades iniciales, todo sin requerir datos etiquetados. Corre hacia adelante a través de la secuencia calculando probabilidades, luego hacia atrás para refinarlas, repitiendo hasta la convergencia.

El segundo es Viterbi. Una vez que tienes un modelo ajustado, Viterbi decodifica la secuencia más probable de regímenes ocultos que produjeron tus retornos observados. No te da probabilidades suaves. Te da el mejor camino único a través del espacio de estados ocultos.

La generación de señal es idéntica a la Parte 4. En cada paso calculas la probabilidad de estar en cada régimen ahora mismo. Multiplicas ese vector por la matriz de transición para obtener el pronóstico de un paso adelante. La probabilidad alcista menos la probabilidad bajista da tu posición.

Dos cosas a tener en cuenta antes de desplegar esto.

Baum-Welch encuentra un máximo local, no uno global. Siempre ejecútalo desde múltiples inicios aleatorios y conserva el modelo con la mayor log-verosimilitud. La inicialización única por defecto producirá frecuentemente asignaciones de régimen subóptimas.

Las variables de emisión que elijas importan más que cualquier otra decisión de diseño. Los retornos solos llevan información limitada sobre el verdadero régimen económico. Los retornos combinados con volatilidad realizada, spreads de crédito y la estructura de plazos del VIX le dan al modelo una señal mucho más rica. La elección de qué alimentar como observaciones es donde el conocimiento del dominio potencia las matemáticas.

La Cadena de Markov observable te dio un mapa de regímenes. El Modelo Oculto de Markov construye ese mapa en tiempo real a partir de señales ruidosas, sin requerir un solo punto de datos etiquetado manualmente. Esa es la dirección hacia la que se han movido los modelos institucionales de cambio de régimen. Ahora tienes el marco completo para construir uno.

El resumen

Las Cadenas de Markov no predicen el futuro. Lo que hacen es algo más útil. Cuantifican la probabilidad de cada posible estado futuro dado el estado actual. Te dan un mapa matemático de los regímenes del mercado y la probabilidad de transitar entre ellos.

El marco es completamente implementable en un fin de semana. La matriz de transición se estima a partir de datos históricos en un puñado de líneas de Python. La ecuación de Chapman-Kolmogorov te da pronósticos de n pasos a través de una sola potencia de matriz. La distribución estacionaria te dice la línea base a largo plazo. Y el backtest walk-forward te dice si tu modelo tiene poder predictivo genuino o está ajustando ruido.

Las suposiciones son reales e importan. La homogeneidad temporal se viola. La propiedad de Markov es una aproximación. El error de estimación siempre está presente. Pero como modelo de primera pasada y como bloque de construcción para extensiones más sofisticadas de Modelos Ocultos de Markov, este marco se ha desplegado en producción en firmas reales y ha generado ventajas reales.

Ahora tienes la implementación completa. El código está en este artículo. Las matemáticas se explican desde primeros principios. Las limitaciones críticas están documentadas para que sepas exactamente dónde puede fallar el modelo y cómo mitigar esas fallas.

Aquí está la pregunta con la que quiero que te quedes.

El modelo de Cadena de Markov define regímenes basados en el comportamiento observable del precio. Pero los regímenes de mercado más importantes, aquellos alrededor de los cuales los traders institucionales realmente operan, a menudo están impulsados por factores latentes como las condiciones crediticias, la postura de la política monetaria y el apetito por el riesgo que no son directamente visibles solo en los datos de precio. Si estuvieras diseñando un Modelo Oculto de Markov para mercados, ¿qué señales observables usarías como tus variables de emisión y por qué?

Deja tu respuesta en los comentarios.

No hay respuesta incorrecta, pero hay respuestas muy reveladoras.

More patterns to decode

Recent viral articles

Explore more viral articles

Creado para creadores.

Encuentra ideas en artículos virales de 𝕏, descubre por qué funcionaron y convierte esos patrones en tu próximo ángulo de contenido.