martes, septiembre 25

Conceptos para las cadenas de Markov

conceptos-cadenas-de-markov
Una Cadena de Markov es una serie de acontecimientos, en los que la probablidad de que ocurra uno depende del inmediatamente anterior. Una de las utilidades de los Modelos de Markov, en la que se va a centrar este artículo, es analizar los patrones de compra de los consumidores de un determinado producto o marca concreta.

Los conceptos necesarios para describir una Cadena de Markov son los siguientes:
  1. Estados (Ei, i=1,…, n). Son aquellas opciones entre las que pueden elegir los consumidores. Para que los estados formen parte del mismo mercado es necesario que todos los consumidores de dicho mercado tenga acceso a todos los estados en igualdad de condiciones.
  2. Cuota de mercado o Estado de probabilidad (Pi, i=1,.., n). Es la probabilidad de consumir el Estado i en el momento n. Siempre estará situado en 0 ≤ Pi ≤ 1. Se calcula con la siguiente fórmula:
Pi = (Número de consumidores del Estado i en el momento n) / (Número de consumidores totales)
  1. Vector estado (Pn). Es un vector fila formado por las cuotas de mercado del momento n. Los elementos de este vector suman siempre 1.
Pn= (P1, P2, P3,…, Pi)
  1. Probabilidad de cambio (Pij i=1,…, n y j=1,…, n). Es la probabilidad de que un consumidor que esté en el Estado i en el momento n pase al Estado j en el momento n+1. Siempre estará situado en 0 ≤ Pij ≤ 1. Se calcula con la siguiente fórmula:
    Pij = (Número de consumidores del Estado i en el momento n que se pasan al Estado j en el momento n+1) / (Número de consumidores totales del Estado i en el momento n)
  1. Matriz de transición (Mt). Es la matriz formada por las distintas probabilidades de cambio. Sus filas siempre suman 1.
    matriz-de-transicion
  1. Cadenas de Markov. Utilizando una serie de herramientas estadísticas y por tratarse de un proceso estocástico (un conjunto de variables aleatorias que evolucionan en función, normalmente, del tiempo) la conclusión a la que se llega es:
Pn * Mt = Pn+1

Es decir, que al multiplicar el vector estado del momento n por la matriz de cambio o matriz de transición se puede obtener el vector estado del momento n+1.

Y por lo tanto mediante inducción, podemos llegar a:

Si n = 0 Po * M = P1
Si n = 1 P1 * M = P2 Po * M *M = P2 Po* M2 = P2
Si n = 2 P2 * M = P3 P0 *M2* M = P3 P0*M3 = P3
.
.
.
Por lo tanto obtenemos la siguiente fórmula de las Cadenas de Markov:

P0*Mn = Pn

Es decir, que conociendo las probabilidades de consumo de cada producto o marca en el momento actual y conociendo las probabilidades de cambio, se puede saber la probabilidad de consumo de cada marca o producto en cualquier momento del tiempo, siempre y cuando no cambien las condiciones de mercado (los distintos estados, el número total de consumidores, la matriz de transición...).
  1. Vector Equilibrio o Vector de Estabilidad. Es aquel que se obtiene a largo plazo si la matriz de transición cumple la característica del ergodismo. Es un vector estable que nunca se modificará salvo que cambien las condiciones de mercado.
Sea un Pn= (X, Y, Z…) vector de estabilidad; pues Pn* Mt= Pn siempre y cuando la matriz sea ergódica.

  1. Matriz ergódica. Una matriz es ergódica si su primer autovalor es uno y el resto de los autovalores menores que uno.
  2. Estado absorvente. Es aquél estado cuya probabilidad de pasar de uno a otro es nula. Por ejemplo, si el primer estado fuera absorvente, la matriz de transición quedaría así:

    estado-absorvente

No hay comentarios:

Publicar un comentario

Deja tu aportación, siempre desde el respeto, la tolerancia y el buen gusto