Investigación de operaciones II

La Investigación de Operaciones se ocupa de la solución de problemas relacionados con la conducción y coordinación de las operaciones o actividades dentro de una organización. Su ámbito de aplicación es muy amplio, enfocándose en problemas de fabricación, transporte, construcción, telecomunicaciones, planificación y gestión financiera, ciencias de la salud, servicios públicos, entre otros.

En general, se puede aplicar en todos los problemas relacionados con la gestión, la planificación y el diseño. La Investigación de Operaciones incluye un conjunto muy amplio de técnicas orientadas a proporcionar una ayuda cuantitativa a la toma de decisiones. El método empleado es el método científico, y las técnicas que se utilizan son, en buena medida, técnicas matemáticas.


En este curso se tratan los siguientes temas:

· Modelos de inventario

· Cadenas de Markov

· Teoría de juegos

· Teoría de decisiones

Cadenas de Markov


HISTORIA: ANDRÉI MARKOV
 Andréi Andréyevich Márkov (Андре́й Андре́евич Ма́рков) (14 de junio de 1856 - 20 de julio de1922) fue un matemático ruso conocido por sus trabajos en la teoría de los números y la teoría de probabilidades.
Márkov nació en Riazán, Rusia. Antes de los 10 años su padre, un funcionario estatal, fue trasladado a San Petersburgo donde Andréi entró a estudiar en un instituto de la ciudad. Desde el principio mostró cierto talento para las matemáticas y cuando se graduó en 1874 ya conocía a varios matemáticos de la Universidad de San Petersburgo, donde ingresó tras su graduación. En la Universidad fue discípulo de Chebyshov y tras realizar sus tesis de maestría y doctorado, en1886 accedió como adjunto a la Academia de Ciencias de San Petersburgo a propuesta del propio Chebyshov. Diez años después Márkov había ganado el puesto de académico regular. Desde 1880, tras defender su tesis de maestría, Márkov impartió clases en la Universidad y, cuando el propio Chebyshov dejó la Universidad tres años después, fue Márkov quien le sustituyó en los cursos de teoría de la probabilidad. En 1905, tras 25 años de actividad académica, Márkov se retiró definitivamente de la Universidad, aunque siguió impartiendo algunos cursos sobre teoría de la probabilidad.
A parte de su perfil académico, Andréi Márkov fue un convencido activista político. Se opuso a los privilegios de la nobleza zarista y llegó a rechazar las condecoraciones del propio zar en protesta por algunas decisiones políticas relacionadas con la Academia de Ciencias. Hasta tal punto llegó su implicación en la política que llegó a ser conocido con el sobrenombre de "el académico militante".
Márkov arrastró durante toda su vida problemas relacionados con una malformación congénita en la rodilla que le llevaría varias veces al quirófano y que, con el tiempo, fue la causa de su muerte cuando el 20 de julio del año 1922 una de las muchas operaciones a las que se sometió le produjo una infección generalizada de la que no pudo recuperarse.
Aunque Márkov influyó sobre diversos campos de las matemáticas, por ejemplo en sus trabajos sobre fracciones continuas, la historia le recordará principalmente por sus resultados relacionados con la teoría de la probabilidad. En 1887 completó la prueba que permitía generalizar el teorema central del límite y que ya había avanzado Chebyshov. Pero su aportación más conocida es otra.
Su trabajo teórico en el campo de los procesos en los que están involucrados componentes aleatorios (procesos estocásticos) darían fruto en un instrumento matemático que actualmente se conoce como cadena de Márkov: secuencias de valores de una variable aleatoria en las que el valor de la variable en el futuro depende del valor de la variable en el presente, pero es independiente de la historia de dicha variable. Las cadenas de Márkov, hoy día, se consideran una herramienta esencial en disciplinas como la economía, la ingeniería, la investigación de operaciones y muchas otras.


CONCEPTO


Con las Cadenas de Markov podremos hacer predicciones de comportamientos futuros como las que se observaron en las situaciones anteriores. Así, si llamamos estados a cada una de estas posibilidades que se pueden presentar en un experimento o situación especifica, entonces podemos visualizar en éstas una herramienta que nos permitiría conocer a corto y largo plazo los estados en que se encontrarían en periodos o tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros intereses.
Las cadenas de Markov son herramienta para analizar el comportamiento y el gobierno de determinados tipos de procesos estocásticos (procesos no determinísticos) a lo largo del tiempo en torno a un conjunto de estados.
Representa un sistema que varía su estado a lo largo del tiempo,  siendo cada cambio una transición del sistema. Estos cambios no están predeterminados, aunque sí lo está la probabilidad del próximo estado en función de los anteriores, siendo esta constante a lo largo del tiempo. 



Elementos clave de una cadena de Markov

  • ·         Estados: Un estado es una caracterización cualitativa o cuantitativa de una situación en que se halla el sistema en un instante dado. 
  • ·         Matriz de transición (T): Matriz cuadrada con tantas filas y columnas como estados tiene el sistema. Sus elementos representan las probabilidades de que un estado (fila) permanezca en el mismo o cambie a los siguientes estados (columnas). La suma de las probabilidades por fila ha de ser igual a 1.
  • ·         Composición actual de los estados (Po): En ocasiones se dispondrá con la composición actual de los estados, para hallar la composición de dichos estados proyectada en un periodo n.
Los estados que pueden ocurrir, pueden ser de diferentes tipos, algunos son los siguientes:
  • ·         Estado Absorbente: una vez el proceso entra en este estado, permanecerá allí indefinidamente, es decir, la probabilidad de hacer una transición fuera de ese estado es igual a 0 (cero).

    ·         Estado de transición: es el que no llega a ser absorbente, o sea, sus probabilidades cambian constantemente con respecto al periodo anterior.

     De una cadena de Markov que consta de estados transitorios y absorbentes se dice que es una Cadena de Markov Absorbente. Por otro lado, si en una cadena de Márkov existe alguna potencia positiva de la matriz de transición cuyas entradas sean todas estrictamente mayores que cero, se dice que es una cadena de Markov regular, primitiva o ergódica.

    ·         Estado recurrente: es en el que comenzando en él se tenga la certeza de volver en algún momento del tiempo (una determinada cantidad de etapas) sobre si mismo. Si tenemos una Cadena de Markov que tiene una cantidad finita de estados e identificamos un estado recurrente, este será recurrente positivo. Si la cantidad de estados es infinito entonces un estado recurrente será recurrente nulo.

    Para poder estudiar las cadenas de Markov absorbentes es preciso reordenar la matriz de transición de forma que las filas correspondientes a los estados absorbentes aparezcan en primer lugar. Así ordenada se dirá que la matriz de transición está en la forma canónica.

Para hallar las probabilidades de ocurrencia de los eventos en una cadena Markov absorbente, se realizan las operaciones para resolver la siguiente ecuación:
 

En la cual:
  • Px es la probabilidad de recurrencia de un estado.
  • I es la matriz identidad.
  • N es la matriz no absorbente.
  • A es la matriz absorbente.