jueves, 21 de noviembre de 2013

El VaR, la técnica que hundió a Wall Street

jpmorgan.jpg
Olvídese del VAN (Valor Actual Neto) y la TIR (Tasa Interna de Retorno) el VaR (Valor en Riesgo) es la nueva metodología para el análisis de riesgo.
Así rezaban las campañas promocionales de esta nueva metodología que cundió en Wall Street y que la arrastró al precipicio. En términos simples, el VaR cuantifica la exposición al riesgo de mercado, utilizando las técnicas estadísticas tradicionales, pero en análisis de tiempo demasiado corto. El VaRmide la pérdida que se podría sufrir en condiciones normales de mercado con un nivel de confianza del 95%. Por ejemplo, un inversionista que tiene un portafolio de activos por un valor de 10 millones de euros, puede establecer que su VaR diario es de 250.000 euros (al 95% de confianza). Es decir que sólo un día de cada 20 de operaciones del mercado (1/20 = 5%) puede tener una pérdida igual a 250 mil euros.
Esto, que en la teoría funciona perfectamente, fue adoptado y popularizado a principios de los 90 por un puñado de matemáticos que lo aplicaron en JP Morgan. El gran atractivo del VaR era susimplicidad de cálculos, lo que lo diferenciaba del modelo CAPM (capital asset pricing model), ideado por Markowitz en los años 50 y uno de los más difundidos en la cuantificación del riesgo. Los éxitos primerizos del VaR en JP Morgan marcaron una rápida escalada a la masificación de su uso, pese al excesivo y temerario riesgo que ya, a fines de los 90, amenazaba con derribar a todo el sistema.
En su forma más común, el VaR mide los límites de riesgo de una cartera en un período de corta duración bajo el supuesto de un mercado “normal”. Por ejemplo, la probabilidad de que pierda los 10 millones de euros es del 1%. La sencillez de su razonamiento lo llevó a adquirir gran popularidad además de que podía aplicarse a todo tipo de activos. Hasta el Comité de Basilea de Supervisión Bancaria validó esta nueva herramienta autorizando a las empresas y bancos a recurrir a sus propios cálculos de VaR para fijar sus requisitos de capital. Con esta autorización explícita, muchas empresas y bancos hicieron uso del apalancamiento del 1%.
Lo que nadie advirtió fue lo que podía ocurrir en el caso de que se diera ese 1% fatídico, es decir, que se encontrara un cisne negro. Por lo general, gran parte de las teorías científicas (positivismo de Popper) se conforman con explicar el 99% y el estudio de ese 1% lo consideran irrelevante, un “error” o mera “falla” del sistema; de ahí que Popper (padre intelectual de Friedman) valide tan rápidamente la autorregulación de los mercados.
Si bien lo que puede ocurrir en ese 1% es sencillamente catastrófico, además hay que reconocer que la medición del 99% es bastante imprecisa. Como en todo, las teorías de las probabilidades apelan a escenarios más normales que complejos, por tanto, cuando se rompe toda normalidad, es decir, cuando no tenemos sólo un cisne negro sino toda una manada, toda esa operatoria debería apelar a los máximos resguardos, como un barco en medio de la tormenta. No obstante, se permite que siga el juego pese a los varios knock-out técnicos que acumula el sistema.
Al comparar los resultados del Dow Jones durante el mes de octubre, llegamos a dos cambios diarios con más del 10%. La desviación estándar para los cambios diarios del período 1971-2008 fue del 1,032%, lo que indica que los movimientos de la magnitud de los ocurridos en octubre sólo pueden ocurrir una vez cada 73 a 603 billones de años. Si recordamos que nuestro universo tiene 20 mil millones de años (según el cálculo de la mayoría de los físicos), los teóricos de las finanzas habrían tenido que esperar otro billón de universos para observar uno de estos cambios. Pero ocurrió dos veces en el mismo mes. Todo un milagro.
Esto fue lo que llevó a Alan Greenspan a pedir excusas cuando hizo su mea culpa hace unos meses. Tras señalar que había varios Premios Nobel detrás de estas teorías, declaró:
“Todo el edificio intelectual se ha derrumbado debido a que la introducción de datos en los modelos de gestión de los riesgos cubiertos ha tenido en las últimas décadas un período de euforia. Si los modelos hubiesen incorporado tiempos más largos, las exigencias habrían sido mayores y hoy el mundo financiero estaría en mucho mejor pie.”
¿Se comprende por qué estamos en un gran atolladero, y de difícil solución? Y como el sistema no tenía botes salvavidas; no hay nada que pueda sacarnos de este remolino (más bien círculo de acreción) que crece día a día.

6 comentarios:

  1. Al final el VaR no es una metodología, es un concepto: máxima pérdida dado un horizonte temporal y una confianza.
    El modo de medirlo ya es otra cosa, en este sentido, la asunción de normalidad es algo habitual para niveles de confianza por encima del 95% (percentil a partir del cual se ha observado empíricamente que dicha asunción deja de ser conservadora). También se emplea VaR histórico, o VaR paramétrico pero con volatilidad condicional...
    Estos tipos de métodos no son seguros al 100% porque son modelos que no siempre se adaptan a las volatilidades que sufren los precios, el mercado es demasiado volátil por ello en cualquier momento se puede colapsar.
    En definitiva, considero que al igual que la utilización de este método se debe optar por la medición de riesgo por otros métodos.

    ResponderEliminar
  2. Este comentario ha sido eliminado por el autor.

    ResponderEliminar
  3. Actualmente, la medida más aceptada de riesgo es la que se conoce como el “Valor en Riesgo”. El VaR intenta dar una idea sobre la pérdida en que se puede incurrir en un cierto periodo de tiempo pero, al ser inciertas las pérdidas y ganancias, es necesario asociar probabilidades a las diferentes pérdidas potenciales. Un poco más formalmente, el VaR es un nivel de pérdidas (del o los activos de que se trate) tal, que la probabilidad “α” de que la pérdida exceda esta cantidad en un periodo de tiempo dado, corresponde a un cierto nivel de confianza escogido por el analista. Así, el analista fija de antemano el nivel de confianza con el que quiere trabajar y el periodo de tiempo en el que puede ocurrir la pérdida de los activos
    financieros a los que se le quiera medir su riesgo. A partir de estos dos parámetros, el VaR corresponde al cuantil asociado al nivel de confianza fijado, de la distribución de probabilidades de pérdidas y ganancias que puede tener el conjunto de activos, en un horizonte de tiempo dado, dadas las condiciones de incertidumbre que prevalecen en ese momento en el mercado.
    En conclusión la forma de aplicar la metodología debe tomar las variantes y volatilidades del mercado, para que las estimaciones sean lo mas acertadas y apegadas a la realidad.

    ResponderEliminar
  4. El VAR es una de las medidas mas utilizadas para calcular el riesgo de un portafolio de inversiones, el VAR utiliza una metodología donde se acepta naturalmente que existirá un error, pienso que la respecto el error mas grande del VAR es que es un método que ya ha quedado obsoleto y que desde sus fundamentos es errado, la física aplicada a sus finanzas ha mostrado lo vulnerable de este método y la necesidad de que se utilicen otras medidas para medir el riesgo esto basado en que el comportamiento de las personas es muy complejo y no puede estar basado en métodos que asumen normalidad y modelos de equilibrio cosas totalmente contradictorias.

    ResponderEliminar
  5. Concretamente existe más un supuesto para calcular el VaR según sea el supuesto hecho sobre los retornos que dan los precios. Una de esas formas (para calcular el VaR) es RiskMetrics (no solo aplicado, sino desarrollado por JPMorgan), donde se asume (en su forma más simple) que los retornos diarios del portafolio siguen una distribución normal condicional, etc, etc. Es decir que el VaR no es un solo modelo; es un concepto que se calcula de por lo menos 4 formas distintas.
    Éstos modelos pueden fallar, en primer lugar por los supuestos sobre las distribuciones que siguen, en este caso, los retornos y en segundo lugar porque el término de innovación podría contener más información de la esperada, esto es, el modelo contiene comportamientos no considerados.
    A mi forma de ver, este no es un ambiente de carácter puramente técnico, sino que es un sitio donde interactúan los números con la ética. Si la reglas fuesen claras y las empresas estuviesen reguladas los modelos se ajustarían a la realidad. La última crisis se dio debido a la revalorización de las casas (cuestión que se habría controlado con una simple ley o decreto sin la necesidad de un maravilloso modelo matemático) que impulso a la gente a suspender sus créditos. Dada su necesidad de negocio los bancos lanzaron nuevos productos al mercado, -para poder venderlos- a tasas de interés realmente bajas y sin requisitos para calificar al cliente a quien se prestaba. Estos aspectos son -como ya mencioné- absolutamente controlables con un decreto o ley; los modelos sirven perfectamente para decirnos la probabilidad de perder una cantidad de dinero, pero bajo situaciones de calificación al cliente. Si no calificamos a un cliente, no podemos esperar que el modelo diga todo por nosotros y peor aún cuando esa calificación (obligatoria) se omite por razones contrarias a la buena práctica profesional y ética.

    ResponderEliminar