El valor en riesgo (VaR) es una medida ampliamente utilizada del riesgo de inversión a la baja para una sola inversión o una cartera de inversiones. El VaR indica la pérdida máxima en dólares de una cartera durante un periodo de tiempo específico para un determinado nivel de confianza. A menudo, el nivel de confianza se elige para dar una indicación del riesgo de cola, es decir, el riesgo de que se produzcan eventos de mercado raros y extremos.
Por ejemplo, basándose en un cálculo de VaR, un inversor puede tener un 95% de confianza en que la pérdida máxima en un día de una inversión en acciones de 100 dólares no superará los 3 dólares. El VaR (3 dólares en este ejemplo) puede medirse utilizando tres metodologías diferentes. Cada metodología se basa en la creación de una distribución de los rendimientos de la inversión; dicho de otro modo, a todos los posibles rendimientos de la inversión se les asigna una probabilidad de ocurrencia durante un periodo de tiempo determinado. (Véase también Introducción al valor en riesgo (VaR).)
¿Cuál es la precisión del VaR??
Una vez elegida una metodología de VaR, el cálculo del VaR de una cartera es un ejercicio bastante sencillo. El reto consiste en evaluar la exactitud de la medida y, por tanto, la exactitud de la distribución de los rendimientos. Conocer la exactitud de la medida es especialmente importante para las instituciones financieras, ya que utilizan el VaR para estimar la cantidad de efectivo que necesitan reservar para cubrir posibles pérdidas. Cualquier inexactitud en el modelo VaR puede significar que la entidad no está manteniendo suficientes reservas y podría provocar pérdidas significativas, no sólo para la entidad, sino potencialmente para sus depositantes, inversores individuales y clientes corporativos. En condiciones de mercado extremas, como las que el VaR intenta captar, las pérdidas pueden ser lo suficientemente grandes como para provocar la quiebra. (Véase también Lo que hay que saber sobre la quiebra.)
Cómo comprobar la exactitud de un modelo VaR
Los gestores de riesgos utilizan una técnica conocida como backtesting para determinar la precisión de un modelo VaR. El backtesting implica la comparación de la medida de VaR calculada con las pérdidas (o ganancias) reales obtenidas en la cartera. Un backtest se basa en el nivel de confianza que se asume en el cálculo. Por ejemplo, el inversor que ha calculado un VaR de un día de 3 dólares en una inversión de 100 dólares con un 95% de confianza, esperará que la pérdida de un día en su cartera supere los 3 dólares sólo el 5% de las veces. Si el inversor registrara las pérdidas reales a lo largo de 100 días, la pérdida superaría los 3 dólares exactamente en cinco de esos días si el modelo VaR es preciso. Una simple prueba retrospectiva compara la distribución de la rentabilidad real con la distribución de la rentabilidad del modelo, comparando la proporción de excepciones de pérdidas reales con el número esperado de excepciones. La prueba retrospectiva debe realizarse durante un período suficientemente largo para garantizar que haya suficientes observaciones de rentabilidad real para crear una distribución de rentabilidad real. Para una medida de VaR de un día, los gestores de riesgos suelen utilizar un periodo mínimo de un año para el backtesting.
El backtest simple tiene un gran inconveniente: depende de la muestra de rendimientos reales utilizada. Consideremos de nuevo al inversor que ha calculado un VaR de 3 dólares en un día con un nivel de confianza del 95%. Supongamos que el inversor realiza un backtest durante 100 días y encuentra exactamente cinco excepciones. Si el inversor utiliza un periodo de 100 días diferente, puede haber menos o más excepciones. Esta dependencia de la muestra hace que sea difícil determinar la exactitud del modelo. Para subsanar esta debilidad, se pueden aplicar pruebas estadísticas que arrojen más luz sobre si un backtest ha fallado o superado.
Qué hacer si el Backtest falla
Cuando un backtest falla, hay una serie de posibles causas que hay que tener en cuenta:
La distribución de la rentabilidad equivocada
Si la metodología del VaR asume una distribución de rendimientos (e.g., una distribución normal de los rendimientos), es posible que la distribución del modelo no se ajuste bien a la distribución real. Las pruebas estadísticas de bondad de ajuste pueden utilizarse para comprobar que la distribución del modelo se ajusta a los datos reales observados. Como alternativa, se puede utilizar una metodología de VaR que no requiera una hipótesis de distribución.
Un modelo VaR mal especificado
Si el modelo VaR capta, por ejemplo, sólo el riesgo del mercado de renta variable, mientras que la cartera de inversión está expuesta a otros riesgos, como el de tipos de interés o el de divisas, el modelo está mal especificado. Además, si el modelo VaR no capta las correlaciones entre los riesgos, se considera que está mal especificado. Esto puede rectificarse incluyendo en el modelo todos los riesgos aplicables y las correlaciones asociadas. Es importante reevaluar el modelo VaR cada vez que se añaden nuevos riesgos a una cartera.
Medición de las pérdidas reales
Las pérdidas reales de la cartera deben ser representativas de los riesgos que pueden modelarse. Más concretamente, las pérdidas reales deben excluir las comisiones u otros costes o ingresos de este tipo. Las pérdidas que representan sólo los riesgos que pueden modelarse se denominan "pérdidas limpias." Los que incluyen comisiones y otros elementos de este tipo se conocen como "pérdidas sucias." Las pruebas retrospectivas deben realizarse siempre utilizando pérdidas limpias para garantizar una comparación similar.
Otras consideraciones
Es importante no confiar en un modelo de VaR simplemente porque pase un backtest. Aunque el VaR ofrece información útil sobre la exposición al riesgo en el peor de los casos, depende en gran medida de la distribución de la rentabilidad empleada, especialmente de la cola de la distribución. Dado que los eventos de cola son tan infrecuentes, algunos profesionales sostienen que cualquier intento de medir las probabilidades de cola basado en la observación histórica es intrínsecamente defectuoso. Según Reuters, „el VaR fue objeto de fuertes críticas tras la crisis financiera, ya que muchos modelos no pudieron predecir el alcance de las pérdidas que devastaron a muchos grandes bancos en 2007 y 2008.”
La razón? Los mercados no habían experimentado un evento similar, por lo que no se captó en las colas de las distribuciones que se utilizaron. Tras la crisis financiera de 2007, también quedó claro que los modelos VaR son incapaces de captar todos los riesgos; por ejemplo, el riesgo de base. Estos riesgos adicionales se denominan „riesgo no incluido en el VaR” o RNiV.
Para tratar de subsanar estas deficiencias, los gestores de riesgos complementan la medida del VaR con otras medidas de riesgo y otras técnicas, como las pruebas de resistencia.
El resultado final
El valor en riesgo (VaR) es una medida de las peores pérdidas durante un periodo de tiempo específico con un determinado nivel de confianza. La medición del VaR depende de la distribución de los rendimientos de las inversiones. Para comprobar si el modelo representa o no la realidad, se puede realizar un backtesting. Un backtest fallido significa que el modelo VaR debe ser reevaluado. Sin embargo, un modelo VaR que supera un backtest debe complementarse con otras medidas de riesgo debido a las deficiencias de la modelización VaR. (Véase también Cómo calcular la rentabilidad de su inversión.)
Fuentes del artículo
Nuestro equipo requiere que los escritores utilicen fuentes primarias para apoyar su trabajo. Entre ellos se encuentran los libros blancos, los datos gubernamentales, los informes originales y las entrevistas con expertos del sector. También hacemos referencia a investigaciones originales de otros editores de renombre cuando es necesario. Puede obtener más información sobre las normas que seguimos para producir contenidos precisos e imparciales en nuestro
política editorial.