Cómo medir la volatilidad (IV)

Agente preocupado por la evolución del mercadoHoy hablaremos de las medias móviles ponderadas exponenciales, también conocidas por sus siglas en inglés EWMA (Exponential Weighted Moving Average), como método de estimación de la volatilidad.

Como vimos en la anterior entrada de esta serie, las medias móviles ponderadas (WMA) suponían una importante mejora con respecto a las medias móviles simples (MA) puesto que permitían asignar un mayor peso o ponderación a las observaciones más recientes con respecto a aquéllas más antiguas.

Pero esa ponderación era asignada de forma proporcional según el tiempo.  Podríamos querer mantener el control del peso asignado a cada observación y elegir cualquier otra función de asignación de las ponderaciones o, incluso, definir la relación entre el tiempo y la ponderación de forma manual.  La única restricción que tenemos es que la suma de los coeficientes de ponderación tiene que ser igual a uno — lo cual es ciertamente fácil de conseguir.  En cualquiera de estos casos aún estaríamos dentro de lo que conocemos como medias móviles ponderadas.

Como mejora al método de WMA se propusieron en su momento las medias móviles ponderadas exponenciales o EWMA.  Este método busca suavizar el impacto de las grandes oscilaciones en la volatilidad observadas en el mercado (lo que técnicamente se conoce como outliers) y que, como vimos al hablar de las medias móviles, pueden afectar bastante a los cálculos en tanto en cuanto se tengan en cuenta para los mismos.

El método EWMA asume que las mejor predicción de la volatilidad para el período t es una media ponderada entre la observación del período anterior y la predicción de la volatilidad para ese mismo período anterior.  Nótese que en esta entrada estamos asimilando volatilidad con varianza y no con desviación típica, tal y como hacíamos anteriormente; lo hacemos únicamente a efectos explicativos.  Asumiendo que la volatilidad de un activo o cartera puede ser medida con el cuadrado de su rendimiento (de nuevo hemos de referirnos al anterior post de esta serie) y llamando λ (cuyo valor debe situarse entre 0 y 1) al peso asignado a la anterior estimación de la volatilidad, tenemos que:

\sigma_t^2 = \lambda\sigma_{t-1}^2+\left({1-\lambda}\right)r_{t-1}^2

Fijémonos en que esta expresión es recursiva.  Sustituyendo los sucesivos valores de los cuadrados de la volatilidad estimada:

\sigma_t^2=\lambda\left({\lambda\sigma_{t-2}^2+\left({1-\lambda}\right)r_{t-2}^2}\right)+\left({1-\lambda}\right)r_{t-1}^2\\=\left({1-\lambda}\right)\left({r_{t-1}^2+\lambda r_{t-2}^2}\right)+\lambda^2\sigma_{t-2}^2\\=\left({1-\lambda}\right)\left({r_{t-1}^2+\lambda r_{t-2}^2}\right)+\lambda^2\left({\lambda\sigma_{t-3}^2+\left({1-\lambda}\right)r_{t-3}^2}\right)\\=\left({1-\lambda}\right)\left({r_{t-1}^2+\lambda r_{t-2}^2+\lambda^2r_{t-3}^2}\right)+\lambda^3\sigma_{t-3}^2\\=\left({1-\lambda}\right)\sum_{n=1}^m{\lambda^{n-1}r_{t-n}^2}

Cabe destacar que no hay problema en relajar la hipótesis de que la media de los rendimientos es cero.  Nuestra expresión anterior quedaría, si suponemos que la media de los rendimientos es μ:

\left({1-\lambda}\right)\sum_{n=1}^m{\lambda^{n-1}\left({r_{t-n}-\mu}\right)^2}

Tenemos que darnos cuenta de que la ventaja más importante del método EWMA reside precisamente en su recursividad.  Gracias a la misma, la estimación de la volatilidad para el período t reúne toda la información histórica de la volatilidad.  En efecto, en las expresiones anteriores vemos que la predicción de la volatilidad (de su cuadrado) para el momento t es una función del parámetro λ y de la volatilidad observada en el pasado medida mediante el cuadrado del rendimiento (o el cuadrado de la diferencia entre el rendimiento y su media si es que ésta es distinta de cero).

Por último, comentar que la empresa Riskmetrics —originalmente fundada por JP Morgan, fue comprada en 2010 por MSCI— propuso, en su momento, utilizar un factor λ de 0,94 para datos diarios y de 0,97 para datos mensuales.  Aunque, si nos lo podemos permitir, lo óptimo es recalcular su valor con cada nueva observación de la variable rendimieinto.

Advertisements

Cómo medir la volatilidad (III)

Hoy veremos cómo predecir cuál será la volatilidad futura del rendimiento del precio de un activo financiero y lo haremos en base a la historia de cotizaciones de ese activo.  Como siempre, este tipo de metodología está suponiendo que el pasado condiciona en cierta medida el futuro y, aunque no hay nada malo en asumir que esto es cierto, normalmente tendremos que complementar la información que extraigamos de la historia con otra información proviniente del entorno para que nuestra predicción sea fiable.

En primer lugar debemos aclarar que normalmente se supone que el valor esperado de los rendimientos de un activo financiero es cero, lo cual no constituye una asunción demasiado fuerte y nos permite calcular la volatilidad como la raíz cuadrada de la media de los cuadrados de los rendimientos.  En efecto, dado que medimos la volatilidad como la desviación típica y ésta es la raíz cuadrada de las desviaciones al cuadrado de los rendimientos respecto de su media divididas por el número de datos, si la media es cero entonces la desviación típica es simplemente la raíz de los cuadrados de los rendimientos divididos por el número de datos o, lo que es lo mismo, la raíz de la media de los cuadrados de los rendimientos.  Los acuerdos de Basilea II permiten a las entidades financieras calcular de esta forma la volatilidad de los activos y pasivos financieros.

El número de datos a tener en cuenta es, como vimos en el anterior post de esta serie, una variable que influye en que la serie de resultados sea más o menos irregular y debe ser definida en función de los objetivos del análisis.  Normalmente usaremos tamaños como 5 (una semana de cotizaciones), 20 (un mes), 60 (un trimestre), 120 (un semestre) o 250 (un año).  Pudiera parecer que cuántas más observaciones incluyamos en el cálculo mejor, pero esto no siempre es así como explicaremos más abajo.

Cuando hemos de predecir la volatilidad futura del rendimiento de un precio de un activo financiero uno de los métodos más sencillos es el de las medias móviles.  La volatilidad puede pues estimarse como la media de las últimas n observaciones.  Si esas observaciones se refieren a rendimientos diarios, el promedio nos proporcionará una estimación de la volatilidad diaria.  Pero recordemos que, para cambiar la escala temporal a la que la volatilidad está referida, sólo tenemos que recordar que hay una proporcionalidad entre la volatilidad y la raíz cuadrada del tiempo, de forma que si queremos estimar la volatilidad semanal en base a la diaria debemos multiplicar ésta por la raíz cuadrada de cinco (pues cinco son las sesiones de cotización semanales).

El problema del método de medias móviles es que asigna la misma importancia a todas las observaciones incluidas en el cálculo.  Así, una observación anormalmente elevada o reducida de la volatilidad hará que la estimación de la volatilidad sea a su vez un poco mayor o menor de lo que sería si esa observación “extraña” (en el sentido estadístico) no estuviese presente.  Y por eso decíamos más arriba que no siempre incluir más observaciones en el cálculo.  Si, por ejemplo, estamos en un período de relativa calma en cuanto a la volatilidad y, por las razones que sean, un día el rendimiento es anormalmente alto o bajo, volviendo al día siguiente a los niveles anteriores, las n siguientes estimaciones de la volatilidad se verán “distorsionadas” por ese movimiento diferente (y por el del día siguiente de “vuelta a la normalidad”).  De nuevo somos nosotros los que tenemos que saber interpretar la información que estamos manejando y complementar con nuestro conocimiento el cálculo de la volatilidad estimada.

Un método que trata de amortiguar el problema de la igualdad de efectos sobre la estimación de las observaciones más cercanas y de las más antiguas es el de las medias móviles ponderadas (WMAweighted moving average).  Según éste, a cada una de las n observaciones incluidas en el cálculo se les asigna una ponderación o peso inversamente proporcional a su antigüedad: a la última observación (a la de ayer, para entendernos) se le asigna un peso n, a la anterior se le asigna un peso n-1 y así sucesivamente hasta que a la primera observación se le asigna un pero igual a 1.  Por ejemplo, para n=20, la última observación tendrá un peso de 20; a la penúltima se le asignaría un peso de 19; a la anterior 18 y así hasta la observación de hace 20 sesiones (un mes de cotización), a la cual se le asigna una ponderación igual a 1.  Podemos decir que la última observación influye en el resultado n veces más que la primera.

En el siguiente gráfico presentamos, en azul y midiendo su valor en el eje de la izquiera, los rendimientos artiméticos de las acciones de Zeltia en los meses de octubre y noviembre de 2011.  En rojo incluimos la serie de medias móviles de los rendimientos al cuadrado para n=20  y el verde la serie de medias móviles ponderadas también para n=20; ambas series son medidas en el eje de la derecha.

En el gráfico vemos cómo el rendimiento del 25 de octubre (un 12,27%) hace que la serie de medias móviles se mantenga en un nivel más alto durante un mes.  También vemos cómo para la serie de medias móviles ponderadas, dicha influencia se va diluyendo en el tiempo de una forma un poco menos abrupta (si bien también tarda un mes en diluirse completamente).  Al usar esa información tenemos que tener muy presente estas circunstancias: no podemos simplemente concluir que la volatilidad del rendimiento de las acciones de Zeltia es relativamente elevada (en el entorno del 4-4,50% desde niveles del 2-3%) durante noviembre de 2011 aunque eso sea lo que dice el número calculado.  De igual manera, si las cosas hubiesen sido al revés, no deberíamos concluir que la volatilidad es baja simplemente porque el cálculo sea bajo; tenemos que ver sómo se está comportando el mercado e incorporar el cálculo en nuestras conclusiones.

Aún nos queda algún método de estimación de la volatilidad por analizar, pero es algo que dejamos para futuros posts.


Paseos aleatorios en Excel

Paseo Aleatorio

Paseo Aleatorio generado en Excel

En este post trataré de explicar brevemente como generar un paseo aleatorio, también conocido como random walk, con Microsoft Excel 2010 (aunque también funciona en Excel 2007 y, con pequeñas adaptaciones, en versiones anteriores del programa).  Los paseos aleatorios son muy usados en Finanzas ya que muchas variables financieras se comportan como tales.
Un paseo aleatorio es un proceso según el cual el valor en un momento del tiempo de una variable cualquiera, por ejemplo el precio de un activo financiero, yt, puede obtenerse como la suma del valor de esa variable en un momento anterior, yt-1, y una variable aleatoria, εt, cuya esperanza es cero y cuya varianza es constante e igual a σε2. A esta variable aleatoria se le denomina innovación y, a nuestros efectos, podemos identificarla con todo lo que sucede entre el momento t-1 y el momento t que hace que el precio varíe de yt-1 a yt.

Es decir, que yt = yt-1 + εt.  A su vez, yt-1 = yt-2 + εt-1; e yt-2 = yt-3 + εt-2 ; y así sucesivamente hasta llegar a que y1 = y0 + ε1.  Substituyendo recursivamente deducimos que yt = y0 + εt  + εt-1  + εt-2 + … + ε1.  Tenemos que darnos cuenta de que, como la esperanza matemática de todas las innovaciones es cero, el valor esperado de nuestra variable es igual a su valor esperado en el punto de partida; en otras palabras, el precio de nuestro activo financiero no depende del momento de tiempo en que estemos: E[yt] = E[y0 + εt + εt-1  + εt-2 + … + ε1] = E[y0] ∀t (puede suponerse, sin pérdida de generalidad, que la esperanza del valor de la variable en el punto de partida es cero).

No sucede lo mismo con la varianza (ni, consecuentemente, con la desviación típica) de nuestra variable.  Si calculamos la varianza de la expresión anterior, VAR[yt] = VAR[y0 + εt  + εt-1  + εt-2 + … + ε1] = t·σε2.  Aquí debemos aclarar que estamos suponiendo que la varianza del valor de la variable en el punto de partida es cero y, lo que es más importante, que las innovaciones no dependen de las condiciones iniciales, del valor de la variable en dicho punto de partida (y, por lo tanto, la covarianza entre dicho punto de partida y la innovación de cualquier período es nula).  Es precisamente de la expresión anterior de donde obtenemos la conocida regla de que la volatilidad de un activo financiero, medido por su desviación típica (la raíz cuadrada de la varianza), es proporcional a la raíz cuadrada del tiempo (véase este post donde nos referimos a esta práctica regla).

Para construir nuestra hoja de Excel debemos tener en cuenta las características que acabamos de comentar para un paseo aleatorio.  En concreto, necesitaremos generar números aleatorios entre 0 y 1, para obtener en base a ellos, el valor de la variable εt para un momento t determinado.  Para esto necesitaremos  saber cómo se distribuyen los εt.  Podemos suponer que lo hacen normalmente, con media cero y varianza σε2.

En la hoja podemos definir tanto el valor inicial de la variable, y0 (celda D5), como el valor de la varianza de las innovaciones, σε2 (celda B2).  En base a esos dos valores generamos un paseo aleatorio de 100 pasos, combinando la función ALEATORIO() (que nos devuelve un número aleatorio entre 0 y 1), en la columna B, con la función INV.NORM(probabilidad; media; desviación típica), que nos devuelve el valor para el que la función de distribución de probabilidad de una variable aleatoria que se distribuya normalmente (con media la que se le pasa a la función como segundo parámetro y con varianza igual al cuadrado del tercer parámetro) toma un valor igual al primer parámetro, en la columna C.  Cada fila de esta columna C representa a cada uno de los εt.

Por último, la columna D, contiene el proceso yt = yt-1 + εt que, dicho sea de paso, desde el punto de vista del análisis estadístico de series temporales, es un proceso autoregresivo de orden 1, un AR(1) con raíz unitaria (es decir, un AR(1) cuyo único coeficiente es igual a la unidad).

La hoja se presenta protegida sin contraseña y, dado el comportamiento de la función ALEATORIO(), cada vez que cambiemos algo en ella o presionemos F9, se generará un nuevo paseo aleatorio.

Podéis descargar el fichero aquí: Paseo Aleatorio.xlsx.


Cómo medir la volatilidad (II)

Sample Standard Deviation (CC BY-NC-SA 2.0 Brian McFee)

Continuamos con éste la serie de posts dedicados a la medición de la volatilidad en activos financieros.

Lo primero que tenemos que saber es que la volatilidad puede referirse a diferentes plazos. Así, si disponemos de la serie de rendimientos semanales observados de un activo, podremos a partir de ellos obtener la volatilidad semanal (lo que esperamos que varíen esos rendimientos en el plazo de una semana); de la misma forma, de la serie diaria o mensual obtendremos, respectivamente, las volatilidades diarias o mensuales.  En realidad, no debería de suponer ningún problema el haber calculado la volatilidad a un plazo determinado porque siempre podemos hacer uso de una práctica regla en Finanzas que nos dice que la volatilidad es proporcional a la raíz cuadrada del tiempo. Por ejemplo, si sabemos que la volatilidad diaria de los rendimientos de un activo es de un 1%, su volatilidad semanal será aproximadamente de un 1%·(51/2) = 2,24% si suponemos cinco días de cotización por semana.  Lo cual, si lo pensamos un momento, es bastante lógico: si la volatilidad mide la amplitud del rango de posibles valores para el rendimiento de un activo, es de esperar que el rango de posibles valores transcurridos dos días sea más amplio que el correspondiente a un único día.

Hemos dicho que mediremos la volatilidad histórica a través de la desviación típica; en concreto, usaremos la desviación típica muestral1 de la serie de observaciones. En un post anterior ya hablamos de la desviación típica; hoy veremos cómo se calcula.  Si llamamos xi a cada una de las n observaciones de rendimiento que tenemos y a la media de esas n observaciones, la desviación típica muestral vendrá dada por:

\hat{\sigma} = \sqrt{\frac{(x_i - \overline{x})^2}{n - 1}}

En el siguiente gráfico, donde representamos los rendimientos logarítmicos de la cotización diaria de las acciones de Zeltia (recordemos que el rendimiento logarítmico o contínuo de la cotización de una acción en un día cualquiera t viene dado por el logaritmo natural del cociente entre la cotización de la acción en ese día t y en el anterior, t – 1), la desviación típica muestral teniendo en cuenta todos los datos desde el inicial hasta el día de referencia y la desviación típica muestral teniendo en cuenta sólo los últimos 250 datos (un año de cotizaciones) desde el día de referencia. El rendimiento logarítmo se mide en el eje de la izquierda; las desviaciones típicas en el de la derecha:

Uno de las cosas que más nos llama la atención es el ver las grandes diferencias en la desviación típica (nuestra volatilidad) a lo largo del tiempo (más acusadas, como es lógico, cuantos menos valores tengamos en cuenta para su cálculo). Este fenómeno (el hecho de que la desviación típica —o su cuadrado, la varianza— no sea constante en el tiempo) se conoce como heterocedasticidad. Retomando el ejemplo del primer post de esta serie diríamos que, como hay días que llueve y otros que no, la amplitud del rango de posibles valores para la duración de nuestro trayecto al trabajo varía según el día).

Al incluir toda la información histórica para calcular la desviación típica muestral (nuestro primer estimador de la volatilidad) tenemos que tener en cuenta que la curva de volatilidad tiene a estabilizarse en torno a un valor y, aunque sobrevenga un período de fuertes turbulencias en las cotizaciones, al estar el cálculo teniendo en cuenta toda la información histórica de la serie, aquél incremento de la volatilidad apenas tiene efecto sobre este cálculo. Obviamente, si reducimos la muestra utilizada a las últimas 250 observaciones (un año de cotizaciones), veremos una curva de volatilidad más variable; también puede haber ocasiones en que nos interese tener en cuenta únicamente 20, 60 o 120 observaciones. En estos casos es de esperar que nos encontremos curvas de volatilidad todavía más irregulares.

Pero una cosa es medir la volatilidad y otra muy diferente es preverla, intentar adivinar su valor en el futuro. Como financieros el poder intuir el valor de la volatilidad de los próximos días, semanas o meses, puede ayudarnos a tomar decisiones correctas.  Esta serie de posts debe, por tanto, continuar…


1 Usamos la desviación típica muestral como estimador insesgado de la desviación típica poblacional.  La diferencia numérica entre ambas es simplemente el hecho de que el denominador de la fórmula de la desviación típica poblacional es una n en vez de n – 1, por lo que podemos decir que la desviación típica muestral es siempre mayor que la poblacional.  Cuando la muestra es muy grande, el dividir por n o por n – 1 tiene un efecto muy pequeño de ahí que ambas medidas tiendan a igualarse conforme incrementamos el número de observaciones de la muestra.


Cómo medir la volatilidad (I)

Euro coins

Euro coins (CC BY-NC 2.0: Mika Meskanen)

Retomo la actividad de finanzas .Net después de haberme permitido unas largas vacaciones (quizá demasiado largas) en mi faceta de blogger novel. Y lo hago con el primero de una serie de posts que voy a dedicar a hablar de la volatilidad; en concreto, hablaré de la volatilidad de datos económicos o financieros y, de forma más específica, de la volatilidad asociada a los activos financieros, aunque, como se trata de una técnica estadística, su extrapolación a cualesquiera otros ámbitos en los que se disponga de datos cuantitativos debiera de resultar bastante sencilla.

La volatilidad de la que oímos hablar aplicada, por ejemplo, a un activo financiero en particular es una medida de la dispersión del rendimiento esperado de ese activo financiero (un título, una cartera de títulos, el mercado en su totalidad…).  Es una medida, en definitiva, del riesgo asociado a ese activo1.

Suelo poner el siguiente ejemplo cuando tengo que explicar el concepto de volatilidad:

«Si nos desplazamos en coche al trabajo o a la facultad (yo tengo la suerte de poderme permitir el no hacerlo, pero no importa a estos efectos) la esperanza matemática de la duración del desplazamiento es la respuesta que damos cuando nos preguntan cuánto tardamos en llegar al trabajo.

«Pero, qué sucede si la pregunta es cuánto tardamos en llegar cuando llueve. Es de esperar que nuestra respuesta sea un poco mayor (cuando llueve mucha gente utiliza el coche para sus desplazamientos, se suele ir más despacio, se producen pequeños accidentes, etc…); en otras palabras, la esperanza matemática de la duración del desplazamiento es mayor para los días que llueve.

«Por otra parte, todos intuimos que es mucho más difícil de acertar la duración de un desplazamiento por la ciudad cuando llueve que cuando no llueve: cuando llueve lo normal es que tardemos más, pero podemos tardar un poco más que cuando no llueve o mucho más. Ese mayor rango de valores posibles, es lo que se conoce como volatilidad».

Para medir la volatilidad, suele utilizarse la desviación típica (la raiz cuadrada de la varianza). Aplicada a activos financieros, sería la desviación típica del rendimiento de ese activo, de esa cartera o del mercado, la cual puede medirse en base al análisis de los datos históricos del mercado, en cuyo caso estaremos hablando de la volatilidad histórica, que es de la que nos vamos a ocupar en esta serie de posts. Tenemos que aclarar, sin embargo, que también podemos estar hablando de la volatilidad implícita de un activo, que es la volatilidad que se infiere de la prima de las opciones cuyo activo subyacente sea precisamente ese activo.

En cualquier caso, fijémonos en que lo que medimos es la volatilidad del rendimiento de un activo y no la volatilidad de su precio.  En realidad, tenemos que percatarnos de que el rendimiento de un activo no es más que una medida de la variación de su precio; variación que puede ser porcentual —en cuyo caso hablaremos de rentabilidad aritmética— (calculada como la diferencia entre dos precios consecutivos dividida por el precio —de entre esos dos— que consideramos de partida o de referencia, normalmente el más antiguo); o logarítmica —que da lugar a la rentabilidad continua— (logaritmo neperiano del cociente entre el precio alcanzado y el de referencia o, lo que es lo mismo, gracias a las propiedades de los logartimos, diferencia entre el logaritmo neperiano del precio alcanzado y el logaritmo neperiano del precio de referencia).  Más adelante, espero poder redactar un post sobre las razones por las que, cuando hablamos de precios, aunque ambas medidas de la rentabilidad son válidas, es preferible usar la rentabilidad continua.

Pero volvamos a la volatilidad histórica. Su mayor defecto está en su asunción de que el pasado condiciona en cierta medida el futuro y, por tanto, la volatilidad pasada puede ser considerada un buen estimador de la volatilidad futura.  Es una asunción que hay que tomar con sumo cuidado puesto que, en la realidad, la probabilidad de encontrarnos un “cisne negro” (recordemos este post donde aplicábamos este concepto al accidente nuclear de Fukushima) es pequeña, pero ni es cero, ni es tan pequeña como la que se derivaría de una distribución normal de probabilidad (en la práctica, las “colas” de las funciones de densidad son más gruesas que las de la función de densidad de una distribución normal; es lo que se conoce como “fat tails“).

Evidentemente, este defecto de la volatilidad histórica no explica la imprevisión demostrada por la totalidad del sistema financiero ante la crisis de 2008 pero, en cualquier caso, me gustaría dejar claro que ¡ojo! no hay malos indicadores sino malas prácticas por parte de las personas que los elaboran (que lo hacen con pocos datos, sin tratar los datos extremos, concediendo excesivo peso al pasado…) y malas interpretaciones por parte de aquéllos que hacen uso de la información que se deriva de los mismos. Además, ningún indicador debería ser tomado en cuenta de forma aislada sino como parte integrante de una coyuntura (económica, política…) que le da sentido.

En definitiva, aunque en esta serie de posts veremos cómo calcular algún estimador de la volatilidad de un activo/cartera/mercado financiero, siempre, insisto, tenemos que tener en cuenta que no podemos obviar cualesquiera otras señales del entorno y debemos ser lo suficientemente profesionales como para no emitir juicios superficiales.

Continuará…


1 Una curiosidad etimológica: según el Diccionario de la RAE, “riesgo” proviene en última instancia del árabe rizq: lo que depara la providencia.  Esta misma palabra era también usada por los árabes para designar peñascos sobre los que era difícil caminar o acantilados cerca de los que era peligroso navegar; acepción que, en castellano, ha dado lugar al vocablo “risco” —de hecho, la palabra en gallego para riesgo es risco, lo mismo que en portugués; en inglés, por su parte, es risk —.  Considero que es muy gráfica esta coincidencia en el origen de riesgo y de risco.


Un cisne negro en Fukushima

No soy partidario de la energía atómica, pero que tampoco voy a hacer aquí un alegato en su contra.  Simplemente creo que lo que está pasando en la central nuclear de Fukushima en Japón es un cisne negro, en el sentido que Nassim Nicholas Taleb le da a esta expresión en su libro “El cisne negro: el impacto de lo altamente improbable” (Ediciones Paidós Ibérica, 2008).

Hace unos años impartí clases de “Teoría y técnicas de inversión financiera”, una asignatura optativa de la Licenciatura en Administración y Dirección de Empresas, en la que trataba de explicar el papel central que el riesgo tiene en cualquier proyecto de inversión financiera y donde se introducía el concepto de valor en riesgo (VaR) de una cartera de inversión.  La primera lección comenzaba -como otros muchos tratados acerca del riesgo financiero- explicando que la palabra riesgo proviene del árabe clásico “rizq“, que alude a lo fortuito o inesperado; y que no es casual que, en gallego y en portugués, riesgo se diga “risco“, como las peligrosas rocas costeras contra las que han tenido que zafarse navegantes de todo el mundo a lo largo de la historia.  El resto del programa se dedicaba a recuperar conceptos estadísticos y financieros para ir desarrollando el concepto de valor en riesgo que, en palabras de Philippe Jorion, es la peor pérdida esperada, para un horizonte temporal y un nivel de confianza determinados, en condiciones normales de mercado.

Pero el valor en riesgo es un concepto estadístico y, como tal, el peso de los datos históricos es tremendo.  Y lo peor es que, en algunas ocasiones, la historia no sirve de nada (de ahí que  la definición termine con la cláusula “bajo condiciones normales de mercado”).  Por ejemplo, los acuerdos de Basilea II incluían el VaR como medida fundamental del riesgo de crédito y de mercado; y no fuimos capaces de predecir la crisis financiera de 2008 (un muy buen post acerca de esto es http://www.elblogsalmon.com/mercados-financieros/el-var-la-tecnica-que-hundio-a-wall-street).  Estas situaciones impredecibles (y en gran medida imprevisibles) son cisnes negros.

Y un cisne negro también es, por desgracia, lo que sucede en la central nuclear de Fuskushima desde que el pasado viernes un gran terremoto y su posterior tsunami arrasaran la parte oriental de Honshu, la principal isla del archipiélago japonés.  ¿Qué científico, ingeniero o político pudo haber diseñado una central nuclear que resistiese lo que se le vino encima a Fuskushima?  Ninguno, porque nadie era capaz de imaginar -hasta la semana pasada- que tal sucesión de eventos pudiera llegar a ocurrir.

Y por eso creo que todas las reuniones que los diferentes niveles gestores de la energía nuclear en el mundo, desde los organismos e instituciones nacionales hasta la Organización Internacional de la Energía Atómica, aunque necesarias y, por supuesto, positivas para incrementar la seguridad de las centrales nucleares existentes, se demostrarán ineficaces cuando llegue, si llega, el próximo cisne negro.  Hoy parece que lo de Fuskushima es la peor combinación de circunstancias negativas que pueda afrontar una central nuclear; pero, en el futuro, puede darse una combinación que la supere, no necesariamente porque se produzca como consecuencia de circusntancias peores, sino porque se trata de una combinación tan imprevista que los sistemas de seguridad no estaban preparados para afrontarla.  Igual que la crisis financiera de 2008 y la subsiguiente crisis real…

No quiero decir con esto que haya que sentarse sin hacer nada a esperar la siguiente catástrofe.  Si decidimos, como sociedad, apostar por la energía atómica, hay que invertir mucho en mejorar la seguridad, hacer pruebas de estrés y, con los resultados de esas pruebas, realimentar la inversión en seguridad.  Pero siempre habrá un cisne negro, un agujero de seguridad, una puerta de atrás, que desborde cualquier previsión; y creo que, en el caso de la energía atómica, no podemos permitirnos esa circunstancia.  Por eso no apuesto por ella.

Por el momento, espero que la pesadilla que está viviendo Japón acabe pronto.