Los mercados financieros están sujetos a una norma racional básica. A largo plazo, reflejan la suma de los siguientes factores: datos económicos objetivos, el sentimiento predominante (cuanta más confianza muestren los inversores, más predispuestos estarán a creer que las tendencias económicas favorables continuarán) y el volumen de liquidez del mercado (es decir, de cuánto efectivo hay disponible para que los inversores puedan actuar en función de sus sensaciones).
Esta tríada de variables puede generar una amplia gama de conclusiones, dado que cada participante del mercado intenta ser el primero en evaluar adecuadamente cómo se desarrollarán los acontecimientos. Ahora bien, no es tarea fácil. Por un lado, esto explica que, casi por definición, solo una exigua minoría de los profesionales de la gestión activa son capaces de batir a sus homólogos de forma constante.
También explica que un elevado número de inversores no se limitan a intentar predecir el futuro, sino que analizan en detalle los datos estadísticos para intentar extraer conclusiones probabilísticas. Mientras la rentabilidad del mercado arroje una distribución de frecuencias relativamente «normal», el pasado debería suponer una valiosa fuente de información sobre el panorama actual.
La respuesta habitual del mercado en circunstancias similares en el pasado debería, por tanto, ser un criterio útil. El análisis técnico se cimienta, principalmente, sobre esta última hipótesis. Asimismo, una vez que cobra relieve, el análisis técnico funciona en gran medida como una profecía autocumplida. Los analistas suelen terminar por llegar a un consenso sobre los niveles de precios específicos que deberían considerarse significativos, lo que, a su vez, lleva a muchos inversores a adoptar la misma postura y, así, el mismo comportamiento. Si decide ir contracorriente, corre el riesgo de «perder contra el mercado, dado que el mercado siempre tiene razón». Por tanto, no es de extrañar que este enfoque cuente con un elevadísimo número de adeptos.
El quid de la cuestión es que es un error asumir que la rentabilidad del mercado seguirá un patrón de distribución «normal» a largo plazo. Ciertamente, puede parecer que una distribución de estas características se mantiene durante periodos que pueden durar varios años. Los actores del mercado se confían pensando que las tendencias pasadas se repetirán… Pero no lo harán. Es justo en estas situaciones cuando, inevitablemente, los mercados sufren una corrección, o incluso un desplome.
Una corrección significativa no se origina a pesar de la percepción de que las tendencias son favorables, sino debido a dicha percepción. Una vez que todo el mundo llega a la conclusión de que las condiciones actuales resultan inmejorables, los mercados no tardan en caer presa de semejante complacencia —y, por tanto, vulnerabilidad—, lo que provoca que un simple sobresalto genere un auténtico terremoto en todo el sistema. Los acontecimientos de principios de febrero de 2018 suponen un ejemplo de manual de este tipo de situaciones, especialmente en lo que respecta a la volatilidad, medida por el famoso índice VIX. Tras estancarse durante años en niveles históricamente reducidos, el índice VIX alcanzó en solo unos días cotas nunca antes vistas. Entretanto, los mercados bursátiles sufrieron una severa corrección del 10%. La mayoría de los analistas admitieron sentirse estupefactos, dado que, en su opinión, no se había producido ningún acontecimiento de relevancia que justificase un hundimiento de estas características. Sin embargo, la corrección no tenía nada de irracional.
Lo irracional era que la volatilidad se mantuviese en niveles tan reducidos durante tanto tiempo, situación que se produjo como consecuencia de las continuas intervenciones masivas de los bancos centrales, que la mantuvieron de forma artificial bajo mínimos y distorsionaron los precios de los activos, lo que, en última instancia, alteró la percepción de la realidad de los inversores. Algunos empezaron a comprar instrumentos financieros que implicaban especular con que la volatilidad —que se encontraba ya en niveles extraordinariamente bajos—se mantendría en esos niveles o que incluso disminuiría aún más. Mediante estas prácticas, los inversores se exponían a un riesgo muy elevado de convexidad negativa (es decir, concavidad), ya que, aunque la volatilidad podía seguir disminuyendo ligeramente, cualquier indicio de repunte podría rápidamente traducirse en un ascenso meteórico. Esto es justo lo que sucedió a principios de febrero, y aquellos que habían depositado su confianza en estos instrumentos perdieron hasta el 80 % de su inversión en unos pocos días.
La cuestión fundamental es que no había forma de prever con exactitud cuándo iba a producirse la corrección. ¿Por qué no tuvo lugar tres meses antes? ¿O después? ¿O nunca? La realidad es que las personas que afirman ser capaces de predecir las correcciones del mercado se engañan a sí mismas.
En resumidas cuentas, no hay ninguna norma que rija la distribución de frecuencias de la rentabilidad del mercado. Algunos acontecimientos son raros e impredecibles, pero uno solo puede bastar para hacerle morder el polvo. Por tanto, resulta crucial que se asegure de que no sea así. La gestión de riesgo consiste, antes que nada, en identificar situaciones de gran concavidad y de evitarlas a toda costa. Lo primero es decidir cuáles son los riesgos que no asumirá. Al fin y al cabo, la paranoia es una respuesta racional cuando se está expuesto al riesgo cóncavo. Por tanto, es necesario tomarse el tiempo de investigar a fondo el tipo de riesgos que contiene su cartera.
Tribuna de Didier Saint-Georges, miembro del Comité de Inversión de Carmignac.