Un reciente documento de debate de la Autoridad Bancaria Europea (ABE) sobre el uso del aprendizaje automático (machine learning o ML por sus siglas en inglés) en relación con el cálculo de los requisitos de capital regulatorio es uno de los primeros intentos de un importante supervisor financiero de llegar a esta nueva frontera. Si se implementan o, mejor dicho, cuando se implementen los modelos de ML, será un paso importante, tanto para los bancos como para sus reguladores.
La regulación es uno de los dos principales motores del cambio para el sector bancario (el otro motor es la tecnología). La adopción por parte del supervisor del aprendizaje automático para el Proceso de Evaluación de la Adecuación del Capital Interno (ICAAP) puede, a su vez, cambiar la forma en que el sector y los mercados analizan el riesgo de crédito bancario.
Más concretamente, el uso futuro del aprendizaje automático por parte de los reguladores para el ICAAP también dará un sólido impulso a su adopción por parte de los bancos para su propia evaluación del riesgo de crédito bancario. Sobre todo, cuando la precisión y la claridad de los modelos basados en el aprendizaje automático sean más evidentes.
El análisis fundamental tradicional no está preparado para incorporar e interpretar millones de puntos de datos sin recurrir a los sistemas de aprendizaje automático (y quizás a la inteligencia artificial en el futuro). Muchos argumentan que tal grado de complejidad no es necesario.
Sin embargo, cuando el análisis basado en el aprendizaje automático empiece a desempeñar un papel más destacado -impulsado por el proceso regulatorio del ICAAP- este argumento será menos creíble, especialmente si los resultados analíticos de los dos enfoques son divergentes. Muchos bancos ya utilizan sistemas expertos, algunos de los cuales incluyen el aprendizaje automático, para apoyar las decisiones de préstamo, la supervisión del crédito o la fijación de precios de los préstamos. Pero no han sido aceptados para el método basado en las calificaciones internas (IRB) para calcular los requisitos de capital regulatorio.
La ABE señala que una de las razones por las que los modelos de aprendizaje automático no se han utilizado en el proceso IRB es su complejidad, que provoca dificultades de comprensión e interpretación de los resultados.
Pero la ABE también reconoce que el coste de la complejidad que conlleva el aprendizaje automático (en el que la relación entre los inputs y los outputs es más difícil de evaluar y comprender) conducirá a una mejora del poder predictivo. Lo cual es un argumento válido y, en mi opinión, lo seguirá siendo en un futuro próximo. En todos los campos, la tecnología dirigida por expertos avanza mucho más rápido que la capacidad y la voluntad de los no expertos de adoptarla.
La alta dirección de los bancos suele adoptar una perspectiva más cauta ante el cambio que la que permite la nueva frontera tecnológica y los supervisores son doblemente cautelosos con respecto a la adopción de modelos de medición y gestión complejos y difíciles de entender.
En su informe, la ABE dice que las entidades deben «encontrar un equilibrio adecuado entre el funcionamiento del modelo y la capacidad de explicar los resultados». Pero, de nuevo, el mero hecho de que un supervisor convencional muestre una opinión cautelosamente positiva sobre el aprendizaje automático es un paso muy importante. Un paso que, en mi opinión, sitúa a la ABE como uno de los organismos de supervisión con más visión de futuro a nivel mundial.
Los sistemas de aprendizaje automático pueden añadir valor…
Reconociendo que los sistemas de ML podrían desempeñar un papel importante en la forma en que se presten los servicios financieros en el futuro, el informe de la ABE pretende identificar los retos y las ventajas de su utilización para los modelos IRB; y proporcionar recomendaciones basadas en principios para los bancos con propósitos prudenciales.
La ABE considera que el uso de los modelos de aprendizaje automático tiene varias ventajas. Una de ellas es la mejora de la diferenciación del riesgo, al optimizar el poder discriminatorio y proporcionar herramientas para identificar todos los factores de riesgo y las interconexiones pertinentes. Otra es la cuantificación del riesgo, mejorando la capacidad de predicción de los modelos y detectando sesgos importantes, así como sistemas más robustos para la validación y las pruebas de estrés.
…pero hay que ser cautos
Uno de los retos identificados en el informe de la ABE es la relación entre los modelos estadísticos y el razonamiento humano. De hecho, el uso de modelos estadísticos debe complementarse con el juicio humano en lo que respecta a la diferenciación de riesgos. Los bancos no confían ciegamente en los modelos estadísticos, ni deberían hacerlo. Pero la complejidad inherente a los modelos de aprendizaje automático puede dificultar la aplicación efectiva del juicio humano si no se interpretan adecuadamente.
Otro reto reside en el hecho de que pueden faltar datos para alimentar los modelos de Big Data (que utiliza el ML). La normativa vigente (artículo 180 del Reglamento sobre requisitos de capital) dice que los datos deben remontarse al menos a cinco años atrás. En el caso de las personas físicas en la UE, este obstáculo podría verse ampliado por las normas de retención de datos relacionadas con el Reglamento General de Protección de Datos (RGPD).
Un componente clave en el IRB es la validación del modelo y de los datos. Pero un modelo más complejo, como uno basado en aprendizaje automático, puede ser más difícil de cuestionar de forma eficiente.
La ABE se refiere en varias ocasiones a la interpretabilidad de los resultados como un obstáculo clave para la adopción de los modelos de aprendizaje automático por parte de los supervisores y los altos directivos y consejos de administración de los bancos: «un buen nivel de comprensión institucional sobre sus modelos IRB es un elemento clave, y con mayor relevancia aun cuando los modelos de aprendizaje automático se utilizan con fines regulatorios». La ABE sugiere técnicas sencillas para abordarlo, como el uso de herramientas gráficas para mostrar el impacto de diversas variables.
Una amenaza específica es la integridad de la implementación, que se hace más difícil a medida que aumenta la complejidad, o la exactitud de los procesos de depuración de algunos bancos cuando se trata de Big Data.
Tribuna de Sam Theodore, consultor senior de Scope