El volumen de negocio del sector del Big Data en Europa crecerá desde los 2.000 millones de euros de 2013 a los más de 5.500 millones en el año 2018. Esta es una de las principales conclusiones del desayuno informativo organizado por CUNEF (Colegio Universitario de Estudios Financieros), en el que han participado Juan Manuel López Zafra y Ricardo Queralt, codirectores del Máster de Data Science para Finanzas de CUNEF.
El profesor Juan Manuel López Zafra señaló que “diariamente se generan 2,5 trillones de datos y el 90% de toda la información disponible se produjo en los dos últimos años, pero solo se puede analizar el 1%”. La magnitud de los grandes volúmenes de información generados a día de hoy se ejemplifica muy bien con las cifras que se manejan en Internet y las redes sociales: en una sola hora se suben 2 millones de fotografías a Instagram, se dan 9.375.000 likes en Facebook, se lanzan 20 millones de tweets, se visualizan 183 millones de vídeos y se genera un tráfico de 113.400 terabytes en Internet.
En este sentido, los profesores de CUNEF explicaron que un 43% de las empresas de EE.UU. reconoció recientemente que la falta de capacidades analíticas era su principal debilidad y más de la mitad señaló que tiene la necesidad de transformar la capacidad de análisis en información relevante para los ejecutivos.
Un sector clave para el empleo
El Big Data se convertirá en los próximos años en un sector clave para la empleabilidad a lo largo de todo el mundo. Sólo en EE.UU., existe una demanda potencial de entre 4 y 5 millones de empleos para el próximo año, cuando se estima que la brecha entre la oferta y la demanda de las habilidades analíticas será de entre el 40% y el 50%. En el caso de Europa, la necesidad de empleados que encajen con este perfil podrá ser incluso superior, puesto que los salarios en start-ups y gigantes norteamericanos son tan atractivos que acaparan todo el talento hacia ellas.
Jugadores especializados vs jugadores globales
El Big Data ha provocado un cambio de paradigma en diferentes sectores productivos, con la aparición de nuevos players que se configuran como los competidores de las compañías tradicionales. Es el caso de segmentos tan dispares como el de las telecomunicaciones, el turismo o el sector financiero. La presencia disruptiva de las fintech ha supuesto, sólo entre 2014 y 2016, más de 3.400 operaciones en el sector, con un volumen de negocio global de más de 150.000 millones de dólares. PayPal se consolida como una alternativa de pago a las tarjetas de crédito, y Android Pay y Apple Pay, las plataformas de pago de Google y Apple, se posicionan con fuerza en todos los mercados, especialmente el asiático. Cabe recordar que Facebook, con 1.600 millones de usuarios, posee ficha bancaria en el Banco de España desde septiembre de 2016, lo que le permite operar en igualdad de condiciones que el resto de entidades.
Las entidades españolas mueven ficha
Las principales entidades financieras de nuestro país ya se han posicionado y están creando (o lo han hecho ya) áreas que ponen el foco en las potencialidades del Big Data. Es el caso de Banco Santander, que anunció recientemente la creación de una división específica de Analytics para el diseño de la gestión de sistemas de riesgos, compuesta por un centenar de técnicos, matemáticos e ingenieros; BBVA, que ha defendido el valor del Big Data y trabaja desde hace tiempo en áreas como analítica de clientes, procesos, riesgo y fraude y nuevos productos digitales; o La Caixa, que fue una de las primeras entidades españoles en posicionarse a este respecto. De igual modo, entidades aseguradoras como Mapfre se han mostrado igualmente sensibles en la lucha contra el fraude.
Los modelos predictivos en el área del automóvil permiten mejorar la respuesta ante el posible fraude hasta seis veces, discriminando en virtud del día y la hora del accidente, el número de pasajeros del vehículo, la comunidad autónoma, el sexo del conductor y el tipo de seguro contratado.
En España, el año pasado, se pagaron alrededor de 49.000 millones de euros por siniestralidad, tanto en vida como en no vida y, según informaciones del sector, el fraude pudo alcanzar el 1,5% de los siniestros declarados, alrededor de 735 millones de euros. Mediante los modelos analíticos de detección, esta cifra se podría reducir en un primer momento en un 20%, lo que supondría un ahorro de alrededor de 150 millones de euros. Una apuesta decidida por modelos predictivos de gestión del fraude supondría una garantía de seguridad y mejores precios para la gran mayoría de los asegurados.
Próxima estación: Insurtech
La inversión en compañías Fintech ha mantenido un crecimiento sostenido desde el año 2010, donde se situó en los 319 millones, hasta alcanzar su máximo en el año 2015, con una inversión de 1.255 millones de dólares a nivel mundial. No obstante, desde ese momento se está produciendo un cambio de tendencia, ante el agotamiento del mundo Fintech, y los inversores están viendo nuevas oportunidades de negocio en el ámbito del Insurtech, cuyo gasto se dobló en el periodo 2014-2016, pasando de los 590 millones de dólares hasta los 1.192 millones. El interés está aumentando en estas Insurtech, las compañías de base tecnológica que se dirigen fundamentalmente al sector asegurador, el gigante dormido de las finanzas.
El caso de Alibaba, la compañía china de comercio electrónico, y su fondo monetario YueBao es otro ejemplo de jugador global. Ricardo Queralt, codirector del Máster en Data Science de CUNEF, explica que “para entender la fuerza con la que han irrumpido algunos de estos nuevos players podemos poner el ejemplo de Alibaba – YueBao, que en apenas nueve meses alcanzó un volumen de fondos gestionados similar al que sus competidores tardaron en conseguir entre 10 y 15 años”.
Data Driven Decision Making, el gran reto del futuro
El Data Driven Decision Making se convertirá en el vector hacia el cambio de paradigma que supondrá la irrupción del Big Data y ya ha encontrado aplicación en ámbitos y sectores tan dispares como el financiero, político, demoscópico o deportivo.
El Big Data puede ofrecer soluciones operativas para algunas incertidumbres a las que se enfrentará en los próximos años la economía española, como la evolución de los tipos de interés, el impacto de la política monetaria del BCE, el sobreendeudamiento, inmigración o política interna, y será el mejor catalizador para encontrar oportunidades en asuntos capitales para la economía, desde el punto de vista de la demografía y longevidad, educación, ciberseguridad, robotización, empleo y fiscalidad.
Big Data en los procesos electorales
El codirector del Máster en Data Science para Finanzas de CUNEF, Juan Manuel López-Zafra, señaló que “existieron diferentes indicios, basados en la observación de los datos, que hacían presagiar la victoria de Donald Trump en EE.UU., pese a lo que pronosticaban las encuestas”. El profesor se refiere al comportamiento del S&P (el 80% de las veces en las que cayó los tres meses previos a las elecciones, se dio una victoria del partido en la oposición), a la tendencia que experimentaban las encuestas los días previos y al comportamiento de algunos algoritmos que no están intervenidos por ningún programador y que permiten responder, de una forma anónima, a diferencia del sistema que utilizan las encuestas tradicionales.
Sin duda, las campañas electorales de Barack Obama en 2012 y de Donald Trump en 2016 utilizaron técnicas derivadas del Big Data para llegar a miles de electores, con mensajes completamente adaptados a sus preferencias personales. Así, la campaña electoral de Obama en el año 2012 fue pionera en el empleo masivo de las técnicas de Data Science en el terreno electoral, con un gasto estimado en más de 1.000 millones de dólares.
Los miembros del equipo de científicos de datos llegaron a manejar las suscripciones de revistas, las matrículas de coches, la valoración de la vivienda, la posesión de licencias de caza y los apellidos (para así inferir el origen racial probable) para, de este modo, estimar la probabilidad de voto.
No obstante, los 16 millones de perfiles que se estudiaron entonces se quedan en nada si los comparamos con los 250 millones que construyó el equipo de Trump, liderado por Steve Bannon y desarrollado por Cambridge Analítica. De cada perfil se estudiaron más de 5.000 variables distintas. El resultado fue la capacidad para generar 175.000 variaciones del mensaje al finalizar el tercer y más importante debate de Trump frente a Hillary Clinton. La microsegmentación fue la clave de la campaña.