Credicorp Capital, la banca de inversión del peruano Grupo Credicorp, apunta a dominar el análisis de la información, tanto de sus clientes, como de la organización, en momentos en que la hiperpersonalización de los servicios financieros cobra relevancia en Latinoamérica. Como primer paso, está implementando una política de gestión de datos.
Es un ejemplo de una tendencia de la banca latinoamericana de tratar de resolver la calidad deficiente de su data.
El data cleansing –o limpieza de datos– es un paso importante para acceder a las grandes potencialidades de los datos para multiplicar los ingresos, al permitirles a las entidades ofrecer servicios predictivos e inteligentes para los usuarios digitales.
El 78% de los bancos a nivel mundial utiliza data en sus operaciones, pero solo 7% la ha escalado con analytics y el 5% con inteligencia artificial, según un informe de Accenture publicado a mediados del año pasado. La primera cifra muestra el interés latente de la banca por capitalizar mejores servicios, pero las siguientes resaltan que, aunque la data financiera incluso abunda, todavía no ha alcanzado su potencial.
“¿Cuál es la base en el tema de data y analytics? Es contar con buenos datos”, explica a iupana Juan Carlos Oré, Chief Data Officer de Credicorp Capital, desde Lima. “Suena bastante simple, pero es una tarea súper titánica y que en el data management no siempre se le da la importancia que debería”.
“Identificar cuál es la fuente correcta, y que ese dato sea de calidad, está enmarcado en todo lo que es gobierno de datos. Eso es lo primero que se debe hacer”, agrega el directivo mientras advierte que, aunque las herramientas de análisis como inteligencia artificial (IA) y machine learning “son muy sexys”, implementarlas antes de organizar los silos, supone un error de estrategia.
El banco, que pertenece al mayor grupo financiero peruano, empezó por identificar fuentes de información repetidas e implementó un vocabulario único dentro de la empresa, lo que le ayudó a reducir los tiempos en reportes regionales manuales que tomaban hasta diez días, y que ahora están listos en dos.
Y en los próximos tres meses, finalizará el desarrollo de un proyecto de fondos en Perú, Colombia y Chile, que permitirá medir, ver la composición y rentabilidad de los portafolios de forma rápida y eficiente.
“Es importante que en lo que te centres, esté alineado a lo que el negocio necesita”, complementa Oré.
Te puede interesar: Banca empática o cómo poner a los clientes en el corazón de las finanzas digitales
Oportunidades de un adecuado manejo de datos
Los bancos que logren domar el análisis basado en datos para conocer en detalle a sus clientes pueden multiplicar por diez el rendimiento de sus inversiones, asegura Nicolás Deino, director ejecutivo de Accenture en Chile a iupana.
“Si se replantean sus modelos de negocio y adoptan las estrategias innovadoras de los nuevos operadores de banca y servicios financieros exclusivamente digitales, los bancos tradicionales podrían aumentar sus ingresos en casi un 4% anual, lo que supondría más de medio billón de dólares de ingresos adicionales para 2025”, detalla Deino desde Santiago.
“La gran oportunidad de la banca hoy es, no sólo centrarse en recopilar data, sino analizarla y segmentarla a través de las nuevas tecnologías para adoptar mejores decisiones”.
Esas nuevas tecnologías incluyen aprendizaje automático e inteligencia artificial, herramientas que están empezando a mostrar su capacidad para separar las peras, de las manzanas estadísticas. También se trata del almacenaje de la información en la nube, donde los registros pueden ser procesados más fácilmente que cuando están guardados dentro de sistemas on-premise.
Esta además es una alternativa que resulta más barata en comparación con los data warehouses físicos. En este sentido, Credicorp Capital es la primera empresa del Grupo que creó un data lake en la nube.
“Como parte de cada proyecto que finalmente trae valor para el negocio, se va implementando un poco de gobierno de datos. Y de a poco, como construir un Lego, finalmente se logrará implementar este programa en toda la empresa”, adelanta Oré.
En términos de las operaciones del día a día, el procesamiento de la información empieza a aliviar cuellos de botellas. El banco tenía softwares que no conversaban entre sí, por ejemplo, para enlazar y hacer análisis entre el departamento de gastos y el de contabilidad, lo que impedía centralizar los números, haciendo cada cierre de mes una tarea “terrible”.
Te puede interesar: BCP de Credicorp a la caza de modelos de negocio con criptomonedas
Limpieza de datos en la banca
La urgencia por priorizar los datos y limpiarlos es uno de los desafíos más complejos del sistema financiero en Latinoamérica. El término data sucia se asocia a información desactualizada, errónea o duplicada que en términos prácticos no sirven para nada al banco; y, al contrario, pueden requerir ingentes inversiones para asearla.
Según estadísticas recogidas por Finerio Connect, un proveedor de soluciones de banca abierta, entre 2018 y 2019 las pérdidas producidas por datos sucios alcanzaron los US$ 13 millones en México y las industrias más afectadas fueron telecomunicaciones y banca.
“Los datos ahora son bastante sucios porque pasan por adquirientes, por métodos de pago, por distintas razones sociales […] Latam tiene un problema bastante fuerte de data sucia financiera que no le permite automatizar”, comenta Nick Grassi, CoCEO y cofundador de Finerio Connect.
Grassi agrega que la mayoría de las instituciones tradicionales de la región tampoco sabe a ciencia cierta dónde están sus datos o cómo purificarlos.
Esta data no integrada disminuye la eficiencia de los analistas, que la mayoría del tiempo se dedican a organizar y filtrar información de manera manual.
“Eso es lo que pasa en muchas empresas, los analistas no analizan porque el 80% de su tiempo se dedican a ver dónde está la información, tratar de conseguir los datos, juntarlos, compararlos y al final les queda muy poco tiempo”, afirma Oré de Credicorp Capital.
En un evento organizado por iupana y Backbase, un desarrollador de software financiero, líderes del sector coincidieron en que el exceso de data puede ahogar a los bancos y complicar su desarrollo de productos personalizados, algo que los clientes están demandando.
La clave parece en resumirse no en volumen, sino en priorización.
“El problema es que la data no ha sido aprovechada al máximo”, concluye Grassi.