A Credicorp Capital, banco de investimentos do Grupo Peruano Credicorp, tem como objetivo dominar a análise de informações, tanto de seus clientes quanto da organização, em um momento em que a hiperpersonalização dos serviços financeiros se torna relevante na América Latina. Como primeiro passo, está implementando uma política de gestão de dados.
Esse é um exemplo de uma tendência de bancos latino-americanos tentando resolver a má qualidade de seus dados.
A limpeza de dados (do inglês, data cleansing) é um passo importante para acessar ao grande potencial de dados para multiplicar receitas, permitindo que as entidades ofereçam serviços preditivos e inteligentes para usuários digitais.
Globalmente, 78% dos bancos usam dados em suas operações, mas apenas 7% deles os escalaram com analytics e 5% com inteligência artificial, de acordo com um relatório da Accenture publicado em meados do ano passado. O primeiro número mostra o interesse latente dos bancos em capitalizar em melhores serviços, mas o seguinte destaca que, embora os dados financeiros até sejam abundantes, eles ainda não atingiram seu potencial.
“Qual é a base no que se refere a dados e analytics? É contar com bons dados”, explica Juan Carlos Oré, diretor de dados da Credicorp Capital, à Iupana desde Lima. “Parece bastante simples, mas é uma tarefa super titânica na qual ao gerenciamento de dados nem sempre lhe é dada a importância que deveria.”
“Identificar qual é a fonte certa — e se os dados são de qualidade — está enquadrado em tudo o que é governança de dados. Essa é a primeira coisa que deve ser feita”, acrescenta o executivo, ao mesmo tempo em que alerta que, embora ferramentas de análise como inteligência artificial (IA) e machine learning “sejam muito sexy”, implementá-las antes de organizar os silos, é um erro de estratégia.
O banco, que pertence ao maior grupo financeiro do Peru, começou identificando fontes repetidas de informação e implementou um vocabulário único dentro da empresa, o que o ajudou a reduzir os tempos em relatórios regionais manuais que levaram até dez dias, e agora estão prontos em dois.
Nos próximos três meses, será concluído o desenvolvimento de um projeto de fundos no Peru, Colômbia e Chile, o que permitirá medir, ver a composição e a rentabilidade das carteiras de forma rápida e eficiente.
“É importante que o que você foca, esteja alinhado com o que o negócio precisa”, complementa Oré.
Leer também: Banco Inter se prepara para listagem nos EUA e mira crescimento internacional
Oportunidades para o gerenciamento adequado de dados
Bancos que conseguem domar análises baseadas em dados para conhecer seus clientes em detalhes podem multiplicar por dez o retorno de seus investimentos, disse à Iupana Nicolás Deino, diretor-executivo da Accenture no Chile.
“Se repensarem seus modelos de negócios e adotarem as estratégias inovadoras dos novos operadores de serviços financeiros bancários e exclusivamente digitais, os bancos tradicionais poderiam aumentar suas receitas em quase 4% ao ano, o que significaria mais de meio trilhão de dólares de renda adicional até 2025”, acrescenta Deino, desde Santiago.
“A grande oportunidade para o setor bancário, hoje, não é apenas focar na coleta de dados, mas analisá-los e segmentá-los por meio de novas tecnologias para tomar melhores decisões.”
Essas novas tecnologias incluem aprendizado de máquina e inteligência artificial, ferramentas que estão começando a mostrar sua capacidade de separar peras das maçãs estatísticas. Trata-se também do armazenamento de informações na nuvem, onde os registros podem ser processados mais facilmente do que quando são armazenados dentro de sistemas on-premises.
Esta também é uma alternativa mais barata em comparação com os data warehouses físicos. Nesse sentido, a Credicorp Capital é a primeira empresa do grupo que criou um data lake na nuvem.
“Como parte de cada projeto que, em última análise, traz valor para o negócio, um pouco de governança de dados está sendo implementada. E, pouco a pouco, como construir um Lego, finalmente, será possível implementar esse programa em toda a empresa”, adianta Oré.
Em termos de operações diárias, o processamento de informações começa a aliviar gargalos. O banco tinha softwares que não conversavam entre si, por exemplo, para vincular e fazer análises entre o departamento de despesas e o departamento contábil, o que impedia a centralização dos números, tornando cada fim de mês uma tarefa “terrível”
Leer também: PagoNxt, do Santander, prevê ambientes colaborativos com big techs
Limpeza de dados em bancos
A urgência de priorizar dados e limpá-los é um dos desafios mais complexos do sistema financeiro da América Latina. O termo dados sujos está associado a informações desatualizadas, errôneas ou duplicadas que, em termos práticos, são inúteis para o banco; e, pelo contrário, podem exigir grandes investimentos para limpá-lo.
De acordo com estatísticas coletadas pela Finerio Connect, fornecedora de soluções de open banking, entre 2018 e 2019, as perdas produzidas por dados sujos chegaram a US$ 13 milhões no México e as indústrias mais afetadas foram telecomunicações e bancos.
“Os dados agora são bastante sujos, porque passam por adquirentes, por meios de pagamento, por diferentes razões sociais […] A América Latina tem um problema muito forte de dados financeiros sujos que não permitem automatizar”, diz Nick Grassi, CoCEO e cofundador da Finerio Connect.
Grassi acrescenta que a maioria das instituições tradicionais da região também não sabe ao certo onde estão seus dados ou como purificá-los.
Esses dados integrados diminuem a eficiência dos analistas, que passam a maior parte do tempo organizando e filtrando informações manualmente.
“É o que acontece em muitas empresas, os analistas não analisam, porque 80% do seu tempo é gasto vendo onde as informações estão, tentando obter os dados, colocá-los juntos, compará-los 0,e no fim, eles têm muito pouco tempo sobrando”, diz Oré, da Credicorp Capital.
Em um evento organizado pela iupana e pela Backbase, desenvolvedora de software financeiro, os líderes do setor concordaram que muitos dados podem sufocar os bancos e complicar o desenvolvimento de produtos personalizados, algo que os clientes exigem.
A saída parece ser resumida não em volume, mas em priorização.
“O problema é que os dados não estão sendo utilizados ao máximo”, conclui Grassi.