A adoção de novas tecnologias é fundamental para a prevenção de fraudes, exigindo que os modelos sejam treinados com dados de qualidade e constantemente atualizados para combater ataques cada vez mais sofisticados.
A prevenção de fraudes é como um jogo constante de “gato e rato”, concordaram a Comissão Nacional de Bancos e Valores Mobiliários (CNBV), o Santander México e a associação de agregadores de pagamentos (Asamep), amém de Clara, Stori, Aplazo e outros, alertando que os ataques ocorrem de forma recorrente e buscam qualquer brecha na segurança. Por isso, não é possível baixar a guarda.
As palestras ocorreram durante o FinSeg Day 2025, um evento organizado pela iupana na Cidade do México, com foco em fraude e fortalecimento da segurança.
Aqui estão algumas das lições aprendidas durante o dia:
-
A imperfeição como uma característica humana
A inteligência artificial (IA) ocupou o centro das discussões, destacando sua capacidade de imitar e até mesmo aperfeiçoar gestos, vozes e comportamentos humanos. Isso levanta o desafio de mitigar ataques cada vez mais complexos, como os deepfakes, que colocam à prova os sistemas de autenticação.
No entanto, do ponto de vista da tecnologia, esse refinamento pode ser uma evidência de que há uma injeção de vídeo por trás dele com o objetivo de enganar os sistemas; e, do ponto de vista da engenharia social, resta alertar e educar os usuários finais de que nem tudo que parece bom pode ser verdade.
“O primeiro sinal de alerta é sempre não acreditar no que parece bom demais para ser verdade. É claro que os ataques atuais estão cada vez mais sofisticados, graças à IA e, paradoxalmente, o que nos distingue como humanos, que é a imperfeição, acaba sendo uma linha de defesa muito útil contra a perfeição dos deepfakes“, disse José Armillas, especialista em dados do setor bancário.
2) Se a GenAI tomar a decisão, quem é o responsável?
O treinamento e o ajuste fino da inteligência artificial generativa para tomar decisões devem continuar sendo responsabilidade das equipes, sem delegá-las totalmente. Mesmo que os resultados de um modelo sejam bons, é fundamental entender os parâmetros que orientaram essas conclusões.
Portanto, é fundamental definir quem é responsável pela “explicabilidade” algorítmica da GenAI, um desafio prioritário para o setor financeiro, especialmente, em processos críticos.
“A GenAI precisa ser usada como um copiloto e não como um piloto para a empresa. É algo que nos ajuda e não age por conta própria para tomar decisões”, disse Juan Huezo, vice-presidente de produtos da Aplazo, uma fintech de buy now, pay later.
Garantir decisões compreensíveis e justas é o foco da atenção dos especialistas, um trabalho que eles estão realizando com mecanismos claros e princípios éticos.
“O princípio ético a ser considerado é sempre o comportamento do próprio cliente em relação à GenAI, tão simples quanto perguntar se ele gostou ou não da experiência. Com isso, podemos calibrar as métricas e os processos para ajustar o modelo. Essa é a coisa mais humana que podemos fazer”, explicou Huezo.
-
O que um líder de segurança não deve subestimar
A criatividade e a tenacidade dos criminosos cibernéticos não devem ser subestimadas, concordaram especialistas da Clara, Bitso e Xepelin no painel sobre IA e fraude em serviços financeiros.
Eles alertaram que o usuário final continua sendo o elo mais vulnerável das redes criminosas que buscam roubar credenciais, tornando indispensável a educação constante.
Eles descreveram a luta contra a fraude como mutante, adaptável e mutável, refletindo a velocidade com que os invasores modificam suas estratégias.
-
Regulamentação para a prevenção da lavagem de dinheiro
O México está sentindo os primeiros impactos da nova categorização dos cartéis como redes terroristas imposta pelo governo dos Estados Unidos. E a denúncia de lavagem de dinheiro por parte dos bancos mexicanos, tornada pública nesta semana, não passou despercebida no evento.
Especialistas do meio acadêmico e do setor de fintech concordaram que as instituições financeiras devem fazer um esforço maior para fortalecer o monitoramento para detectar possíveis riscos de lavagem de dinheiro ou financiamento do terrorismo, sendo a IA a ferramenta que mais contribuirá para esse processo. No entanto, a tecnologia não será suficiente, mas também a colaboração.
“Não existe uma cultura de compartilhamento. Não se trata apenas da questão do combate à lavagem de dinheiro (AML), mas também da segurança cibernética. Às vezes, você precisa de um elemento regulatório que o obrigue a fazer esses relatórios, e essa também é uma maneira eficaz porque ajuda os outros a tomar uma decisão inteligente”, disse Jorge Rodríguez, diretor do mestrado em segurança cibernética do Tecnológico de Monterrey.
-
Empolgação da vítima de fraude
O progresso tecnológico representa uma faca de dois gumes, pois fortalece a segurança cibernética, mas também expõe o usuário a novas vulnerabilidades.
O uso de dados biométricos envolve riscos delicados, alertou Lorena Bravo, diretora de segurança da Google Cloud Consulting, lembrando que existem algoritmos capazes de reconhecer o estado emocional de uma pessoa a partir da imagem de sua íris.
“Essas informações são usadas em campanhas de engenharia social para fazer com que as pessoas entreguem suas credenciais”, explicou ela, acrescentando que esse é um dos maiores desafios em termos de identidade digital.