Variedades • 10:46h • 14 de janeiro de 2026
PIX, IA e deepfakes: como o Brasil virou o laboratório global dos golpes digitais
Com fraudes no PIX que já somam R$ 4,9 bilhões e crimes com deepfakes crescendo 822%, o país testa tecnologias que buscam identificar até falsificações altamente realistas
Jornalista: Luis Potenza MTb 37.357 | BRSA com colaboração de Cassiano Cavalcanti | Foto: Arquivo/Âncora1
O Brasil ocupa hoje uma posição paradoxal no cenário global de cibersegurança. Ao mesmo tempo em que se consolidou como referência em inovação financeira, com o PIX entre os sistemas de pagamento instantâneo mais avançados do mundo, o país também se tornou alvo prioritário de criminosos digitais. A velocidade e a conveniência do sistema passaram a ser exploradas em golpes cada vez mais sofisticados, impulsionados pela inteligência artificial generativa e pelo uso de deepfakes, inaugurando uma fase em que a aparência de autenticidade já não garante segurança.
Os números dimensionam o problema. Em 2024, o Banco Central do Brasil registrou quase R$ 5 bilhões em prejuízos com fraudes envolvendo o PIX, alta de 70% em relação ao ano anterior. No mesmo período, crimes com deepfakes cresceram 822% no Brasil, índice cinco vezes superior ao observado nos Estados Unidos. Globalmente, projeção da Deloitte estima que as perdas causadas por fraudes potencializadas por IA saltem de US$ 12,3 bilhões em 2023 para US$ 40 bilhões até 2027.
Casos recentes ilustram o alcance desse tipo de crime. No início de 2024, um funcionário do setor financeiro em Hong Kong transferiu US$ 25 milhões após participar de uma videoconferência com deepfakes que simulavam seu diretor financeiro e colegas. Episódio semelhante envolvendo a multinacional britânica de engenharia Arup foi citado pelo Fórum Econômico Mundial como exemplo da nova engenharia social amplificada por IA. No Brasil, a Polícia Civil do Distrito Federal desmantelou um esquema que movimentou cerca de R$ 50 milhões utilizando deepfakes para acessar contas bancárias.
Diante desse cenário, mecanismos tradicionais de segurança, como senhas, tokens e até biometria facial, passam a apresentar limitações. Vozes podem ser clonadas e imagens recriadas com alto grau de realismo. O comportamento humano no ambiente digital, porém, permanece um elemento difícil de reproduzir com precisão. É nesse ponto que ganha espaço a biometria comportamental, tecnologia que analisa padrões como ritmo de digitação, pressão na tela, movimentação do mouse, alternância entre aplicativos e forma de navegação.
Esses padrões funcionam como uma camada de proteção invisível, capaz de diferenciar usuários legítimos de fraudadores mesmo quando credenciais corretas são utilizadas ou quando imagens e áudios parecem autênticos. Em instituições financeiras que adotaram esse tipo de solução, houve redução significativa de golpes de engenharia social, sem aumento de atrito para os clientes, combinando segurança e conveniência.
Sinais comportamentais também permitem identificar tentativas de manipulação em andamento. Movimentos como cliques rápidos seguidos de pausas prolongadas podem indicar orientação externa durante uma transação. Ações atípicas, como copiar e colar dados sensíveis, aparecem em cerca de 30% das fraudes e em menos de 1% das sessões legítimas. Ao detectar essas anomalias, os sistemas podem interromper operações ou acionar verificações adicionais antes da conclusão do pagamento.
Escassez de talentos desafia a resposta brasileira
Apesar do avanço tecnológico, um obstáculo relevante ameaça a eficácia dessas soluções: a falta de profissionais qualificados em cibersegurança. Segundo a Fortinet, o déficit global chega a 4 milhões de profissionais, sendo cerca de 750 mil no Brasil. Relatório recente do Gartner aponta que 63% dos líderes de tecnologia consideram a escassez de talentos o principal entrave para a adoção de novas ferramentas, à frente inclusive de custos e riscos.
Essa lacuna impacta diretamente a capacidade de bancos, fintechs e empresas de tecnologia de implementar e ajustar soluções avançadas, como a biometria comportamental, em fluxos críticos como o PIX. Sem equipes especializadas para calibrar modelos, interpretar alertas e integrar sistemas, parte do potencial dessas tecnologias pode ser perdida.
O enfrentamento desse desafio passa por uma abordagem mais ampla, com ampliação de programas de capacitação, incentivo a certificações reconhecidas, flexibilização de critérios de contratação e maior integração entre empresas, governo e academia. Em um contexto de popularização de deepfakes e IA generativa, a cibersegurança deixa de ser apenas um tema técnico e assume caráter econômico e estratégico.
O Brasil se tornou um ambiente de teste constante para soluções de combate a fraudes digitais. Se funcionam em um mercado com alto volume e diversidade de ataques, tendem a funcionar em qualquer lugar. Sustentar essa posição, porém, exige mais do que tecnologia e regulação ágil. Depende, sobretudo, do investimento contínuo em pessoas capazes de interpretar dados, tomar decisões em tempo real e identificar aquilo que nem a falsificação mais sofisticada consegue esconder: o padrão único de comportamento humano no mundo digital.
Aviso legal
Todos os direitos reservados. É proibida a reprodução, integral ou parcial, do conteúdo textual e das imagens deste site. Para mais informações sobre licenciamento de conteúdo, entre em contato conosco.
Últimas Notícias
As mais lidas
Ciência e Tecnologia
Paralisação completa do 3I/Atlas intriga cientistas e realinhamento aponta para novo comportamento
Registros confirmados por observatórios independentes em três continentes mostram desaceleração em microetapas, parada total e ajuste direcional incomum, ampliando questionamentos sobre a natureza do visitante interestelar
Ciência e Tecnologia
3I/ATLAS surpreende e se aproxima da esfera de Hill de Júpiter com precisão inédita