Brikz Labs · Demo 01 · Agente PLD/FT
Esta demo replica o pipeline do Agente PLD/FT em escala reduzida. A cada execução, um grafo direcionado é gerado aleatoriamente com padrões plantados de lavagem. O slider de orçamento controla a fração inspecionada do volume. Observe as métricas: orçamentos pequenos revelam a qualidade do ranking; orçamentos grandes diluem o ganho frente a uma amostra aleatória.
Orçamento de inspeção
Em produção, gestoras operam tipicamente entre 1% e 2%. Acima de 5%, custo de fila de exceções cresce mais que ganho marginal de recall.
Modo de visualização
Padrões plantados
Legenda
Recall@k%
—
cresce com k
Precisão@k%
—
decresce com k
IPI@k%
—
inspeções por ilícito · menor é melhor
Lift@k%
—
vs. amostra aleatória · maior é melhor
Curva das métricas em função de k
k = 1% até 10%Leitura correta: em k pequeno, Precisão e Lift são máximos — é onde a qualidade do ranking aparece. Recall cresce com k por construção, mas o custo marginal por ilícito novo cresce mais rápido. A operação típica fica entre k=1% e k=2%.
—
Sobre a demo
O grafo é gerado aleatoriamente a cada clique no botão "Gerar novo dataset". Padrões de lavagem são plantados em quantidades e configurações variáveis: smurfing, layering, fan-in mule e ciclo de lavagem. Scores que ordenam as arestas vêm de uma heurística que combina pertencimento aos padrões e ruído gaussiano, simulando o comportamento do GraphSAGE produtivo sem carregar pesos de modelo no browser.
Em produção, o mesmo algoritmo (GraphSAGE com decodificador MLP, treinado sob class weighting) opera sobre transações reais com adapter LoRA por cliente em Vertex AI.
Como interpretar
Em produção, na Brikz
Recall@1% em AMLSim 124M: 87,7%. IPI@1%: 7,94. Throughput: 740K arestas/segundo em A100 80GB sobre Vertex AI.
Estado da arte e próximos passos
Esta demo usa GraphSAGE com decodificador MLP — uma escolha de produção pela combinação de qualidade no topo do ranking, custo de inferência baixo e capacidade indutiva. Pesquisa recente aponta caminhos relevantes para a próxima geração do Agente PLD/FT.
Wavelet + temporal · 2025
ChronoWave-GNN
Combina decomposição wavelet em frequência com encoding temporal sobre o grafo transacional. Captura padrões não-estacionários e multi-escala em atividade ilícita. Reporta acurácia 0,9802 e F1 0,9799 em benchmark Bitcoin, superando linhas anteriores de GNN espacial pura.
Scientific Reports 2025, Nature s41598-025-23901-3
Line graph multi-view · 2025
LineMVGNN
Trata pagamentos e recebimentos como visões distintas do grafo via line-graph, com message passing bidirecional entre nós da transação. Específico para AML em fluxo bancário multicanal.
MDPI AI 6(4), 2025 — DOI 10.3390/ai6040069
Temporal motif detection · 2025
LAS-GNN
Layered Attention sobre sequência de subgrafos temporais. Detecta motivos temporais característicos de lavagem (ondas de smurfing, recirculação rápida entre mulas) que GNN estática perde.
ACM AI in Finance 2025, doi 10.1145/3768292.3770410
Continual graph learning · 2025
Revisão sistemática
Survey de continual learning aplicado a AML. Categoriza métodos em replay-based, regularization-based e architecture-based. Relevante porque produção de AML enfrenta drift conceitual contínuo: novos métodos de lavagem surgem mais rápido que rótulos confirmados.
"Advances in Continual Graph Learning for AML", arXiv:2503.24259 (2025)
Heterogeneous GNN para AML · 2025
Grafos com tipos distintos
Aplicação direta de Heterogeneous GNN sobre rede transacional real de banco, com tipos de nó distintos (PF, PJ, instituição, contraparte de mercado). Atenção por tipo de aresta supera GraphSAGE homogêneo onde a heterogeneidade carrega sinal de risco.
ScienceDirect 2025, S2405918825000273
Self-attention sobre grafo
Self-Attention GNN para AML
Mecanismo de atenção sobre vizinhos da transação, com peso aprendido em função do padrão da contraparte. Reduz dependência de feature engineering manual da literatura clássica.
SHS Web of Conferences MESSD 2025
Federated AML multi-banco
Aprender padrões entre instituições sem expor transação
A próxima fronteira operacional é compartilhar padrões de lavagem entre instituições sem expor a transação. FedGraphNN provê benchmark para grafos federados. SecureFed combina federated learning com Trusted Execution Environment ou homomorphic encryption para garantia regulatória. Esquemas práticos preservam a topologia local de cada banco enquanto o gradiente agregado captura padrões trans-institucionais de smurfing e layering. Continual learning é complementar: o modelo federado precisa absorver novos padrões sem esquecer os antigos.
Wang et al., FedGraphNN, NeurIPS GLFrontiers 2021 · revisão continual em arXiv:2503.24259
A escolha do GraphSAGE produtivo na Brikz reflete trade-off operacional: qualidade no top-k% comparável a alternativas mais caras (GATv2, PNA), com VRAM 4× a 13× menor. As alternativas listadas são extensões progressivas sobre essa base, não substituições — em especial as linhas de wavelet-temporal (ChronoWave-GNN) e continual learning, candidatas naturais ao próximo ciclo de pesquisa interna.