Brikz Labs
Cada exemplo replica, em escala reduzida e com dados sintéticos, uma camada operacional do LFDM. As páginas carregam direto no browser, sem depender de servidor, e geram dado novo a cada execução para refletir a variabilidade do comportamento dos modelos.
Grafo direcionado com 250 transações e 4 padrões plantados de lavagem. Slider de orçamento controla o top-k% inspecionado. Métricas Recall, Precisão, IPI e Lift atualizam ao vivo, com curva mostrando o trade-off.
Resolução de QSA com cálculo de beneficiário final acima de 25%, detecção de ciclo societário, marcação de PEP e sanções. Estrutura gerada aleatoriamente, com entidades fictícias.
Série de 24 meses de fluxo de caixa de cedente FIDC com forecast de 6 meses à frente. Cenários selecionáveis: saudável, sazonal, em deterioração, choque súbito. Banda de incerteza visível.
Cole um regulamento de FIDC e veja a extração estruturada em regras SQL aplicáveis por recebível. Exemplos pré-carregados de Crédito Privado, Agro e Factoring. Cláusulas vinculadas a citação.
TabICLv2 e TabPFN-2.5 prevêem probabilidade de default sobre features tabulares de cedente sem fine-tuning. Slider por feature, predição em tempo real, similar cases no prior sintético.
GraphAny e GraphFM identificam comunidades estruturais em rede sintética cedente-sacado sem treino específico. Stress test simula propagação de risco sistêmico por comunidade.
Como usar
1. Roda no browser
Cada demo é um único HTML standalone. Sem servidor, sem backend, sem login. Recarrega gerando dado novo.
2. Dados 100% sintéticos
Nenhuma transação real, CNPJ real ou nome real aparece nas demos. Padrões reproduzem topologia conhecida da literatura.
3. Comportamento qualitativo fiel
Heurísticas que aproximam o output de GraphSAGE, Mamba-2 e Document AI sem carregar pesos de modelo no browser.
Em produção, em Google Cloud
As mesmas classes de modelo das demos rodam em Vertex AI com adapter LoRA por instituição, sobre TPU v5p para pré-treino e Cloud Run para inferência serverless. Throughput observado: 740K arestas/segundo em NVIDIA A100 80GB.
Stack open source utilizada
As demos mostram a forma da resposta. Em produção, o LFDM roda em Vertex AI com adapter LoRA por instituição, sobre dado regulado em região São Paulo dedicada.