Open Source · AI Security · Built from experience Open Source · AI Security · Construído com experiência

Your company adopted AI.
But who's watching what the AI is doing?

Sua empresa adotou AI.
Mas quem está vigiando o que a AI está fazendo?

Blackbox-Sentinel is an open source AI Security framework — sensitive data monitoring, shadow AI detection, and automated alert investigation. Built by someone who's lived cybersecurity in the real world.

Blackbox-Sentinel é um framework open source de AI Security — monitoramento de dados sensíveis, detecção de shadow AI e automação de investigação de alertas. Construído por quem viveu cybersecurity na prática.

Explore on GitHub Explorar no GitHub Read the full story ↓ Ler a história completa ↓
The Origin A Origem

Ten years ago, I was deep in the Linux and Security communities in Brazil. I organized events, contributed to projects, and lived and breathed cybersecurity. I was inspired by people like Jon "maddog" Hall and Yuri Diogenes — professionals who understood something fundamental: security was never a nice-to-have. It's the foundation.

Há 10 anos, eu era ativo nas comunidades de Linux e Segurança no Brasil. Organizava eventos, contribuía em projetos, respirava cybersecurity. Me inspirava em gente como Jon "maddog" Hall e Yuri Diogenes — profissionais que entendiam algo fundamental: segurança nunca foi um complemento. É a base.

Jacques with Jon "maddog" Hall
With Jon "maddog" Hall Com Jon "maddog" Hall
Jacques with Yuri Diogenes — Check Security Day 2012
With Yuri Diogenes — Check Security Day 2012 Com Yuri Diogenes — Check Security Day 2012

Life took me in other directions and I stepped away from that world for a few years. But something changed recently. I started seeing the landscape up close — companies adopting AI tools at scale, with zero visibility into what was happening with their data. And the question I couldn't shake was simple:

A vida me levou por outros caminhos e me afastei desse mundo por alguns anos. Mas algo mudou recentemente. Comecei a ver o cenário de perto — empresas adotando ferramentas de AI em escala, sem nenhuma visibilidade sobre o que estava acontecendo com os dados. E a pergunta que não saía da minha cabeça era simples:

"If the problem is this obvious, why do we keep complaining instead of building something?"
"Se o problema está tão claro, por que a gente fica só reclamando em vez de construir algo?"

I went back to that 2013 mindset. Spent weeks studying AI Security, Data Governance, DLP, Shadow AI Detection. Read everything I could find. Talked to people living this every day. And I started building. The result is Blackbox-Sentinel — a project that's still in its early days, but one that tackles a real problem most companies don't yet know how to solve.

Voltei àquele mindset de 2013. Passei semanas estudando AI Security, Data Governance, DLP, Shadow AI Detection. Li tudo o que encontrei. Conversei com gente que vive isso no dia a dia. E comecei a construir. O resultado é o Blackbox-Sentinel — um projeto que ainda está no começo, mas que ataca um problema real que a maioria das empresas ainda não sabe como resolver.

The problem is real.
And it's growing fast.

O problema é real.
E está crescendo rápido.

These are the pain points I keep hearing from security and compliance teams:

Estas são as dores que estou ouvindo repetidamente de equipes de segurança e compliance:

🌊

Massive adoption, zero control

Adoção massiva sem controle

ChatGPT, Copilot, Claude — they're in every company. But who knows what employees are sending to these models?

ChatGPT, Copilot, Claude — estão em toda empresa. Mas quem sabe o que os colaboradores estão enviando para esses modelos?

👻

Invisible Shadow AI

Shadow AI invisível

AI agents installed without IT approval. No inventory, no risk assessment, no visibility whatsoever.

AI agents instalados sem autorização do IT. Sem inventário, sem avaliação de risco, sem visibilidade nenhuma.

🔓

Sensitive data exposed

Dados sensíveis expostos

PII, financial data, health records — being pasted directly into unprotected chatbots with zero filtering.

PII, dados financeiros, informações de saúde — sendo colados diretamente em chatbots sem qualquer filtro.

📋

Compliance falling behind

Compliance ficando para trás

HIPAA, SOX, GDPR, CCPA — the frameworks exist, but AI adoption is way ahead of the controls.

HIPAA, SOX, GDPR, LGPD — os frameworks existem, mas a adoção de AI está muito à frente dos controles.

⏱️

Investigation that doesn't scale

Investigação que não escala

15+ minutes per security alert. When you're getting hundreds a day, that simply doesn't work.

15+ minutos por alerta de segurança. Quando você recebe centenas por dia, isso simplesmente não funciona.

🎯

Gap between security & AI teams

Gap entre security e AI teams

Security teams and AI teams speak different languages. There's a missing bridge — and that's where the risks emerge.

Times de segurança e times de AI falam línguas diferentes. Falta uma ponte — e é aí que os riscos surgem.

What Blackbox-Sentinel does

O que Blackbox-Sentinel faz

Three pillars designed to give visibility and control over AI in your organization. Simple, extensible, and open source.

Três pilares projetados para dar visibilidade e controle sobre AI na sua organização. Simples, extensível e open source.

Pillar 01

Data Governance & DLP

Real-time monitoring of what's being sent to AI tools. Detects sensitive data — PII, PHI, financial information — and blocks transmission before it leaks. Built from day one for HIPAA, SOX, GDPR, and CCPA compliance.

Monitora em tempo real o que está sendo enviado para ferramentas de AI. Detecta dados sensíveis — PII, PHI, informações financeiras — e bloqueia a transmissão antes que vaze. Pensado desde o início para compliance com HIPAA, SOX, GDPR e LGPD.

PII Detection Real-time Blocking Compliance Reports
Pillar 02

Shadow AI Detection

Discovers unauthorized AI agents via network fingerprinting. Assesses vulnerabilities like privilege escalation and assigns automatic risk scores for prioritization. Full visibility into what's running on your network.

Descobre AI agents instalados sem autorização via network fingerprinting. Avalia vulnerabilidades como privilege escalation e atribui um risk score automático para priorização. Visibilidade total do que está rodando na sua rede.

Network Fingerprint Risk Scoring Auto Discovery
Pillar 03

Alert Investigation Automation

Cuts alert investigation time from 15 minutes to 2 minutes — an 87% reduction. Uses LLMs for contextual analysis, auto-generates queries (S1QL, KQL), and produces structured reports ready for the analyst.

Reduz o tempo de investigação de alertas de 15 minutos para 2 minutos — 87% de redução. Usa LLMs para análise contextual, gera queries automaticamente (S1QL, KQL) e produz relatórios estruturados prontos para o analista.

LLM-powered Auto Queries 87% Faster
87%
Reduction in investigation time
Redução no tempo de investigação
~2min
Average time per alert
Tempo médio por alerta
Real-time
Sensitive data detection
Detecção de dados sensíveis
Zero
Vendor lock-in
Vendor lock-in

Built for production,
not for demos

Construído para produção,
não para demo

The architecture is designed for real-world environments. Production-grade components, end-to-end encryption, and audit logs at every layer.

A arquitetura foi pensada para ambientes reais. Componentes production-grade, criptografia de ponta e logs de auditoria em cada camada.

LLMs

Llama 3.1 70B (NVIDIA DGX), GPT-4, Claude — multi-model for flexibility and resilience

Llama 3.1 70B (NVIDIA DGX), GPT-4, Claude — multi-model para flexibilidade e resiliência

Infrastructure

NVIDIA DGX, Docker containers, PostgreSQL with full audit trail

NVIDIA DGX, Docker containers, PostgreSQL com full audit trail

Frameworks

LangChain for orchestration, FastAPI backend, React frontend

LangChain para orquestração, FastAPI no backend, React no frontend

Security

TLS 1.3, AES-256 encryption, immutable audit logs on every operation

TLS 1.3, AES-256 encryption, audit logs imutáveis em cada operação

This is just the beginning.

Isso é só o começo.

The project is open source, it's early stage, and it needs a lot of evolution. But the problem it solves is urgent. If your organization is facing this AI Security pain — let's talk.

O projeto é open source, está no início, e precisa de muita evolução. Mas o problema que ele resolve é urgente. Se a sua organização está enfrentando essa dor de AI Security — vamos conversar.

View project on GitHub Ver projeto no GitHub Find me on LinkedIn → Me encontrar no LinkedIn →