
Como nossa IA economizou US$ 27,7 milhões em fundos de usuários e conquistou uma recompensa máxima de US$ 250.000
AI features
- Views
- 384K
- Likes
- 570
- Reposts
- 59
- Comments
- 27
- Bookmarks
- 412
TL;DR
A Grego AI saiu do modo stealth após sua arquitetura de raciocínio identificar uma vulnerabilidade crítica de US$ 27,7 milhões que passou despercebida pelos melhores auditores humanos. O sistema utiliza análise profunda de invariantes para rastrear lógicas complexas entre as camadas do sistema.
Reading the PORTUGUÊS translation
O sistema de IA que construímos nos últimos dois anos acabou de evitar um exploit de $27,7 milhões. O projeto nos rendeu uma recompensa de $250.000, a maior já paga por uma vulnerabilidade encontrada inteiramente por IA.
Nenhum ser humano guiou a busca. O sistema encontrou sozinho. Validamos com nossa equipe de pesquisadores de segurança de classe mundial e reportamos.
IA já resolveu problemas de olimpíada de matemática, descobrindo novas proteínas e superando médicos no diagnóstico de doenças. Acabou de adicionar mais um item à lista.
A tese que deu início a tudo
Começamos a construir isso com base em uma tese específica. Existe um limite cognitivo para quão fundo qualquer auditor humano consegue rastrear sistemas que interagem entre si. Os melhores pesquisadores do mundo atingem um teto em cerca de 4 a 5 níveis de interações entre sistemas. E a maioria dos bugs críticos que sobrevivem a auditorias está abaixo desse teto.
Então queríamos descobrir se a IA conseguiria ultrapassá-lo.
O que construímos não foi mais um scanner. Mais um wrapper do ChatGPT que te inunda de falsos positivos. Construímos uma arquitetura de raciocínio sobre modelos de IA existentes que os leva muito além do que foram projetados para fazer. Um sistema que rastreia lógica em 7+ camadas de sistemas interagindo simultaneamente, encontrando vulnerabilidades que nenhum ser humano sequer sabe que existem.
Os modelos de fronteira dos principais laboratórios de IA têm uma limitação fundamental de raciocínio fundamental de raciocínio. Eles não conseguem sustentar e rastrear lógica complexa em muitas camadas de sistemas que interagem. Nenhum laboratório resolveu isso. Nós resolvemos. Para os mesmos modelos, nosso sistema produz um nível completamente diferente de resultado. É como se o modelo estivesse rodando a 30% e ninguém tivesse notado.
Como me envolvi
Caço bugs há anos. Vi todas as gerações de "ferramenta de segurança com IA" surgirem. Scanners de alto nível sinalizando problemas óbvias, wrappers do ChatGPT te dando centenas de falsos positivos. Tudo perda de tempo.
Quando @0xitsgreg me mostrou o que ele tinha construído, esperava a demonstração de sempre. O que vi foi um sistema que mergulhos extremamente profundos em cada base de código para desenterrar os bugs mais obscuros e impossíveis de encontrar.
Entrei como cofundador e CEO.
O campo de provas mais difícil que poderíamos encontrar
Escolhemos cripto porque, quando uma vulnerabilidade é explorada em um protocolo ativo, dinheiro de fundos reais são drenados em minutos. Não existe "Vamos corrigir no próximo trimestre." E os maiores protocolos já foram auditados 3, 4, 5 vezes pelas melhores empresas do mundo.
Se nosso sistema conseguisse encontrar o que todas elas perderam, essa seria a prova mais forte prova imaginável.
Nos últimos meses, ele encontrou vulnerabilidades confirmadas em Ethereum, Lido, Chainlink, Aave, Uniswap, Polygon e outros. Todos esses protocolos estão protegendo bilhões de dólares. Todos auditados múltiplas vezes por empresas de ponta. Todas as descobertas passaram despercebidas por todos os revisores humanos.
A descoberta de $250. de $250.000
O sistema analisou um protocolo grande e pesadamente auditado usando o que chamamos de Análise de Invariantes Profunda. Ele absorveu a base de código, mapeou cada módulo, cada dependência, cada interação entre sistemas. Rastreou caminhos de execução em busca de invariantes — coisas que nunca deveriam quebrar, mas podem sob condições específicas.

Quando encontrava uma linha promissora, ele agentes conectados para explorar diferentes ângulos em paralelo, iniciou um sandbox, escreveu provas de conceito, iterou e refinou o caminho de ataque até ter algo totalmente reproduzível.
Então nos avisou.
Abrimos abertura esperando outro caso de borda de gravidade média. O que víamos era uma falha lógica crítica na interação de múltiplos sistemas. $27,7 milhões em fundos de usuários em risco direto de serem drenados em um único ataque.
Validamos e reportamos através do @HackenProof. O protocolo confirmou, corrigiu imediatamente e nos concedeu uma recompensa de $250.000 por gravidade máxima.
O que isso significa
O mundo cripto testemunhou muitos exploits recentemente e, na maioria das vezes, os protocolos desviam a culpa. Enquanto isso, os atacantes estão se tornando mais sofisticados, cada vez mais auxiliados por IA, e a profundidade da revisão de segurança não acompanhou.
O teto do que a segurança puramente humana pode alcançar se mantém há anos. Esta recompensa é a prova de que a IA pode agora rompê-lo. E já fomos abordados por um dos principais laboratórios de IA para explorar o que construímos.
Hoje estamos saindo do modo oculto. Nos chamamos @therealgregoai. Estamos apenas começando.
Se você quiser descobrir quais vulnerabilidades seu protocolo pode ter perdido, me mande uma DM.


