
Wie unsere KI 27,7 Mio. $ an Nutzergeldern rettete und ein maximales Kopfgeld von 250.000 $ einbrachte
AI features
- Views
- 384K
- Likes
- 570
- Reposts
- 59
- Comments
- 27
- Bookmarks
- 412
TL;DR
Grego AI ist aus der Stealth-Phase hervorgegangen, nachdem seine Reasoning-Architektur eine kritische Schwachstelle im Wert von 27,7 Mio. $ identifiziert hat, die von führenden menschlichen Auditoren übersehen wurde. Das System nutzt Deep Invariant Analysis, um komplexe Logik über Systemebenen hinweg nachzuverfolgen.
Reading the DEUTSCH translation
Das KI-System, an dem wir die letzten zwei Jahre gebaut haben, hat gerade einen Exploit im Wert von 27,7 Millionen US-Dollar verhindert. Das Projekt hat uns eine Prämie von 250.000 US-Dollar gewährt – die höchste, die jemals für eine vollständig von KI entdeckte Schwachstelle gezahlt wurde.
Kein Mensch hat die Suche geleitet. Das System hat sie eigenständig gefunden. Wir haben sie mit unserem Team aus weltweit führenden Sicherheitsforschern validiert und gemeldet.
KI hat bereits Olympiade-Mathematik gelöst, neue Proteine entdeckt und Ärzte bei der Diagnose von Krankheiten übertroffen. Jetzt kommt ein weiterer Punkt hinzu.
Die These, mit der alles begann
Wir sind mit einer bestimmten These gestartet. Es gibt eine kognitive Grenze dafür, wie tief ein menschlicher Prüfer das Zusammenspiel mehrerer Systeme nachvollziehen kann. Die besten Forscher der Welt stoßen bei etwa 4 bis 5 Ebenen von Systeminteraktionen an eine Grenze. Und die meisten kritischen Fehler, die Audits überleben, liegen unterhalb dieser Grenze.
Also wollten wir wollten also herausfinden, ob KI diese Grenze überwinden kann.
Was wir gebaut haben, ist kein weiterer Scanner. Kein weiterer ChatGPT-Wrapper, der einen mit falschen Positivmeldungen überschwemmt. Wir haben eine Reasoning-Architektur auf Basis bestehender KI-Modelle entwickelt, die diese weit über das hinausführt, wofür sie ursprünglich konzipiert wurden. Ein System, das Logik über 7+ Ebenen interagierender Systeme hinweg verfolgt und Schwachstellen findet, von denen kein Mensch weiß, dass er danach suchen soll.
Die Grenzmodelle der führenden KI-Labore haben alle eine grundlegende Einschränkung beim logischen Denken. Sie können komplexe Logik über viele Ebenen interagierender Systeme hinweg nicht erfassen und verfolgen. Kein Labor hat dieses Problem gelöst. Wir schon. Bei denselben Modellen erzielt unser System eine völlig andere Ausgabequalität. Es ist, als ob das Modell nur mit 30 % seiner Leistung gelaufen wäre und es niemand bemerkt hat.
Wie ich dazu kam
Ich jage seit Jahren nach Fehlern. Ich habe jede Generation von „KI-Sicherheitstools“ kommen und gehen sehen. Hochrangige Scanner, die offensichtliche Probleme markieren, ChatGPT-Wrapper, die Hunderte von falschen Positivmeldungen liefern. Alles Zeitverschwendung.
Als @0xitsgreg mir zeigte, was er gebaut hatte, erwartete ich die übliche Demo. Was ich stattdessen sah, war ein System, das in jede Codebasis extrem tief eintauchte, um die obskursten und unauffindbarsten Fehler aufzuspüren.
Ich bin als Mitgründer und CEO eingestiegen.
Der härteste Prüfstein, den wir finden konnten
Wir haben uns für Krypto entschieden, denn wenn eine Schwachstelle in einem Live-Protokoll ausgenutzt wird, fließt in Minuten echtes Geld ab. Es gibt kein „Das patchen wir nächstes Quartal.“ Und die größten Protokolle wurden bereits 3, 4, 5 Mal von den besten Firmen der Welt geprüft.
Wenn unser System das finden könnte, was alle übersehen haben, wäre das der stärkste Beweis, den man sich vorstellen kann.
In den letzten Monaten hat es bestätigte Live-Schwachstellen in Ethereum, Lido, Chainlink, Aave, Uniswap, Polygon und anderen gefunden. Alle diese Protokolle sichern Milliarden von Dollar. Alle wurden zuvor mehrfach von Top-Firmen geprüft. Jeder Fund wurde von allen menschlichen Prüfern übersehen.
Der 250.000-Dollar-Fund
Das System analysierte ein großes, mehrfach geprüftes Protokoll mit einer Methode, die wir Deep Invariant Analysis nennen. Es erfasste die Codebasis, kartierte jedes Modul, jede Abhängigkeit, jede Interaktion zwischen Systemen. Es verfolgte Ausführungspfade auf der Suche nach Invarianten – Dingen, die nie brechen sollten, aber unter bestimmten Bedingungen brechen könnten.

Als es einen vielversprechenden Ansatz fand, startete es verbundene Sub-Agenten, um verschiedene Blickwinkel parallel zu erkunden, richtete eine Sandbox ein, schrieb Proof-of-Concept-Exploits, iterierte und verfeinerte den Angriffspfad, bis er vollständig reproduzierbar war.
Dann hat es uns benachrichtigt.
Wir öffneten den Fund und erwarteten einen weiteren Grenzfall mittlerer Schwere. Was wir sahen, war ein kritischer Logikfehler im Zusammenspiel mehrerer Systeme. 27,7 Millionen US-Dollar an Nutzergeldern waren durch einen einzigen Angriff direkt gefährdet.
Wir haben ihn validiert und über @HackenProof gemeldet. Das Protokoll hat bestätigt, sofort gepatcht und uns eine maximale Prämie von 250.000 US-Dollar gewährt.
Was das bedeutet
Die Kryptowelt hat in letzter Zeit viele Exploits erlebt, und die Protokolle schieben meist die Schuld von sich. Gleichzeitig werden Angreifer immer ausgefeilter, zunehmend KI-gestützt, und die Tiefe der Sicherheitsüberprüfung hat nicht Schritt gehalten.
Die Grenze dessen, was rein menschliche Sicherheitsarbeit erreichen kann, bestand jahrelang. Diese Prämie ist der Beweis, dass KI diese Grenze jetzt durchbrechen kann. Und wir wurden bereits von einem der großen KI-Labore angesprochen, um zu erkunden, was wir gebaut haben.
Heute kommen wir aus der Stealth-Phase. Wir nennen uns @therealgregoai. Wir fangen gerade erst an.
Wenn du herausfinden möchtest, welche Schwachstellen dein Protokoll möglicherweise übersehen hat, schreib mir eine DM.


