
Das „Second Brain“ ist die Zukunft der Arbeit
AI features
- Views
- 263K
- Likes
- 125
- Reposts
- 4
- Comments
- 0
- Bookmarks
- 110
TL;DR
Dieser Artikel skizziert ein Framework für den Aufbau eines logischen „Second Brain“ unter Verwendung von RDF und Ontologien, um menschliche Heuristiken und mentale Modelle zu externalisieren und so die KI-Ausrichtung an der persönlichen Denkweise sicherzustellen.
Reading the DEUTSCH translation
Ich bin größtenteils gleichgültig gegenüber dem Wettlauf um die Künstliche Allgemeine Intelligenz. Wir verstehen menschliches Bewusstsein kaum, wie es ist – wie sollten wir es in einer Maschine erkennen?
Meine Ambitionen sind bescheidener: Ich möchte zuerst eine Künstliche Spezielle Intelligenz. Systeme, die in der Lage sind, die repetitiven und operativen Teile meiner Arbeit auf dem gleichen Qualitätsniveau zu erledigen, während sie mir die Zeit zurückgeben, die Fähigkeiten zu schärfen, die wirklich zählen.
Die entscheidende Fähigkeit des KI-Zeitalters wird es sein, die kognitive Souveränität in einer Welt zu bewahren, die zunehmend auf stochastischen Systemen aufbaut.
Dein Gehirn war schon immer dein größtes Kapital. KI macht das lediglich offensichtlich.
Du wurdest nie allein wegen deiner technischen Fähigkeiten eingestellt. Du wurdest für das Urteilsvermögen eingestellt, das hinter ihrer Anwendung steckt – die Argumentation, Priorisierung, der Kontext und die Intuition, die der Ausführung zugrunde liegen.
Da immer mehr Arbeit an KI-Agenten delegiert wird, wirft das eine tiefere Frage auf:
Wie kann ich der KI beibringen, was ich weiß?
Und die Betonung auf „ich" ist entscheidend.
Die Vielfalt des menschlichen Denkens macht die Welt interessant. Unternehmen skalieren durch Standardisierung, aber sie entwickeln sich durch Menschen, die die Welt anders sehen. KI kann Muster replizieren, aber Innovation kommt oft von den Menschen, die von ihnen abweichen.
Die wirkliche Chance liegt nicht darin, menschliche Kognition zu ersetzen, sondern sie zu externalisieren – Systeme zu bauen, die deinen Kontext, deine Heuristiken, deinen Geschmack und deine Art, Probleme zu lösen, erfassen können.

Eine Möglichkeit, das zu tun, ist, noch heute damit zu beginnen, dein eigenes maßgeschneidertes zweites Gehirn aufzubauen.
Nicht nur ein Notiz-Repository, sondern ein externalisiertes Modell davon, wie du denkst, entscheidest und kreierst. Denn die Menschen, die im KI-Zeitalter erfolgreich sein werden, sind nicht diejenigen, die gegen Maschinen antreten – sie werden diejenigen sein, die lernen, ihre Kognition durch sie zu vervielfachen.
Modellierung eines rein logischen Gehirns
Warum kein RAG? Weil es eine undurchsichtige Blackbox ist. Ich wäre nicht damit einverstanden, wenn ich meine Gedanken und Handlungen erklären könnte. Ich möchte nicht, dass es mit meinem künstlichen Gehirn anders ist.

Ethos und Pathos sind enorm schwierige Probleme. Logos ist handhabbar.
Menschliche Intelligenz stützt sich auf alle drei – Emotion, Identität, Intuition, soziales Denken. Aber im spezifischen Bereich der Arbeit erzeugen Logik und strukturierte Argumentation bereits enorme Hebelwirkung.
Mein Ziel ist es, ein zweites Gehirn aufzubauen, das logisch denken, Wissen in Abstraktionen komprimieren, Muster durch Nutzung lernen und meine Denkweise externalisieren kann.
Einfach Kognition mit überprüfbaren Mechanismen.
Warum RDF, OWL und Ontologien die perfekte Lösung sind
Die Eleganz von RDF ist fast beunruhigend. Es bietet die gemeinsame Sprache, um ein Konzept darzustellen.
Das ist alles.
Aus dieser winzigen Grammatik kannst du ganze Gedankensysteme modellieren.
Beispiel:
OWL fügt eine logische Struktur hinzu, die ebenfalls in derselben Sprache wie RDF ausgedrückt wird.
Du speicherst keine Dokumente mehr.
Du kodierst Beziehungen, Invarianten und das Denken selbst.
Die Einfachheit macht es mächtig.
Im Gegensatz zu Embeddings oder Black-Box-Neuronalen Systemen ist jede Tatsache überprüfbar. Jede Schlussfolgerung ist nachvollziehbar. Jede Schlussfolgerung hat eine Herkunft.
Ein logisches Gehirn braucht ein logisches Substrat.
RDF fühlt sich weniger wie eine Datenbank und mehr wie eine Grammatik für Gedanken an.
Was macht es heute möglich?
Das Konzept hinter RDF ist recht alt. Es existiert seit den späten 90ern und wurde verwirrenderweise als Web3 bezeichnet (nicht zu verwechseln mit dem Fiebertraum, der Web3.0 war), noch vor Web2.0. Es wurde bis jetzt nur in sehr spezifischen Bereichen (Wikipedia, Medizin, Wissensgraphen) verwendet, aufgrund des arbeitsintensiven Prozesses, der eine sorgfältige Kuratierung von Daten erfordert.
KI dreht den Spieß um. Der Grund, warum LLMs so gut in der Wissensarbeit sind, ist, dass sie nach ähnlichen Prinzipien modelliert sind, nur als Vektoren statt als Tripel gespeichert. Der arbeitsintensive Prozess der Vergangenheit kann heute mit hoher Genauigkeit an ein LLM delegiert werden.
Die meiste Arbeit ist tolerant gegenüber gewissen Ungenauigkeiten, es sei denn, du schreibst zufällig Code für die NASA. LLMs sind fleißige Arbeiter, die unermüdlich für dich arbeiten können, bis eine bestimmte Qualität erreicht ist. Das ist heute mit Tools wie Claude Code und OpenClaw möglich.
Vielleicht waren die Autoren von RDF weitsichtig, als sie es Web3 nannten – es war eine Idee, die ihrer Zeit voraus war.
Es gibt zahlreiche Open-Source-Frameworks, die RDF-Daten für dich aufnehmen und abfragen können – wie Apache Jena und RDFLib. Das Einbinden eines LLMs auf der Eingabeebene ermöglicht es dir, Rohtext in eine strenge Syntax zu übersetzen, die semantische Bedeutung kodiert. Ebenso kann ein LLM die Ausgabe in eine für Menschen lesbarere Form übersetzen.
Verwende die LLM-Architektur für die harten Dinge – I/O, Visualisierungen. Verwende die klassische Architektur für die unterhaltsamen Dinge – Logik, Inferenz.
Du möchtest, dass dein zweites Gehirn mit dir wächst. Du möchtest nicht, dass es stagniert oder veraltet. Wenn du einen Großteil deiner Arbeit über ein Claude Code-Terminal erledigst, könntest du Hooks konfigurieren, um Daten in einem Hintergrundagenten aus deinem zweiten Gehirn aufzunehmen und abzufragen.
Du könntest auch Fähigkeiten definieren, um Daten aus einer Vielzahl von Quellen aufzunehmen, indem du deine eigene benutzerdefinierte Ontologie angibst – aka. deine einzigartige Perspektive darauf, wie die Verbindungen in deinem zweiten Gehirn gebildet werden. Du könntest dich auch auf die frei verfügbaren Ontologie-Repositories im Internet verlassen.
Du brauchst keinen Abschluss in Psychologie oder Neurowissenschaften, um dein Gehirn zu verstehen. Du bist dein eigenes wandelndes, sprechendes Labor, um den Mechanismus deiner Gedanken auseinanderzunehmen.
Hier sind einige meiner ausgewählten Erkenntnisse, die sich auch gut auf dieses System übertragen lassen.
Faule Auswertung durch Inferenz
Das Gehirn ist kein Cache.
Es berechnet Verständnis bei Bedarf – synthetisiert Tripel bei Bedarf.
Menschen speichern selten vollständige Implementierungen. Wir speichern Abstraktionen, die in der Lage sind, Implementierungen dynamisch zu rekonstruieren.
Es komprimiert Tausende von Erfahrungen in eine Handvoll wiederverwendbarer Abstraktionen.
Ein erfahrener Ingenieur erinnert sich nicht an jede Klasse, die er in seinem Leben gelesen hat. Er erinnert sich an das grundlegende Konzept der OOP, das ausreicht, um jede neue Klasse zu verstehen, auf die er stößt.

Gib mir die Axiome, und ich kann den Rest ableiten.
Mustererkennung
Wenn zwei Systeme strukturell ähnlich sind, überträgt sich das Verständnis sofort.
Deshalb lernen erfahrene Menschen schneller.
Sie erkennen Formen, die sie bereits gesehen haben.
Intelligenz ist oft Analogie im großen Maßstab.
Hier funktioniert ein menschlich unterstütztes System am besten für das zweite Gehirn. LLMs könnten Muster von selbst finden, aber sie übersehen oft die Verbindungen, die für einen Menschen offensichtlich sind.
Hebb'sches Lernen
Neuronen, die gemeinsam feuern, verbinden sich miteinander.
Wissen, das gemeinsam abgerufen wird, stärkt sich gemeinsam.
Das Gehirn gewichtet kontinuierlich die Wichtigkeit neu, basierend auf:
- Häufigkeit
- Aktualität
- kontextueller Kookkurrenz
Verständnis ist dynamisch, nicht statisch.
Lernen durch Scheitern
Fehler sind kein Rauschen. Sie sind Trainingsdaten.
Das Gehirn behält fehlgeschlagene Experimente, weil zu wissen, was man nicht tun sollte, Teil der Intelligenz ist.
Gute Heuristiken sind oft komprimierter Schmerz.
Kontextuelle Verstärkung
Konzepte werden gestärkt, wenn sie in mehreren Bereichen auftauchen.
Pythagoras in Geometrie. Physik. Grafik. Signalverarbeitung.

Wahres Verständnis entsteht, wenn Abstraktionen den Kontextwechsel überleben.
Herkunft und Vertrauen
Menschen vertrauen Wissen unterschiedlich, abhängig von Quelle, Zuversicht und bisheriger Erfahrung.
Ein logisches zweites Gehirn braucht dasselbe:
- Woher kommt das?
- Warum wird es geglaubt?
- Wie oft wurde es validiert?
- Was widerspricht ihm?
Transparenz ist für die Delegation zwingend erforderlich.
Kognitive Ausrichtung
Ich brauche keine übermenschliche KI.
Ich brauche sie, um auf eine Weise zu denken, die ich vorhersagen kann.
Das Ziel ist nicht Intelligenz im Abstrakten.
Das Ziel ist die Ausrichtung auf meine Abstraktionen, Heuristiken und mentalen Modelle.
Nicht KI, die für mich denkt.
KI, die wie ich denkt.
Hallo, liebe Leserin, lieber Leser. Wenn du es bis hierher geschafft hast, habe ich Neuigkeiten für dich. Ich werde bald eine Alpha-Version dieses Systems veröffentlichen. Schick mir eine DM, wenn du mehr darüber erfahren möchtest.


