
So automatisieren Sie die Erstellung von TikTok-Slideshow-Inhalten mit dem Hermes Agent (Schritt-für-Schritt-Anleitung)
AI features
- Views
- 257K
- Likes
- 762
- Reposts
- 56
- Comments
- 30
- Bookmarks
- 2.4K
TL;DR
Dieser Leitfaden erklärt, wie Sie den Hermes Agent nutzen, um TikTok-Slideshows zu automatisieren – von der Hook-Recherche bis zur Bildbeschaffung – und dabei den Entwurfsmodus verwenden, um Bot-Erkennungen zu umgehen.
Reading the DEUTSCH translation
Derzeit pusht TikTok stark Views und Engagement für Slideshows – schau dir diese Kanäle an.




Warum dieser Stack
Slideshows sind aktuell das Format mit dem höchsten Hebel auf TikTok:
- Der Algorithmus pusht sie immer noch aggressiv (günstiger Content, unendliches Angebotsproblem auf TT-Seite)
- Kein Filmen, kein Schneiden, kein Gesicht nötig
- Hook-getrieben → du kannst 50 Hooks/Tag A/B-testen
- Draft-Uploads umgehen die meisten Bot-Detection-Mechanismen, die die Direct-Publish-API trifft
Der Engpass waren nie die Ideen. Es war das Fließband. Hook → Nische → Bildrichtung → 8 Slide-Kompositionen → Caption → Planung. Das manuell zu machen = 20 Minuten pro Post. Bei 30 Accounts = ein Vollzeitjob, den du hasst.
Hermes Agent ist das richtige Tool, weil es kein Framework ist, das du per npm installierst und verdrahtest – es ist ein autonomer CLI-Agent, der dort lebt, wo du ihn hinstellst (meine 5$-Hetzner-Box), mit eingebauten Skills, Cron, MCP und Subagent-Delegation. Die gesamte Pipeline besteht nur aus Skills, die der Agent lädt, plus Cron-Jobs, die sie nach Zeitplan auslösen. Keine Queue-Infrastruktur, kein Worker-Pool, den du verwalten musst.
Schritt 1: Hermes Agent installieren
Einzeiler-Installation auf dem VPS:
Wähle einen Anbieter:
Ich betreibe es mit Anthropic via OAuth (Max-Plan) für die agentischen Phasen (Hook-Recherche, Bildrichtung, Caption) und einem günstigen OpenRouter-Fallback für hochfrequente Abfragen. Du kannst auch Nous Portal, OpenAI Codex, DeepSeek, Z.AI, Kimi einbinden – das Hermes-Modell führt dich durch alles.
Überprüfe, ob es funktioniert:
Wenn das antwortet, hast du den schwersten Teil geschafft. Die vollständige Schnellstartanleitung findest du unter https://hermes-agent.nousresearch.com/docs/getting-started/quickstart.
Installiere dann das Gateway als systemd-Dienst, damit Cron-Jobs auch laufen, wenn du nicht eingeloggt bist:
Das ist der Daemon, der den Scheduler alle 60 Sekunden ticken lässt und fällige Jobs in frischen Agent-Sessions ausführt.
Schritt 2: Mentales Modell – Pipeline = Skills + Cron, nicht Worker
Die meisten Automatisierungs-Tutorials greifen zu Queues und Workern. Hermes dreht das um. Die Arbeitseinheit ist ein Skill (Markdown-Datei in ~/.hermes/skills/) und der Auslöser ist ein Cron-Job, der einen oder mehrere Skills lädt und ausführt.
Hier ist die Zuordnung für die TikTok-Pipeline:

Jeder Skill ist eine Markdown-Datei, die der Agent bei Bedarf lädt. Cron-Jobs verketten sie über context_from. Der Hermes-Scheduler führt jeden Job in einer frischen, isolierten Session aus, sodass keine Zustandskorruption zwischen Accounts entsteht.
Schritt 3: Die Skills erstellen
Skills liegen in ~/.hermes/skills/<kategorie>/<skill-name>/SKILL.md. Der Agent kann sie selbst über skill_manage erstellen, oder du erstellst sie von Hand. Ich mache eine Mischung – ich entwerfe die Struktur und lasse Hermes sie verfeinern, nachdem ich sie beobachtet habe.
Hook-Researcher-Skill
bash
~/.hermes/skills/tiktok/hook-researcher/SKILL.md:
Image-Source-Router-Skill
Dieser entscheidet pro Slot zwischen Pinterest vs. KI-Generierung.
~/.hermes/skills/tiktok/source-router/SKILL.md:
Pinterest-Scraper-Skill
Dieser benötigt ein Hilfsskript, da der Agent die HTTP-Rotationslogik nicht im Kontext erledigen sollte.
~/.hermes/skills/tiktok/pinterest-scraper/SKILL.md:
~/.hermes/skills/tiktok/pinterest-scraper/scripts/scrape.py ist ein normales Python-Skript. Der Agent ruft es über execute_code oder terminal auf und parst stdout. Die oben deklarierte PROXY_POOL_URL wird automatisch in die execute_code-Sandboxen durchgereicht – das ist ein Hermes-Feature, das mir viel Environment-Plumbing erspart hat.
Slide-Compositor – No-Agent-Modus
Diese Stufe ist vollständig deterministisch. Kein LLM nötig. Hermes hat dafür den no_agent-Modus:
bash
~/.hermes/scripts/compose-slides.py:
Dann plane es als no_agent-Cron-Job ein – wakeAgent feuert nie, keine LLM-Kosten in diesem Schritt.
Publisher-Skill
~/.hermes/skills/tiktok/publisher/SKILL.md:
Schritt 4: Der Shadow-Ban-Killer – immer Draft-Modus
Das ist der Teil, den die meisten Tutorials auslassen – und es ist der häufigste Grund, warum neue Accounts sterben.
Wenn ein Account jünger als 30 Tage ist, IMMER als Draft posten. Keine Ausnahmen.
Neue Accounts auf TikTok sind auf Bewährung. Der Algorithmus profiliert:
- Veröffentlichung über die Content-Posting-API → Bot-Risiko-Score +1
- Veröffentlichungs-IP stimmt nicht mit der üblichen Geräte-IP des Accounts überein → +1
- Verdächtig regelmäßige Intervalle → +1
- Gestrippte oder inkonsistente Metadaten vs. Aufnahme auf dem Gerät → +1
Häufst du 2-3 davon auf einem frischen Account an, wirst du still und leise shadow-gebannt. Keine Benachrichtigung. Videos bleiben für immer bei 50-200 Views. Du denkst, dein Content taugt nichts. Tut er nicht – der Account ist tot.
Der Publisher-Skill oben kodiert den Draft-Modus hart für jeden Account unter 30 Tagen / unter 20 Posts. Postiz lädt es als Draft hoch, dann nimmt mein iPhone-Farm den Draft auf (via WebDriverAgent-Automatisierung) und drückt von einem echten Gerät mit einer echten IP auf „Veröffentlichen“. TikTok sieht eine menschliche Veröffentlichung von einem bekannten Gerät – sauber.
Warmup-Protokoll:
- Tage 1-7: Account macht nichts außer scrollen, liken, folgen
- Tage 8-14: 1 Draft/Tag posten, vom Gerät 2-4 Stunden nach Drafterstellung veröffentlicht
- Tage 15-30: Hochfahren auf 2-3 Drafts/Tag, Veröffentlichungszeiten innerhalb ±90 Min. randomisieren
- Tag 30+: Volle Pipeline-Kadenz, immer noch Draft-Modus
Hermes Cron + Postiz Cloud + iPhone-Farm-Geräteveröffentlichung = für TikToks Klassifikatoren nicht von organischem Verhalten zu unterscheiden.
Schritt 5: Alles mit Cron + context_from verketten
Das ist die Magie von Hermes' Cron-System. Jede Pipeline-Stufe ist ein separater Cron-Job. Job N liest die aktuellste Ausgabe von Job N-1 über context_from. Die Kette läuft Ende-zu-Ende, ohne dass ich etwas orchestrieren muss.
Ich erstelle die Kette aus einer einzigen Chat-Session mit Hermes:
text
hermes --tui
Ich muss die TikTok-Pipeline für Account acc_42 einrichten, Nische=Fitness.
Plane die Pipeline so, dass sie jeden Tag um 09:00 UTC läuft.
Kette: Hook-Recherche → Source-Routing → Pinterest-Scrape → Composing → Caption → Publish.
Jede Stufe soll den passenden Skill verwenden und Kontext von der vorherigen Stufe erhalten.
Hermes verwendet intern das cronjob-Tool und erstellt die Kette. So sehen die äquivalenten direkten Aufrufe aus (Hermes macht das für dich):
Ein paar wichtige Dinge:
context_from verkettet die Ausgaben. Hermes liest die aktuellste gespeicherte Ausgabe jedes vorgelagerten Jobs aus ~/.hermes/cron/output/{job_id}/ und stellt sie dem nächsten Job als Kontext voran. Keine Datenbanken, keine Queues, kein Klebecode.
workdir führt den Job im Projektverzeichnis aus. Dadurch werden AGENTS.md, .cursorrules und alle lokalen Kontextdateien automatisch geladen. Nützlich, wenn du Account-Konfigurationen und Prompt-Overrides in einem Projekt-Repo hältst.
no_agent=True beim Compositor. Reine deterministische Sharp/PIL-Arbeit. Kein Grund, für einen LLM-Durchlauf zu bezahlen. stdout des Skripts wird zur Job-Ausgabe und verknüpft sich normal mit der nächsten Stufe.
deliver="telegram" pingt mich an, wenn die Veröffentlichung abgeschlossen ist. Ich verwende "all" für die letzte Stufe beim hochwertigen Account, damit ich den Erfolgs-Ping auf jedem verbundenen Kanal bekomme.
Schritt 6: Werkzeugsatz pro Stufe steuern (Kostensparer)
Standardmäßig erben Cron-Jobs die Toolsets, die du für die Cron-Plattform über hermes tools konfiguriert hast. Aber zur Kostenkontrolle bei hochfrequenten Stufen solltest du die Toolsets pro Job einschränken:
Hook-Recherche braucht keine Browser-, Terminal- oder Delegation-Toolsets – diese blähen den Tool-Schema-Prompt bei jedem LLM-Aufruf auf. Das Einschränken des Hook-Jobs auf ["file"] hat meine Hook-Gen-Token um ~40% reduziert. Bei 30 Accounts × 1 Post/Tag × 30 Tage = echtes Geld.
Der Pinterest-Scrape-Job benötigt ["terminal", "file"], um das Skript aufzurufen. Der Compositor im no_agent-Modus lädt keine Toolsets (es läuft kein Agent). Der Publisher benötigt ["terminal", "file"] für postiz-cli.
Schritt 7: Den Agent überspringen, wenn sich nichts geändert hat
Hermes hat ein Pre-Check-Skript-Muster, das perfekt für den täglichen Hook-Job ist. Wenn sich die Nischen-Performance-Daten seit gestern nicht geändert haben, gibt es keinen Grund, frische Hooks zu generieren – die Top 3 von gestern sind immer noch die Top 3.
~/.hermes/scripts/hook-precheck.py:
Hänge es über den script-Parameter an, wenn du den Cron-Job erstellst. Der Agent wacht nur auf, wenn sich die Performance-Daten tatsächlich geändert haben. An einem normalen Tag, an dem ich nichts Neues manuell protokolliert habe, überspringt das den LLM komplett. Kostenlos.
Schritt 8: Postiz-Setup – Cloud (oder selbst gehostet) + der offizielle Hermes-Skill
Ich habe 2 Monate lang versucht, Postiz selbst in Docker zu hosten. Habe mehr Zeit damit verbracht, den Container zu reparieren, als Funktionen zu bauen – OAuth-Token-Refresh schlug fehl, Media-Disk füllte sich, Schedule-Worker starb lautlos. Postiz Cloud für 29 $/Monat hat mir etwa 5 Stunden/Woche Debugging erspart.
Das 60-Sekunden-Setup:
bash
Der Postiz-Skill macht sich Hermes über diese SKILL.md bekannt (liegt nach der Installation in ~/.hermes/skills/postiz-agent/SKILL.md):
Hermes liest dies beim Session-Start, registriert das postiz-Binary als Tool, und jeder Cron-Job, der diesen Skill lädt, kann es nun aufrufen.
API-Grundlagen, die man kennen sollte

Das zweistufige Modus-System verwirrt viele. Postiz hat seinen eigenen type: "draft" für Posts, die in der Postiz-Oberfläche bleiben, ohne irgendwohin zu gehen. Das ist NICHT das, was wir wollen. Wir wollen type: "schedule" mit content_posting_method: "UPLOAD" – Postiz plant den Post, pusht ihn zur geplanten Zeit an TikTok, aber als TikTok-seitigen Draft, der im Posteingang des Accounts landet, damit die iPhone-Farm ihn von einem echten Gerät aus veröffentlichen kann.
Falsche Kombination = falsches Ergebnis. Teste das zuerst mit einem Account.
Selbst hosten nur, wenn du Compliance-Gründe hast oder ein Volumen postest, das es rechtfertigt. Cloud hat echte Kosten (30 req/h Limit pro Key), aber Selbsthosten frisst deine Zeit.
Was ich auf die harte Tour gelernt habe
Vertraue deinen ersten Hooks nicht. Ich habe die Pipeline 2 Wochen lang mit Hook-Archetyp #1 laufen lassen. Flach. Bin umgestiegen auf A/B-Testing von 3 Archetypen pro Nische mit einer täglichen Evaluierungsschleife, die die View-Zahlen von TikTok zurückliest → tote Archetypen eliminiert, auf Gewinner verdoppelt. CTR sprang innerhalb einer Woche.
Pinterest schlägt KI bei authentischen Nischen. Ich habe 3 Monate damit verbracht, Bildgen-Prompts für Fitness-Transformations-Slides zu optimieren. Dann 50/50 gegen Pinterest-gescrapte Äquivalente getestet. Pinterest-Slides hatten 2,3x die Saves. Echte Fotos wirken einfach anders. Die Lösung: Routing pro Nische.
Draft-Modus ist für neue Accounts nicht verhandelbar. Ich habe 4 Accounts verloren, bevor ich das akzeptiert habe. Direktes Veröffentlichen auf einem frischen Account = stiller Shadow-Ban innerhalb der ersten Woche. Du wirst es nicht merken, bis du 2 Monate Content auf einem toten Account verschwendet hast.
Ressourcen:
- Hermes Agent: https://hermes-agent.nousresearch.com/
- Postiz: https://postiz.com/
Viel Erfolg, Leute 💪


