Warum 30 Tage — und nicht 6 Monate?
Die meisten KI-Projekte im Mittelstand scheitern nicht an der Technologie. Sie scheitern an zu langen Planungsphasen, überdimensionierten Piloten und fehlender Entscheidungsgrundlage. Ein 30-Tage-Plan löst dieses Problem: Er erzwingt Fokus, liefert in vier Wochen messbare Ergebnisse — und zeigt, bevor größere Budgets fließen, ob der gewählte Anwendungsfall trägt.
Die vier Phasen folgen einer bewährten Logik: Verstehen, was zu automatisieren sich lohnt (Tage 1–7). Den richtigen Startpunkt wählen (Tage 8–14). Einen funktionierenden Agenten bauen (Tage 15–21). Die Lösung in den Alltag integrieren und das nächste Projekt vorbereiten (Tage 22–30).
Dieser Plan richtet sich an Mittelständler mit 20 bis 500 Mitarbeitern, die KI-Agenten erstmals einführen — ohne IT-Abteilung im Rücken, ohne unbegrenztes Budget, aber mit dem klaren Ziel, in 30 Tagen einen echten Produktivagenten zu betreiben.
Phase 1: Assessment (Tag 1–7)
Vor dem ersten Tool-Test steht die Analyse. Wer diesen Schritt überspringt, baut am Ende einen Agenten für einen Prozess, der gar nicht das größte Potenzial hat.
Tag 1–2: KI-Readiness einschätzen
Der erste Tag gehört der ehrlichen Bestandsaufnahme. Drei Fragen bestimmen die Ausgangslage:
- Datenqualität: Liegen die zu automatisierenden Daten strukturiert vor — oder stecken sie in PDFs, E-Mails und handschriftlichen Notizen?
- Prozessstabilität: Läuft der Zielprozeß regelmäßig und nach klaren Regeln — oder ist er hochvariabel?
- Systeme: Gibt es APIs oder Export-Schnittstellen zum ERP, zur Buchhaltungssoftware, zum CRM?
Nutzen Sie den KI-Readiness-Check, um Ihren Automatisierungsgrad systematisch einzuschätzen. Der Check dauert fünf Minuten und liefert eine priorisierte Auswertung.
Zeitaufwand: 2–3 Stunden für Readiness-Check und erste Diskussion mit dem Team.
Kosten: Intern, keine externen Ausgaben.
Tag 3–5: Prozessinventur
Erstellen Sie eine Liste aller repetitiven Prozesse im Unternehmen. Für jeden Prozess erfassen Sie:
- Häufigkeit: Wie oft pro Woche oder Monat?
- Zeitaufwand: Wie viele Minuten pro Durchführung?
- Fehlerquote: Wie oft entstehen Fehler, die nachgearbeitet werden müssen?
- Datenverfügbarkeit: Sind die Eingabedaten maschinenlesbar?
Gute Kandidaten für den ersten KI-Agenten erfüllen mindestens drei Kriterien: hohe Häufigkeit (mindestens täglich oder mehrfach wöchentlich), klare Eingabe-Ausgabe-Struktur, und keine Ausnahmen, die menschliches Ermessen erfordern.
Klassische Erstprojekte im Mittelstand: Verarbeitung von Eingangsrechnungen, Beantwortung wiederkehrender Kundenanfragen, Erstellen von Angeboten auf Basis fester Konfigurationsregeln, Pflege von Stammdaten aus E-Mails.
Praxisbeispiel: Ein Maschinenbauunternehmen mit 80 Mitarbeitern identifiziert in der Prozessinventur, dass drei Mitarbeiter täglich je zwei Stunden damit verbringen, Kundenanfragen zu klassifizieren, in das CRM einzutragen und an die jeweils zuständige Fachabteilung weiterzuleiten. Monatlicher Aufwand: 120 Stunden. Automatisierungspotenzial: hoch.
Zeitaufwand: 1 Stunde pro Mitarbeiter, der die wichtigsten Prozesse kennt. Drei bis fünf Interviews genügen.
Werkzeuge: Eine einfache Excel-Tabelle oder Notion-Datenbank reicht.
Tag 6–7: Priorisierung und Stakeholder-Alignment
Aus der Prozessliste wählen Sie den Piloten: den Prozess mit dem besten Verhältnis aus Automatisierungspotenzial und Umsetzbarkeit. Erstellen Sie eine einfache 2×2-Matrix: Potenzial (Zeitersparnis × Häufigkeit) auf der Y-Achse, Komplexität (Variabilität, Systemintegration) auf der X-Achse. Der Top-rechts-Kandidat — hohes Potenzial, geringe Komplexität — ist Ihr Pilot.
Dann das Gespräch mit der Geschäftsleitung: Was darf der Agent entscheiden? Was muss weiterhin ein Mensch entscheiden? Wo ist die Toleranzgrenze für Fehler? Diese Fragen im Voraus zu klären spart später Konflikte.
Klären Sie auch das Budget. Für eine externe Umsetzung eines ersten KI-Agenten durch einen spezialisierten Dienstleister sollten Sie mit 3.000 bis 8.000 Euro rechnen — abhängig von Komplexität und Systemintegration. Mit dem Digitalbonus Bayern werden 50 % der Kosten erstattet, maximal 7.500 Euro. Das reduziert den tatsächlichen Invest auf 1.500 bis 4.000 Euro.
Ergebnis nach Tag 7: Ein schriftlich dokumentierter Pilotkandidat, geklärtes Budget, benannter interner Projektverantwortlicher.
Phase 2: Pilot wählen (Tag 8–14)
Mit dem Prozessziel vor Augen geht es jetzt an die Technik. Diese Phase klärt: Welches Tool, welches LLM, welche Architektur — und baut den ersten Prototyp.
Tag 8–10: Tool-Auswahl
Drei Architekturentscheidungen stehen im Mittelpunkt:
1. Orchestrierungsplattform: Für die meisten Mittelständler empfiehlt sich eine Low-Code-Plattform für den ersten Agenten.
| Tool | Stärken | Kosten/Monat |
|---|---|---|
| n8n (Self-hosted) | Volle Datenkontrolle, DSGVO-konform, flexibel | ~20 € (Server) |
| Make.com | Einsteigerfreundlich, viele Integrationen | 9–29 € |
| Zapier | Größtes Integrations-Ökosystem | 20–69 € |
| Custom (Python/FastAPI) | Maximale Kontrolle, kein Vendor Lock-in | Nur Infrastruktur |
Empfehlung für den Einstieg: n8n Self-hosted auf einem kleinen VPS (5–10 €/Monat). Vollständige Datenkontrolle, DSGVO-konform, ausreichend leistungsfähig für die meisten Mittelstands-Anwendungsfälle.
2. LLM-Anbieter: Für textbasierte Aufgaben (Klassifikation, Extraktion, Zusammenfassung, Antwortgenerierung) sind die APIs der großen Anbieter der schnellste Einstieg.
| Anbieter | Stärken | Kosten (grob) |
|---|---|---|
| Claude API (Anthropic) | Starkes Reasoning, langer Kontext, DSGVO-EU | ~3–15 $/1M Token |
| OpenAI (GPT-4o) | Breit bekannt, gute Tool-Unterstützung | ~2,5–10 $/1M Token |
| Mistral (EU-Server) | EU-Datenhaltung, günstig, Open-Source-Option | ~0,2–2 $/1M Token |
Bei typischen Mittelstands-Workloads (100–500 Dokumente/Tag) liegen die LLM-API-Kosten im ersten Monat unter 50 Euro. Mehr zur Kostenplanung lesen Sie in unserem Artikel KI-Automatisierung: Kosten, Preise und ROI 2026.
3. Datenanbindung: Wie bekommt der Agent seine Eingaben — und wohin liefert er seine Ausgaben? Klärt Schnittstellen: IMAP/SMTP für E-Mail, REST-API für ERP, Webhook für Ticketsysteme.
Zeitaufwand: Je 1–2 Stunden für Tool-Research und Entscheidung. Keine aufwändigen Evaluierungen — die meisten Erstprojekte laufen auf jedem dieser Tools.
Kosten dieser Phase: Keine oder geringe Testkosten (API-Guthaben: 20–50 €).
Tag 11–14: Anforderungsdokument und technische Spezifikation
Bevor Code geschrieben wird, entsteht ein kurzes Anforderungsdokument. Es beantwortet:
- Trigger: Was löst den Agenten aus? (E-Mail-Eingang, Upload, Zeitplan, manueller Start)
- Eingabe: Was genau bekommt der Agent? (Freitext, PDF, strukturierte Daten)
- Aufgabe: Was soll der Agent tun? (Klassifizieren, Extrahieren, Antworten, Weiterleiten)
- Ausgabe: Was liefert der Agent? (Eintrag in CRM, E-Mail, Datei, API-Call)
- Eskalation: Wann übergibt der Agent an einen Menschen? (Konfidenz unter X %, unbekannte Kategorie)
Dieses Dokument — maximal zwei Seiten — ist die Grundlage für Entwicklung, Test und spätere Qualitätssicherung. Es verhindert, dass der Agent etwas anderes baut als das, was der Prozessverantwortliche erwartet.
Ergebnis nach Tag 14: Entscheidung für Tools und LLM, vollständiges Anforderungsdokument, bereitgestellte Testdaten (mindestens 20 reale Beispiele aus dem Zielprozess).
Phase 3: Umsetzung (Tag 15–21)
Jetzt entsteht der Agent. Sieben Tage — strukturiert in Aufbau, Test und Iteration.
Tag 15–16: Infrastruktur aufsetzen
Ein kleiner VPS reicht für den Start: 2 vCPUs, 4 GB RAM, 20 GB SSD — das kostet bei Hetzner oder Contabo etwa 5–8 Euro pro Monat. Darauf läuft n8n (oder das gewählte Tool) in einem Docker-Container. Datenhoheit bleibt im eigenen Netzwerk oder auf europäischen Servern.
Checkliste für Tag 15–16:
- VPS bestellt und eingerichtet (Ubuntu 22.04 LTS)
- Docker und Docker Compose installiert
- n8n-Container deployed, per HTTPS erreichbar
- LLM-API-Key eingetragen, Testaufruf erfolgreich
- Datenbankverbindung (falls benötigt) getestet
Zeitaufwand: 4–6 Stunden für Setup und Troubleshooting.
Kosten: 5–15 €/Monat laufend.
Tag 17–19: Prototyp bauen
Der Prototyp ist kein MVP — er ist ein Machbarkeitsbeweis. Das Ziel: Den Kernpfad des Agenten zum Laufen bringen, ohne Sonderfälle und ohne vollständige Fehlerbehandlung.
Der typische Aufbau eines ersten KI-Agenten in n8n:
- Trigger-Node: E-Mail-Eingang per IMAP oder Webhook
- Vorverarbeitung: Text extrahieren, normalisieren, ggf. PDF per OCR in Text umwandeln
- LLM-Node: Prompt mit Aufgabe + Beispielen, strukturierte JSON-Ausgabe erzwingen
- Validierungs-Node: Konfidenz prüfen, Pflichtfelder vorhanden?
- Aktion-Node: Bei hoher Konfidenz: Ausgabe in Zielsystem schreiben. Bei niedriger: Eskalation an Review-Queue.
Prompt-Engineering ist der entscheidende Hebel. Ein guter Prompt für Extraktion und Klassifikation enthält: klare Aufgabenbeschreibung, drei bis fünf Beispiele (Few-Shot), das exakte Ausgabeformat (JSON-Schema), und explizite Anweisung zum Umgang mit Unsicherheit.
Tipp: Starten Sie mit wenigen Kategorien oder Feldern — nicht mit dem vollständigen Anforderungsdokument. Qualität vor Vollständigkeit. Ein Agent, der drei Felder zu 95 % korrekt extrahiert, ist wertvoller als einer, der zehn Felder zu 70 % trifft.
Zeitaufwand: 2–4 Stunden pro Tag. Bei externer Umsetzung übernimmt ein Dienstleister diese Phase.
Kosten intern: Entwicklerzeit, je nach Komplexität 15–40 Stunden. Extern: 2.000–5.000 €.
Tag 20–21: Testen mit echten Daten
Der Prototyp läuft — jetzt beginnt der echte Test. Die 20 Testbeispiele aus Tag 14 werden durch den Agenten verarbeitet. Ziel ist nicht Perfektion, sondern Kalibrierung.
Messen Sie:
| Metrik | Messung | Zielwert Phase 3 |
|---|---|---|
| Automatisierungsquote | Anteil ohne manuelle Korrektur | > 70 % |
| Fehlerrate | Anteil fehlerhafter Ausgaben | < 5 % |
| Durchlaufzeit | Sekunden vom Trigger bis Ausgabe | < 30 Sek. |
| Eskalationsrate | Anteil an Review-Queue | 10–30 % |
Liegen die Werte unter den Zielen, debuggen Sie den Prompt zuerst — nicht die Architektur. 80 % der Qualitätsprobleme bei KI-Agenten liegen im Prompt, nicht in der Infrastruktur.
Ergebnis nach Tag 21: Laufender Prototyp, gemessene Baseline-Metriken, identifizierte Schwachstellen, Entscheidung: Go-Live oder ein weiterer Iterationszyklus?
Phase 4: Skalierung (Tag 22–30)
Der Prototyp funktioniert. Jetzt geht er in den produktiven Einsatz — zunächst kontrolliert, dann vollständig.
Tag 22–24: Kontrollierter Go-Live
Starten Sie nicht mit 100 % des Volumens. Schalten Sie den Agenten für 20–30 % des realen Traffics frei. Ein Mitarbeiter prüft parallel alle Agent-Ausgaben — nicht um zu korrigieren, sondern um Muster zu erkennen: Welche Fälle eskaliert der Agent korrekt? Wo greift er daneben?
Dieses Shadow-Mode-Vorgehen schützt vor Folgefehlern im Zielsystem und liefert innerhalb von zwei bis drei Tagen genug Daten für eine fundierte Freigabe-Entscheidung.
Richten Sie ein einfaches Monitoring ein: Ein Dashboard (Google Sheets oder eine einfache n8n-Ansicht) zeigt täglich Automatisierungsquote, Fehlerrate und Eskalationsrate. Ohne Monitoring arbeitet der Agent in der Blackbox — und Qualitätsprobleme bleiben wochenlang unbemerkt.
Tag 25–27: Vollständiger Betrieb und Optimierung
Der Agent übernimmt 100 % des Prozesses. Die manuelle Parallelprüfung entfällt — außer bei Eskalationen, die gezielt zur Review-Queue gelangen.
In diesen drei Tagen passieren drei Dinge gleichzeitig:
- Prompt-Feintuning: Die häufigsten Fehler aus dem Shadow-Modus fließen als neue Beispiele in den Prompt. Typisch: Fünf bis zehn Korrekturen reichen, um die Fehlerrate um 30–50 % zu senken.
- Eskalations-Workflow: Der Review-Queue-Prozess wird etabliert. Wer prüft Eskalationen? In welchem Zeitfenster? Was passiert mit gelernten Fällen?
- Dokumentation: Eine halbe Seite Betriebsdokumentation: Was tut der Agent, was tut er nicht, wer ist Ansprechpartner bei Problemen?
Tag 28–30: Ergebnisse auswerten und nächsten Schritt planen
Der letzte Abschnitt des 30-Tage-Plans ist kein technischer — er ist ein strategischer.
Messen Sie den erreichten Stand:
| Kennzahl | Vor dem Agenten | Nach 30 Tagen |
|---|---|---|
| Bearbeitungszeit pro Fall | Ausgangswert aus Tag 3 | Gemessener Ist-Wert |
| Monatlicher Zeitaufwand | Ausgangswert aus Tag 3 | Gemessener Ist-Wert |
| Fehlerquote | Ausgangswert aus Tag 3 | Gemessener Ist-Wert |
| Kosten (intern + API) | — | Ist-Kosten |
Dieser ROI-Vergleich ist der Business Case für den nächsten Agenten. Er zeigt der Geschäftsleitung in Zahlen, was die ersten 30 Tage gebracht haben — und legitimiert das Budget für Schritt zwei.
Planen Sie jetzt den zweiten Prozess. Die Prozessinventur aus Tag 3–5 liegt bereits vor. Wählen Sie den nächsten Kandidaten — und starten Sie den 30-Tage-Zyklus erneut. Mit einer eingerichteten Infrastruktur, einem erprobten Workflow und einem Team, das gelernt hat, wie KI-Agenten funktionieren, geht der zweite Agent schneller und günstiger.
Kosten auf einen Blick
| Position | Einmalig | Monatlich laufend |
|---|---|---|
| VPS / Infrastruktur | — | 5–15 € |
| n8n (Self-hosted) | — | 0 € (Open Source) |
| LLM-API (typisches KMU-Volumen) | — | 20–80 € |
| Externe Implementierung | 3.000–8.000 € | — |
| Digitalbonus Bayern (−50 %) | −1.500 bis −4.000 € | — |
| Netto nach Förderung | 1.500–4.000 € | 25–95 € |
Bei einem typischen Einsparungspotenzial von 20–60 Stunden pro Monat und einem internen Kostensatz von 40–50 € amortisiert sich die Investition in drei bis sechs Monaten. Mehr zur Amortisationsrechnung und zum ROI-Kalkulator lesen Sie in KI-Automatisierung: Kosten, Preise und ROI 2026.
Digitalbonus Bayern: So nutzen Sie die Förderung
Beide Leistungen — KI-Automatisierung und E-Rechnungs-Implementierung — qualifizieren für den Digitalbonus Bayern. Die Förderung erstattet 50 % der Nettokosten, maximal 7.500 Euro. Sie läuft noch bis Ende 2027.
Wichtig: Der Antrag muss vor Beginn der Maßnahme gestellt werden. Wer jetzt einen 30-Tage-Plan startet, sollte den Förderantrag in der Assessment-Phase parallel einreichen — das kostet wenige Stunden, spart aber mehrere tausend Euro.
Was nach 30 Tagen bleibt
Nach 30 Tagen haben Sie nicht nur einen laufenden KI-Agenten. Sie haben etwas Wertvolleres: ein erprobtes Vorgehen, das sich wiederholen lässt. Sie wissen, wie Sie Prozesse für KI bewerten, welche Tools zu Ihrer Infrastruktur passen, wie ein Prompt aufgebaut sein muss, damit der Agent zuverlässig arbeitet — und wie Sie den ROI messen, der den nächsten Schritt legitimiert.
KI-Agenten sind kein einmaliges Projekt. Sie sind eine Fähigkeit. Die ersten 30 Tage sind der Beginn eines kontinuierlichen Zyklus: Nächsten Prozess wählen, Agenten bauen, Ergebnisse messen, skalieren. Unternehmen, die diesen Zyklus einmal durchlaufen haben, implementieren den zweiten Agenten in der Hälfte der Zeit — und den dritten noch schneller.
Starten Sie mit dem KI-Readiness-Check — und legen Sie los.
Das könnte Sie auch interessieren
Digitalisierung im Mittelstand 2026: Wo KI wirklich Kosten spart
Wo spart KI im Mittelstand tatsächlich Geld? Rechnungsverarbeitung, Kundenservice, Reporting, Dateneingabe — mit ROI-Rechnung und konkreten Praxisbeispielen.
Weiterlesen KI-AutomatisierungWie ich meine GmbH mit KI-Agenten automatisiert habe
Mein AI-Assistent hat heute Nacht 5 Pull Requests reviewed, einen Blog geschrieben und eine Landing Page gebaut. Ich habe geschlafen.
Weiterlesen KI-AutomatisierungKI-Agent vs Chatbot: Was ist der Unterschied und was braucht Ihr Unternehmen?
Regelbasierter Chatbot, KI-Chatbot oder KI-Agent? Erfahren Sie die Unterschiede, vergleichen Sie Kosten und Fähigkeiten und finden Sie heraus, welche Lösung zu Ihrem Unternehmen passt.
Weiterlesen