ChatGPT antwortet nur — handelt aber nicht
Sie haben eine ChatGPT-Lizenz, Mitarbeiter nutzen sie. Aber die Aufgaben müssen sie immer noch selbst ausführen.
Wir bauen Multi-Agent-Systeme, die nicht nur antworten — sondern handeln. Recherchieren, eintragen, weiterleiten, eskalieren. Mit echten Werkzeugen, echtem Gedächtnis, echter Verantwortung. DSGVO-konform, in 8–16 Wochen produktiv.
Sie haben eine ChatGPT-Lizenz, Mitarbeiter nutzen sie. Aber die Aufgaben müssen sie immer noch selbst ausführen.
Recherche → Analyse → Eintrag → Weiterleitung — täglich, mehrmals, Stunden pro Vorgang.
n8n-Workflows sind regelbasiert. Aufgaben mit Urteilsvermögen brauchen mehr — sie brauchen reasoning.
"KI macht selbstständig was?" — ohne Sicherungen wäre das gefährlich. Mit den richtigen Architekturen ist es kontrolliert.
Kein "ChatGPT mit Internet" — sondern ein Agentensystem, das Ihre spezifischen Werkzeuge bedient, mit definiertem Memory arbeitet und kritische Aktionen freigeben lässt.
Wir bauen mit Frameworks wie Claude Agent SDK, LangGraph, n8n und maßgeschneiderten Orchestrierungen. Tool-Use für API-Calls, Datenbank-Zugriff, E-Mail, CRM. Memory-Architektur unterscheidet kurz- und langfristig. Human-in-the-Loop für kritische Entscheidungen.
Implementation in 4 Phasen: Sondierung, Architektur (klare Sicherungen), Bau in iterativen Sprints, Übergabe mit Schulung.
Welche Aufgaben? Welche Werkzeuge? Welche Sicherungen? Risiko-Analyse.
Woche 1–3Agent-Topologie, Tool-Inventar, Memory-Strategie, Permission-Modell, Eskalations-Pfade.
Woche 4–6Iterativ in 2-Wochen-Sprints. Nach jedem Sprint testbar mit Echtdaten.
Woche 7–14Schulung, Playbooks, Eskalations-Prozeduren, 90-Tage-Hyper-Care.
Woche 15–16Auftrag: "Wie positionieren sich Wettbewerber X, Y, Z?" — Agent recherchiert Web, analysiert, erstellt strukturierten Report. Wöchentlich automatisiert.
Klassifiziert eingehende E-Mails, schlägt Antworten vor, leitet weiter, eskaliert komplexe Fälle. Mit Freigabe-Schritt.
Optimiert tägliche Termine, schlägt Fahrtrouten vor, dokumentiert Eskalationen. Mensch entscheidet bei Konflikten.
Prüft eingehende Verträge gegen Compliance-Regeln, markiert Risiko-Klauseln, erstellt strukturierten Review-Report.
Ein Chatbot antwortet auf Fragen — strukturiert oder mit RAG, aber er antwortet. Ein KI-Agent handelt: er recherchiert, ruft APIs auf, schreibt in Datenbanken, eskaliert an Menschen, plant mehrstufige Aufgaben. Tool-Use und Function-Calling sind die Schlüsselfähigkeiten. Ein Voice-Agent ist eine spezielle Form mit Audio-Input/Output.
So sicher wie ihre Architektur. Wir bauen mit: Sandboxing (Agent kann nur in seiner Umgebung handeln), Permission-Layern (minimal nötige Rechte), Human-in-the-Loop-Sicherungen für kritische Aktionen, vollständigen Audit-Logs (jede Aktion ist nachvollziehbar). Voreingestellt strikt, optional schrittweise gelockert nach Vertrauen.
Mehr als ein einfacher Chatbot. Multi-Agent-Systeme sind in Architektur, Testing und Sicherheit signifikant komplexer. Festpreise ab Phase II nach individueller Sondierung. Kostenfaktoren: Anzahl Agenten, Tool-Integrationen, Sicherheits-Niveau, Modell-Wahl (lokale Open-Source-Modelle reduzieren Betriebskosten massiv).
8–16 Wochen für eine erste produktive Version. Komplexe Multi-Agent-Systeme mit vielen Tool-Integrationen, regulierter Branche oder besonderen Sicherheits-Anforderungen können bis 6 Monate brauchen. Sondierung ist immer 3 Wochen — danach steht der realistische Zeitplan.
Claude (Anthropic) und GPT (OpenAI) für Reasoning-lastige Agenten — diese sind aktuell führend für Tool-Use und Multi-Step-Planung. Lokale Open-Source-Modelle (Llama, Mistral, Qwen) für sensible Daten oder hochfrequente Aufgaben. In der Praxis sind hybride Architekturen die Regel — die richtige Modellwahl pro Teilaufgabe.
Genau dafür gibt es die Sicherungen. Kritische Aktionen brauchen menschliche Freigabe — Sie sehen vorher, was der Agent vorhat, und können stoppen oder korrigieren. Audit-Log dokumentiert jede Entscheidung, sodass Fehler nachvollziehbar und korrigierbar sind. Außerdem: Agenten werden getestet, bevor sie produktiv eingesetzt werden — wir machen keine "Live-Experimente" auf Ihren Daten.