ChatGPT - der Single Point of Application
2. Juni 2025
Neuer Fokus: Eigentlich wollte OpenAI mal „nur“ die besten Sprachmodelle entwickeln – mit dem großen Ziel: AGI, also Artificial General Intelligence. Schon der etwas spröde Produktname ChatGPT spricht Bände. Da klingt Apple Intelligence doch deutlich eleganter (kann aber kaum was). Doch es kam anders. Nicht, dass OpenAI das AGI-Ziel aus den Augen verloren hätte. Nur soll bis dahin bitte jede*r ChatGPT nutzen – und zwar möglichst exklusiv.
Aus dem spartanischen Chatbot ist über die Zeit ein ziemlich komfortables Tool geworden. Feature um Feature kam dazu. GPTs, Canvas und Projekte sind sicherlich die Highlights: vorgefertigte Prompts oder ganze Abfolgen speichern, Inhalte direkt überarbeiten statt ständig neu prompten, Chats bündeln, die zusammengehören – gerade bei umfassenderen Themen sehr praktisch.
Aus dem Tool wird ein Hub
Jetzt kommt der nächste Schritt: Integrationen im großen Stil. Nicht nur Google Drive kann angebunden werden. Auch Dropbox, Box, SharePoint – plus Mails, Kalender, GitHub und CRMs wie Salesforce. Diese jetzt schon verfügbaren Konnektoren werden sicherlich bald um weitere ergänzt und ChatGPT wird dadurch zur Steuerzentrale für alles, was mit Daten, Dokumenten und Kommunikation zu tun hat.
Doch falls uns Konnektoren fehlen, müssen wir nicht unbedingt auf neue warten. Über das Model Context Protocol (MCP) können Sprachmodelle standardisiert auf externe Tools zugreifen – unabhängig davon, ob OpenAI sie selbst integriert hat oder nicht. Entwickelt wurde MCP ursprünglich von Anthropic. OpenAI hätte sich vermutlich lieber auf einen eigenen Standard gestützt. Doch das Tempo, mit dem sich MCP zum Industriestandard entwickelt hat, ließ kaum Spielraum für Alternativen. Gut für uns: So entsteht ein gemeinsamer Anschluss für verschiedenste Anwendungen.
Verschachtelt, aber nahtlos: eigene Workflows einbinden
MCP ermöglicht nicht nur den Zugriff auf einzelne Tools – es erlaubt auch den Anschluss von Systemen, die selbst andere Anwendungen orchestrieren. Ein gutes Beispiel dafür ist n8n: eine Automatisierungsplattform mit über 500 Integrationen, die seit Kurzem MCP-kompatibel ist. Damit lässt sich n8n wie ein eigenes Tool in ChatGPT einbinden – und fungiert dann als eine Art Verteilerzentrale innerhalb des Chats.
Statt dass ChatGPT jeden Dienst direkt ansteuert, kann es über n8n auf ganze Prozessketten zugreifen. So entsteht ein verschachteltes, aber reibungslos funktionierendes System: ChatGPT spricht n8n an, n8n führt im Hintergrund alle notwendigen Schritte aus – von API-Zugriffen bis zur Datenauswertung.
Nehmen wir ein konkretes Beispiel aus dem Marketing: Ein*e Nutzer*in möchte wissen, welche neuen Erwähnungen der eigenen Marke es auf LinkedIn, Reddit und in einem bestimmten Branchenforum gibt – samt Link und kurzer Zusammenfassung. ChatGPT allein kann das nicht leisten. Aber ein n8n-Flow, der auf passende APIs zugreift, die Posts analysiert und das Ganze aufbereitet, kann genau diese Aufgabe übernehmen. Der Flow wird per MCP angebunden – und ChatGPT fragt ihn im Hintergrund automatisch an, wenn nach neuen Marken-Erwähnungen gefragt wird.
So entsteht ein neuer Nutzungstyp: ChatGPT als Eingangstür, n8n oder ein anderes Automatisierungstool als Prozessmotor. Und alles läuft über eine einzige Umgebung – den Chat. Kein Tool-Wechsel, keine Plugins, kein technisches Setup auf Seiten der Nutzer*innen. Wer eigene Flows baut, erschließt sich neue Einsatzmöglichkeiten für ChatGPT – ganz ohne Prompt-Gymnastik. Und kann dann ChatGPT als Single Point of Application nutzen.