Einen CLI-Chatbot einrichten klingt nach einem Nachmittag Konfigurationsarbeit. In der Praxis dauert der erste produktive Einsatz bei allen drei Varianten, die ich beschreibe, weniger als eine Stunde. Der Unterschied liegt darin, was Sie am Ende haben wollen — und was Sie mit Ihren Daten machen dürfen.
Warum überhaupt CLI? Den Hintergrund habe ich in Chatbot in der Kommandozeile beschrieben. Hier geht es um das Wie. Drei konkrete Wege, von leichter Cloud bis zu vollständig lokaler Installation. Davor ein kurzer Abschnitt für alle, die noch nie aktiv mit einer Kommandozeile gearbeitet haben.
Was ist überhaupt eine Kommandozeile?
Eine Kommandozeile ist ein Textfenster auf Ihrem Computer, in dem Sie Befehle eintippen, statt sie über Menüs und Schaltflächen anzuklicken. Sie tippen eine Zeile, drücken Enter, der Rechner führt aus. Das ist alles. Hinter den schicken Bildschirmoberflächen, die wir täglich benutzen, läuft genau diese Logik weiter. Wir sehen sie normalerweise nicht.
Im Sprachgebrauch tauchen mehrere Begriffe auf, die ungefähr dasselbe meinen, aber nicht dasselbe sind. Eine kurze Sortierung:
- Kommandozeile oder Command Line ist der deutsche und englische Oberbegriff. Gemeint ist die textbasierte Eingabe von Befehlen.
- CLI steht für „Command Line Interface“ und ist die englische Abkürzung dafür. Wenn jemand sagt „Tool XY hat ein CLI“, meint er: Sie können das Tool über Befehle in einem Textfenster bedienen.
- Terminal ist das Fenster selbst, in dem Sie tippen. Das Wort kommt aus der Zeit der elektronischen Großrechner, als physische Terminals als Eingabegerät vor dem Rechner standen.
- Shell ist das Programm, das Ihre Eingaben tatsächlich verarbeitet und an den Rechner weiterreicht. Verschiedene Shells haben unterschiedliche Befehlssprachen.
Unter Windows treffen Sie auf drei konkrete Shells, die alle in einem Terminal-Fenster laufen können:
- Eingabeaufforderung (englisch: Command Prompt, das alte
cmd.exe) ist die historische Windows-Shell. Sie funktioniert, ist aber für moderne Aufgaben zu schmal. - PowerShell ist die moderne Microsoft-Shell. Mit ihr arbeiten heute IT-Administratoren in Unternehmen, und auch viele Entwickler-Tools setzen sie voraus.
- Git Bash oder WSL (Windows Subsystem for Linux) sind Linux-ähnliche Shells unter Windows. Wer mit Open-Source-Tools arbeitet, die aus der Linux-Welt stammen, findet sich dort schneller zurecht.
Für die drei CLI-Chatbot-Wege weiter unten reichen PowerShell oder Windows Terminal vollständig aus. Beide sind in Windows 11 vorinstalliert.
Wie öffnen Sie eine Kommandozeile unter Windows?
Drei Standard-Wege, jeweils Schritt für Schritt:
Weg 1: Windows Terminal (modern, empfohlen — ab Windows 11 vorinstalliert, unter Windows 10 aus dem Microsoft Store nachinstallierbar):
- Drücken Sie die Windows-Taste auf Ihrer Tastatur.
- Tippen Sie „Terminal“.
- Klicken Sie auf den Treffer „Terminal“.
Weg 2: PowerShell direkt (funktioniert auf jeder aktuellen Windows-Version):
- Drücken Sie die Windows-Taste.
- Tippen Sie „PowerShell“.
- Klicken Sie auf „Windows PowerShell“.
Weg 3: Klassische Eingabeaufforderung (nur wenn ältere Anleitungen darauf bestehen):
- Drücken Sie die Windows-Taste.
- Tippen Sie „cmd“ oder „Eingabeaufforderung“.
- Bestätigen Sie mit Enter.
Das geöffnete Fenster zeigt einen blinkenden Cursor hinter einem Pfad wie C:\Users\IhrName>. Genau dort tippen Sie Ihre Befehle ein und bestätigen mit Enter. Das ist die Kommandozeile, mit der Sie weiter unten arbeiten.
Wenn ein Befehl Administratorrechte braucht — bei manchen Installationen der Fall — klicken Sie mit der rechten Maustaste auf den Eintrag im Startmenü und wählen „Als Administrator ausführen“. Das öffnet das Terminal mit erweiterten Rechten.
Eine Voraussetzung für Weg 1: Node.js installieren
Bevor Sie Claude Code installieren können, brauchen Sie Node.js auf Ihrem Rechner. Node.js bringt das Werkzeug npm mit, das Sie für die Installation benötigen.
- Öffnen Sie nodejs.org in Ihrem Browser.
- Laden Sie die LTS-Version für Windows herunter (Installer-Datei).
- Doppelklicken Sie die Installer-Datei und folgen Sie dem Standard-Setup. Voreinstellungen passen für die meisten Fälle.
- Öffnen Sie nach der Installation eine neue PowerShell oder ein Windows Terminal und prüfen Sie den Erfolg mit:
node --version
npm --version
Beide Befehle geben jeweils eine Versionsnummer aus. Wenn das funktioniert, ist Ihre Maschine bereit für Claude Code (Weg 1). Für Ollama und LM Studio (Wege 2 und 3) brauchen Sie Node.js nicht.
CLI-Chatbot einrichten: drei Wege im Vergleich
Weg 1: Claude Code — schnell einsatzbereit, Cloud-basiert
Wenn Sie schnell starten wollen und Cloud-Dienste für Ihre Arbeitsaufgaben vertretbar sind, ist Claude Code von Anthropic der direkteste Einstieg.
Die Installation läuft über npm in der PowerShell oder im Windows Terminal:
npm install -g @anthropic-ai/claude-code
Danach brauchen Sie ein Anthropic-Konto, einen API-Schlüssel und die Umgebungsvariable ANTHROPIC_API_KEY. Unter Windows setzen Sie diese am einfachsten über die Suchleiste — tippen Sie „Umgebungsvariablen“, klicken Sie auf „Systemumgebungsvariablen bearbeiten“, dann unten auf „Umgebungsvariablen…“ und legen den neuen Eintrag im Benutzer-Bereich an. Schließen und öffnen Sie das Terminal einmal neu, damit die Variable greift. Danach starten Sie Claude Code in einem Verzeichnis mit claude, und das Modell hat direkten Zugriff auf alle Dateien dort.
Erste produktive Aufgabe: Öffnen Sie ein Verzeichnis mit fünf bis zehn Markdown- oder XML-Dokumenten. Geben Sie ein: „Prüfe diese Dokumente auf inkonsistente Verwendung des Begriffs [Ihr Fachbegriff] und liste alle Abweichungen auf.“ Die Ausgabe ist sofort nutzbar.
Worauf zu achten ist: Die Kosten entstehen pro genutztem Token. Für große Dokumentenmengen summiert sich das. Aktuelle Preise direkt beim Anbieter prüfen. Zweites Thema: Ihre Eingangsdaten gehen über externe Server. Für sensible Produktdaten müssen Sie die Datenschutzfrage klären, bevor Sie loslegen.
Weg 2: Ollama — lokal, Open Source, für Datensensibilität
Wenn Daten das Unternehmen nicht verlassen dürfen, brauchen Sie einen lokalen Ansatz. Ollama ist dafür die meistgenutzte freie Lösung.
Installation unter Windows direkt über die Installer-Datei auf der Projektseite. Nach der Installation öffnen Sie ein neues Windows Terminal und laden ein Modell:
ollama pull llama3
Ollama stellt dann lokal eine API bereit, die Sie aus verschiedenen CLI-Tools ansprechen können. Ein einfaches Setup für die Nutzung in der Kommandozeile ist über curl oder Python-Skripting möglich, je nach dem, womit Ihre Redaktion ohnehin arbeitet.
Erste produktive Aufgabe: Terminologiecheck. Schreiben Sie ein einfaches PowerShell- oder Python-Skript, das alle TXT- oder XML-Dateien eines Verzeichnisses einzeln an die Ollama-API übergibt und eine Liste fraglicher Formulierungen zurückgibt. Das Skript hat keine zehn Zeilen.
Worauf zu achten ist: Lokale Modelle sind weniger leistungsfähig als die aktuellen Cloud-Modelle. Die Qualität hängt stark vom gewählten Modell ab. Für komplexe Formulierungsaufgaben oder längere Texte merkt man das. Für Strukturprüfungen und Terminologie-Abgleiche reicht die Qualität in der Regel. Zweites Thema: Ollama läuft auf dem Rechner, auf dem es installiert ist. Bei verteilten Redaktionen brauchen Sie entweder eine gemeinsame Installation auf einem Server oder lokale Installationen auf jedem Gerät.
Weg 3: LM Studio — lokaler GUI-Hybrid, am zugänglichsten
LM Studio ist der zugänglichste Einstieg für alle, die einen CLI-Chatbot einrichten möchten, aber keine Scheu vor einer grafischen Oberfläche haben und trotzdem lokale Modelle nutzen wollen.
Die Installation erfolgt über die Installer-Datei auf der Projektseite. LM Studio bietet eine eigene Oberfläche zum Herunterladen und Verwalten von Modellen sowie einen integrierten Chat. Das ist der GUI-Anteil. Der CLI-Anteil kommt hinzu, weil LM Studio lokal einen OpenAI-kompatiblen API-Endpunkt bereitstellt. Jede Anwendung, die die OpenAI-API ansprechen kann, kann damit auch lokale Modelle nutzen.
Erste produktive Aufgabe: Starten Sie LM Studio, laden Sie ein Modell (zum Beispiel Mistral 7B für einen ersten Test), starten Sie den lokalen Server über das Menü. Sie können dann aus jedem Windows Terminal über curl oder über gängige Python-Bibliotheken direkt auf das lokale Modell zugreifen.
Worauf zu achten ist: LM Studio lädt Modelle, die teilweise mehrere Gigabyte groß sind. Der Rechner muss genug Festplattenspeicher haben. Für gute Performance brauchen Sie ausreichend Arbeitsspeicher oder eine dedizierte GPU. Ohne diese ist die Antwortgeschwindigkeit bei größeren Modellen spürbar langsam. LM Studio eignet sich gut für einzelne Arbeitsplätze. Für Team-Setups ist Ollama auf einem gemeinsamen Server oft die praktischere Lösung.
Welcher Weg für welchen Fall?
Eine grobe Orientierung aus der Praxis, nicht als Regel, sondern als Ausgangspunkt für Ihre eigene Entscheidung.
Wenn Datensouveränität keine Rolle spielt und Sie schnell starten wollen: Claude Code. Wenn Daten das Unternehmen nicht verlassen dürfen und ein IT-Ansprechpartner vorhanden ist: Ollama auf einem internen Server. Wenn ein Einzel-Arbeitsplatz eingerichtet werden soll und ein niedrigschwelliger Einstieg gefragt ist: LM Studio.
Das ist keine abschließende Liste. Codex CLI von OpenAI wäre ein weiteres Beispiel im Cloud-Bereich. Die Grundentscheidung bleibt aber dieselbe: Cloud oder lokal? Und wenn lokal: wie viel Infrastruktur ist vorhanden?
Konkrete Use Cases für die Technische Redaktion
Ein CLI-Chatbot lohnt sich erst mit einer konkreten Aufgabe, die ihn auslastet. Drei Typen sehe ich in der Praxis regelmäßig.
Terminologie-Konsistenzcheck über große Dateimengen. Sie haben 500 XML-Dateien und wollen wissen, in welchen davon die alte Bauteil-Bezeichnung noch vorkommt. Ein Skript reicht jede Datei an das Modell und sammelt die Treffer in einer Liste. Im Terminal in einer Stunde durch. Im Browser wäre das ein halber Tag Klickarbeit, Datei für Datei.
Vorprüfung vor der externen Übersetzung. Ein Skript fährt jeden Quelltext durch das Modell und meldet unklare Referenzen, offene Platzhalter und stilistische Inkonsistenzen, bevor das Material zum Sprachdienstleister geht. Die Rücklauf-Quote sinkt, weil der Sprachdienstleister mit sauberen Quellen arbeitet.
Markdown-Linting und Strukturprüfung. Wenn Ihre Redaktion ein Markdown-basiertes CCMS oder eine Docs-as-Code-Umgebung nutzt, lassen sich strukturelle Anforderungen automatisiert prüfen: Überschriftenhierarchie, Pflichtfelder in Metadaten-Blöcken, konsistente Verlinkungsstruktur. Für die einfachen Fälle reicht ein Standard-Linter wie markdownlint. Für die inhaltliche Konsistenz, etwa ob eine Anleitung auf das richtige Bauteil verweist, übernimmt das Modell.
Häufige Fehler beim Einrichten
Den ersten Fehler sehe ich regelmäßig: zu große Erwartungen an die erste Stunde. Einen CLI-Chatbot einzurichten braucht wenig Zeit. Produktiv zu nutzen braucht Übung. Wer nach der Installation sofort hochkomplexe Aufgaben erwartet und enttäuscht ist, hat die Erwartung falsch eingestellt, nicht das Tool.
Der zweite Fehler: kein konkreter Anwendungsfall vor der Installation. Wer einfach „mal schauen“ startet, wird das Tool nach zwei Wochen nicht mehr nutzen. Identifizieren Sie vorher eine Aufgabe, die sich wiederholt und die Dateizugriff sinnvoll nutzen würde.
Der dritte: die Datenschutzfrage erst nach der Installation stellen. Bei einem Cloud-Tool im Unternehmenskontext klären Sie vorher, welche Daten Sie übergeben dürfen. Das ist keine bürokratische Vorsicht, sondern unternehmerische Verantwortung.
Fazit
Den CLI-Chatbot einzurichten lohnt sich, wenn eine konkrete Aufgabe vorhanden ist, die Dateizugriff oder Automatisierung braucht. Fangen Sie mit einem der drei beschriebenen Wege an, wählen Sie nach Ihrer Datensituation, und starten Sie mit einer kleinen, konkreten Aufgabe. Die strategische Einbettung des KI-Einsatzes in Ihre Dokumentationsprozesse beschreibe ich in KI in der Technischen Redaktion einführen.
KI in der Redaktion ohne Halbwahrheiten — sprechen wir
Bevor ein KI-Werkzeug eingeführt wird, lohnt sich der ehrliche Blick auf die Datenbasis und auf die konkreten Aufgaben, bei denen ein Modell tatsächlich trägt. Schübeler Consulting prüft mit Ihnen, wo KI heute Aufwand spart und wo sie nur eine zusätzliche Komplexität ist.
Termin für ein Erstgespräch: info@schuebeler-consulting.de oder über die Website.
— Johann Jörgen Schübeler, Schübeler Consulting
Ein Kommentar
Austausch zum Artikel. Moderiert, sachlich, auf den Punkt.