X

running-claude-code-via-litellm-copilot

von xixu-me

running-claude-code-via-litellm-copilot zeigt, wie Sie Claude Code über einen lokalen LiteLLM-Proxy zu GitHub Copilot leiten, `ANTHROPIC_BASE_URL` und Modellnamen korrekt abstimmen, den localhost-Traffic prüfen und Probleme wie 401/403, `model-not-found` sowie Proxy-Kompatibilitätsfehler beheben.

Stars6
Favoriten0
Kommentare0
Hinzugefügt31. März 2026
KategorieSkill Installation
Installationsbefehl
npx skills add https://github.com/xixu-me/skills --skill running-claude-code-via-litellm-copilot
Kurationswert

Dieses Skill erreicht 78/100 und ist damit ein guter Verzeichnis-Kandidat für Nutzer, die Claude Code gezielt über einen lokalen LiteLLM-Proxy zu GitHub Copilot leiten möchten. Das Repository liefert klare Einsatzsignale, eine praxisnahe Ausrichtung auf Setup und Troubleshooting sowie den ausdrücklichen Hinweis, dass es sich um einen fortgeschrittenen Workaround und nicht um einen offiziellen Workflow handelt. Bei der Umsetzung zur Installationszeit ist jedoch weiterhin etwas manuelle Interpretation nötig, da weder gebündelte Skripte noch ein Installationsbefehl vorhanden sind.

78/100
Stärken
  • Sehr klare Einsatzbedingungen in den Frontmatter-Angaben und unter "When To Use", einschließlich Setup- und Troubleshooting-Fällen wie `model-not-found`, ausbleibendem localhost-Traffic und GitHub-401/403-Fehlern.
  • Die operative Anleitung ist umfangreich: Das Skill erläutert zentrale Kompatibilitätsregeln wie die Verwendung von `ANTHROPIC_BASE_URL`, exakte Übereinstimmung bei `ANTHROPIC_MODEL`, das Verhalten eines nicht leeren lokalen Auth-Tokens und `drop_params: true`.
  • Die Vertrauenssignale sind für ein reines Guidance-Skill überdurchschnittlich, da eine separate Datei mit verifizierten Hinweisen enthalten ist, die artikelbasierte Empfehlungen von anhand der LiteLLM-Dokumentation nachgeschärften Updates trennt.
Hinweise
  • Die Nutzung ist weniger schlüsselfertig, als sie sein könnte: `SKILL.md` enthält keinen Installationsbefehl, und im Repository fehlen Skripte, Regeln oder Hilfsressourcen, die die Unsicherheit beim Setup verringern würden.
  • Der Workflow wird ausdrücklich als fortgeschrittener Workaround beschrieben, ohne Zusage für offiziellen GitHub-Support oder langfristige Kompatibilität.
Überblick

Überblick über den Skill running-claude-code-via-litellm-copilot

Der Skill running-claude-code-via-litellm-copilot unterstützt dich beim Einrichten eines sehr konkreten Proxy-Workflows: Claude Code spricht weiter wie gewohnt mit einer Anthropic-kompatiblen API, die eigentlichen Requests laufen aber über einen lokalen LiteLLM-Server, der an GitHub Copilot weiterleitet. Das ist vor allem für Nutzer interessant, die die direkte Anthropic-API-Nutzung reduzieren, ein günstigeres Setup testen oder herausfinden wollen, warum Claude Code nicht das gewünschte Backend erreicht.

Für wen dieser Skill am besten geeignet ist

Dieser Skill running-claude-code-via-litellm-copilot passt am besten zu:

  • Entwicklerinnen und Entwicklern, die Claude Code bereits nutzen
  • Nutzerinnen und Nutzern, die sich mit Environment-Variablen und lokalen Konfigurationsdateien wohlfühlen
  • Personen, die direkten Anthropic-Zugriff mit einem lokalen LiteLLM-Proxy vergleichen möchten
  • allen, die 401/403, model not found oder Probleme wie „Claude Code greift nicht auf localhost zu“ debuggen

Er ist keine einsteigerfreundliche Einführung in Claude Code, LiteLLM oder GitHub Copilot.

Die eigentliche Aufgabe, die der Skill löst

Die meisten Nutzer wollen nicht einfach „eine Zusammenfassung des Repos“. Sie brauchen einen funktionierenden Weg, um:

  1. Claude Code über LiteLLM auszuführen,
  2. LiteLLM auf GitHub Copilot zu richten,
  3. die Modellnamen exakt aufeinander abzustimmen,
  4. zu prüfen, dass der Traffic tatsächlich durch den Proxy läuft,
  5. typische Auth- und Kompatibilitätsfehler schnell zu beheben.

Genau dafür ist dieser Skill nützlich.

Was diesen Skill von anderen unterscheidet

Der entscheidende Mehrwert ist: Hier geht es um eine empfindliche Integration, nicht um eine generische Prompting-Schicht. Der Skill konzentriert sich auf praktische Einschränkungen, die die Einführung in der Praxis oft blockieren:

  • ANTHROPIC_BASE_URL muss Claude Code auf LiteLLM zeigen lassen
  • Claude Code erwartet lokal weiterhin ein nicht-leeres Anthropic-Token
  • LiteLLM sollte das Provider-Muster github_copilot/<model> verwenden
  • ANTHROPIC_MODEL in Claude Code muss exakt mit model_name in LiteLLM übereinstimmen
  • drop_params: true ist für die Kompatibilität wichtig
  • die erste GitHub-Device-Autorisierung erscheint unter Umständen erst nach dem ersten echten Request
  • Erfolg solltest du über die LiteLLM-Logs prüfen, nicht durch bloße Annahmen über eine vermeintlich korrekte Konfiguration

Vor der Installation lesen

Nutze running-claude-code-via-litellm-copilot, wenn deine Hauptfrage lautet: „Wie bekomme ich dieses Proxy-Setup auf meinem Rechner tatsächlich zum Laufen?“ Überspringe den Skill, wenn du nur normales Claude-Code-Usage, ein direktes Anthropic-Setup oder allgemeine Copilot-Dokumentation brauchst.

So verwendest du den Skill running-claude-code-via-litellm-copilot

Den Skill running-claude-code-via-litellm-copilot installieren

Installation aus dem Skills-Repository:

npx skills add https://github.com/xixu-me/skills --skill running-claude-code-via-litellm-copilot

Falls deine Umgebung einen anderen Skill-Loader nutzt, füge den Skill von hier hinzu:

https://github.com/xixu-me/skills/tree/main/skills/running-claude-code-via-litellm-copilot

Diese Dateien zuerst lesen

Für die Installation von running-claude-code-via-litellm-copilot solltest du mit diesen Dateien beginnen:

  1. skills/running-claude-code-via-litellm-copilot/SKILL.md
  2. skills/running-claude-code-via-litellm-copilot/references/doc-verified-notes.md

Warum diese Reihenfolge wichtig ist:

  • SKILL.md beschreibt den operativen Workflow und die Entscheidungsregeln.
  • references/doc-verified-notes.md erklärt, was direkt auf dem Artikel basiert und was anhand der LiteLLM-Dokumentation präzisiert wurde. Das ist wichtig, weil dieses Setup empfindlich auf Kompatibilitätsdetails reagiert.

Die Mindestbausteine des Setups kennen

Ein funktionierendes Setup braucht in der Regel vier sauber aufeinander abgestimmte Teile:

  • Claude Code, das über ANTHROPIC_BASE_URL auf LiteLLM zeigt
  • einen nicht-leeren lokalen ANTHROPIC_API_KEY oder einen äquivalenten Token-Wert, damit Claude Code überhaupt läuft
  • LiteLLM, konfiguriert mit github_copilot/<model>
  • exakte Übereinstimmung der Modellnamen zwischen Claude Code und LiteLLM

Wenn einer dieser Punkte nicht stimmt, scheitert der Workflow oft auf eine verwirrende Weise.

Welche Eingaben der Skill von dir braucht

Damit die Nutzungshinweise von running-claude-code-via-litellm-copilot wirklich hilfreich sind, solltest du Folgendes angeben:

  • dein Betriebssystem und deine Shell
  • ob Claude Code bereits installiert ist und funktioniert
  • ob LiteLLM bereits installiert ist und wie du es startest
  • dein aktuelles ANTHROPIC_BASE_URL
  • den gewünschten modellnamenbasierten Copilot-Pfad
  • den exakten Fehlertext, falls das Setup scheitert
  • ob du bereit bist, ~/.claude/settings.json oder Shell-Profil-Dateien zu bearbeiten

Mit diesen Details kann der Skill Befehle und Schritte an deine Umgebung anpassen, statt zu raten.

Aus einem groben Ziel einen guten Prompt machen

Schwacher Prompt:

Help me use Claude Code with LiteLLM and Copilot.

Besserer Prompt:

I want Claude Code to send requests to a local LiteLLM proxy on macOS zsh, then forward to GitHub Copilot. Show the minimum config, the environment variables I need, how to set ANTHROPIC_BASE_URL, how to choose the exact ANTHROPIC_MODEL value so it matches LiteLLM model_name, and how to verify traffic in LiteLLM logs before editing persistent files.

Warum das besser ist:

  • Betriebssystem und Shell sind genannt
  • die genaue Konfigurationskette wird angefragt
  • das Problem der Modellabstimmung wird von Anfang an benannt
  • es wird um eine sichere Verifikation vor dauerhaften Änderungen gebeten

Empfohlener Workflow für die Ersteinrichtung

Gehe in dieser Reihenfolge vor, statt alles gleichzeitig zu ändern:

  1. aktuelle Claude-Code- und LiteLLM-Konfiguration prüfen
  2. ein Zielmodell auswählen
  3. LiteLLM mit github_copilot/<model> konfigurieren
  4. falls nötig drop_params: true setzen, damit Anthropic-artige Requests kompatibel bleiben
  5. Claude Code per ANTHROPIC_BASE_URL auf LiteLLM zeigen lassen
  6. ANTHROPIC_MODEL so setzen, dass es exakt mit LiteLLM model_name übereinstimmt
  7. einen kleinen Test-Request ausführen
  8. LiteLLM-Logs beobachten
  9. GitHub-Device-Autorisierung abschließen, falls sie abgefragt wird
  10. erst danach dauerhafte Konfigurationsänderungen vornehmen

So verringerst du das Risiko, die eigentliche Fehlerursache hinter mehreren gleichzeitigen Änderungen zu verstecken.

Die wichtigste Kompatibilitätsregel

In der Praxis ist die wertvollste Regel im Repository diese: ANTHROPIC_MODEL in Claude Code muss exakt mit LiteLLM model_name übereinstimmen.

Behandle Modellnamen nicht als „ungefähr passend“. Schon eine sehr ähnlich aussehende Abweichung reicht aus, um das Routing zu brechen und irreführende Fehler zu erzeugen.

So prüfst du, ob der Proxy wirklich funktioniert

Höre nicht bei „der Befehl ist durchgelaufen“ auf. Prüfe alle folgenden Punkte:

  • Claude Code zielt tatsächlich auf dein lokales ANTHROPIC_BASE_URL
  • LiteLLM empfängt den Request in den Logs
  • der Request wird über den GitHub-Copilot-Provider-Pfad weitergeleitet
  • die Antwort kommt über LiteLLM zurück und nicht über direkten Anthropic-Zugriff

Wenn kein localhost-Traffic auftaucht, liegt das Problem meist früher in der Kette als bei der Copilot-Authentifizierung.

Typische Fehlerbilder, bei denen dieser Skill hilft

Dieser Guide running-claude-code-via-litellm-copilot ist besonders nützlich bei:

  • model not found wegen nicht exakt passender Modellnamen
  • 401 oder 403 bei der GitHub-Copilot-Authentifizierung
  • fehlendem Traffic Richtung LiteLLM
  • Claude Code, das ein Anthropic-Token erwartet, obwohl LiteLLM das eigentliche Backend ist
  • Kompatibilitätsproblemen durch nicht unterstützte Request-Parameter

Genau bei solchen Problemen kostet ein generischer Prompt meist nur Zeit.

Erklärmodus vs. Ausführungsmodus nutzen

Der Upstream-Skill unterscheidet ausdrücklich zwei Modi:

  • Erklärmodus: die kleinste korrekte Menge an Befehlen, Dateien und Prüfschritten liefern
  • Ausführungsmodus: die konkrete Maschine prüfen, auf Shell und OS anpassen und vor dauerhaften Änderungen stoppen

Diese Unterscheidung ist wichtig. Wenn du praktische Hilfe bei der Einrichtung willst, sag das ausdrücklich. Wenn du nur einen Plan brauchst, fordere zuerst einen nicht-destruktiven Walkthrough an.

Ein praktischer Prompt zur Wiederverwendung

Nutze beim Aufruf des Skills zum Beispiel diesen Prompt:

Use the running-claude-code-via-litellm-copilot skill. I want a non-destructive setup plan for routing Claude Code through a local LiteLLM proxy to GitHub Copilot on Ubuntu bash. Please inspect the likely config points, show the exact variables and file paths to check, explain the github_copilot/<model> naming rule, call out where ANTHROPIC_MODEL must match LiteLLM model_name exactly, and give a verification checklist using LiteLLM logs before any persistent edits.

FAQ zum Skill running-claude-code-via-litellm-copilot

Ist running-claude-code-via-litellm-copilot für Einsteiger geeignet?

In der Regel nur dann, wenn du dich mit lokalen Proxys, Env Vars und Konfigurations-Debugging wohlfühlst. Der Skill ist zwar sehr zielgenau, aber der Workflow selbst bleibt anspruchsvoll und kann aus vielen kleinen Gründen scheitern.

Was macht dieser Skill besser als ein normaler Prompt?

Ein normaler Prompt kann das Grundprinzip erklären. Der Skill running-claude-code-via-litellm-copilot ist stärker, wenn du die exakten Routing-Annahmen, die wichtigsten Troubleshooting-Regeln und die richtige Reihenfolge beim Setup brauchst, um Sackgassen zu vermeiden.

Garantiert dieser Skill Unterstützung für GitHub Copilot?

Nein. Das Quellmaterial beschreibt das eher als Workaround als als offiziell garantierten GitHub-Workflow. Nutze ihn als praxisnahe Implementierungshilfe, nicht als Zusage für langfristige Kompatibilität.

Wann sollte ich running-claude-code-via-litellm-copilot nicht verwenden?

Verwende ihn nicht, wenn:

  • du mit einem direkten Anthropic-Setup zufrieden bist
  • du keinen lokalen Proxy im Ablauf haben willst
  • du einen offiziell unterstützten Enterprise-Integrationspfad brauchst
  • du allgemeines Onboarding für Claude Code suchst und nicht dieses spezielle Routing-Muster

Geht es dabei hauptsächlich ums Geldsparen?

Kostenreduktion ist ein möglicher Grund, aber nicht der einzige. Viele Nutzer brauchen den Skill für Routing-Kontrolle, Backend-Austausch oder zum Debuggen, warum Claude Code den falschen Endpoint anspricht.

Was ist der wahrscheinlichste Blocker beim Setup?

Der häufigste Blocker ist die exakte Nicht-Übereinstimmung des Modellnamens zwischen Claude Code und LiteLLM. Danach folgen Auth-Probleme und fehlender localhost-Traffic als wahrscheinlichste Ursachen.

Enthält der Skill zusätzliche Skripte oder Automatisierung?

Keine größeren Hilfsskripte sind im sichtbaren Repository-Stand erkennbar. Das ist ein stark anleitungsorientierter Skill, du solltest die Schritte also manuell auf deine eigene Maschine und Konfiguration anwenden.

So verbesserst du den Skill running-claude-code-via-litellm-copilot

Mit dem aktuellen Ist-Zustand beginnen, nicht mit dem Zielbild

Um bessere Ergebnisse aus running-claude-code-via-litellm-copilot zu bekommen, teile dem Agenten mit, was bereits vorhanden ist:

  • installierte Tools
  • aktuelle Konfigurationsdateien
  • aktuelle Env Vars
  • der genaue Befehl, den du ausgeführt hast
  • die exakte Fehlermeldung

So vermeidest du, dass der Assistent ein sauberes Greenfield-Setup beschreibt, obwohl du eigentlich Troubleshooting brauchst.

Zuerst nach einem Setup mit genau einem Modell fragen

Starte nicht mit mehreren Modellen oder einer breit formulierten Bitte wie „bring einfach alles zum Laufen“. Frage nach einem Modell, einem Endpoint und einem Validierungsschritt. Das grenzt Fehler besser ein und macht Logs verständlicher.

Die exakten Modell-Strings angeben

Wenn du um Hilfe bittest, poste beides:

  • den LiteLLM-model_name
  • den Claude-Code-ANTHROPIC_MODEL

So lässt sich die häufigste Fehlerquelle am schnellsten erkennen.

Einen verifikationsorientierten Plan anfordern

Eine starke Anfrage ist:

Before suggesting persistent edits, give me a temporary test setup and a checklist to confirm Claude Code is reaching LiteLLM and LiteLLM is forwarding to GitHub Copilot.

Das erhöht die Sicherheit und reduziert unnötige Konfigurationsänderungen.

Logs teilen, nicht nur Symptome

Schlecht:

It does not work.

Besser:

Claude Code returns model not found. LiteLLM logs show no localhost request after I set ANTHROPIC_BASE_URL to ...

Am besten:

Claude Code returns model not found. My ANTHROPIC_MODEL is X, LiteLLM model_name is Y, and LiteLLM logs show the request arriving but failing after provider routing.

Der Skill arbeitet besser, wenn du Belege aus der tatsächlich fehlschlagenden Schicht mitlieferst.

Den Agenten bitten, Ursache und Fix zu trennen

Dieses Setup erzeugt oft gestapelte Fehlermeldungen. Bitte um eine Ausgabe in diesem Format:

  • wahrscheinliche Ursache
  • genaue Datei oder Variable zur Prüfung
  • minimaler Fix
  • Verifikationsschritt

So lässt sich die Empfehlung leichter umsetzen und nachvollziehen.

Die Referenznotizen nutzen, wenn das Verhalten veraltet wirkt

Wenn die Hinweise im Widerspruch zu dem zu stehen scheinen, was du gerade beobachtest, verweise den Agenten erneut auf:

references/doc-verified-notes.md

In dieser Datei klärt das Repository, was artikelbasiert ist und was dem aktuell verifizierten LiteLLM-Verhalten entspricht, einschließlich der Namensregel github_copilot/<model>.

Erst nach dem ersten funktionierenden Request optimieren

Sobald der erste Request erfolgreich ist, kannst du anschließend iterieren bei:

  • dauerhafter Platzierung der Konfiguration
  • Aufräumen des Shell-Profils
  • sichereren Standardwerten
  • Modellwechseln
  • klarerer lokaler Dokumentation für dein Team

Optimiere nicht, bevor du den End-to-End-Traffic bestätigt hast.

Bei der Iteration auf diese Fehlerbilder achten

Die häufigsten wiederkehrenden Fehler sind:

  • mehrere Konfigurationsdateien gleichzeitig ändern
  • annehmen, dass ähnliche Modellnamen schon ausreichen
  • vergessen, dass Claude Code lokal weiterhin ein nicht-leeres Anthropic-Token erwartet
  • LiteLLM-Logs nicht prüfen
  • dauerhafte Änderungen vor einem erfolgreichen temporären Test vornehmen

So bekommst du die hochwertigsten Ergebnisse aus diesem Skill

Das beste Prompt-Muster für running-claude-code-via-litellm-copilot for Skill Installation ist:

Use the running-claude-code-via-litellm-copilot skill to troubleshoot my current setup. I am on [OS/shell]. Claude Code is configured with [values]. LiteLLM is started with [method]. My intended provider route is github_copilot/[model]. My ANTHROPIC_MODEL is [value]. Here are the logs and the exact error. Give me the smallest fix first, then a verification step, and pause before suggesting persistent edits.

Damit bekommt der Skill genau den Kontext, den er braucht, um installationsrelevante, maschinennahe Hilfestellung zu geben statt generischer Setup-Erklärungen.

Bewertungen & Rezensionen

Noch keine Bewertungen
Teile deine Rezension
Melde dich an, um für diesen Skill eine Bewertung und einen Kommentar zu hinterlassen.
G
0/10000
Neueste Rezensionen
Wird gespeichert...