300+ KI-Modelle. Eine OpenAI-kompatible URL.
ai.hoody.com läuft auf deinem Bare Metal. Die Basis-URL in jedem OpenAI-Client ersetzen und dein Code funktioniert mit Claude, GPT, Gemini, Llama oder einem der 15+ Inferenz-Anbieter.
Container authentifizieren sich mit container-NAME-Tokens – keine echten API-Schlüssel in deinen Workloads. Einen Container widerrufen und sein KI-Zugriff stirbt damit.
# Vorher (OpenAI direkt)
from openai import OpenAI
client = OpenAI(
base_url="https://api.openai.com/v1",
api_key="sk-..."
)
# Nachher (Hoody AI Gateway)
from openai import OpenAI
client = OpenAI(
base_url="https://ai.hoody.com/api/v1",
api_key="container-dev-env"
)
15+ Inferenz-Anbieter. Eine API.
Textgenerierung, Bildgenerierung, Embeddings. Jeder wichtige Anbieter, den du sonst separat einbinden würdest.
Claude-Familie – Opus, Sonnet, Haiku
GPT-Familie – Flagship- und kostengünstige Stufen
Gemini-Familie über Vertex AI
Llama-Familie – gehostet über Inferenz-Partner
Mistral + Mixtral Open-Weight-Modelle
V3 und Coder-Familie
Alibaba Qwen – 72B und QwQ Reasoning
Command-R-Familie plus Embeddings
Grok-Familie – einschließlich Vision-Stufe
Sonar-Modelle mit Live-Web-Grounding
Hosting-Plattform für Open-Weight-Modelle
Optimierte Inferenz für Open-Weight-Modelle
Flux, SDXL und spezialisierte Vision-Modelle
Stable Diffusion Varianten
300+ Modelle insgesamt. Bring Your Own Provider (§5 unten) erweitert dies um direkte Schlüssel und lokale/private Endpunkte. Vollständiger Katalog in der Dokumentation.
Keine echten API-Schlüssel in deinen Containern.
Jeder Container bekommt einen virtuellen Schlüssel, der an seinen Namen gebunden ist: container-NAME. Das Token funktioniert nur aus diesem Container.
Vorher: echter API-Schlüssel
- —Echter sk-...-API-Schlüssel in env gespeichert
- —Datenlecks leben in git-Verlauf, Logs, Slack weiter
- —Rotation erfordert koordiniertes Update aller Workloads
- —Widerruf tötet alles, was diesen Schlüssel nutzt
Hoody AI Gateway
- —container-NAME Token – nur aus diesem Container gültig
- —Kein echter Schlüssel existiert im Container
- —Container löschen = Token sofort widerrufen
- —Neuen Container starten = neues Token, keine Koordination
Sicher für Freelancer-Uebergaben, vibe-coded Side-Projects und Consumer-SaaS. Das Gateway läuft auf deinem Bare Metal — Hoody sieht keine Schlüsseln.
MITM-Kette: 40–70% Kosteneinsparungen.
Kette einen Hoody-Exec-Script zwischen deinem Code und einem kostspieligen Modell. Das Script führt einen günstigen Präfix-Check durch, cacht wiederholte Anfragen oder senkt die Qualität für Nicht-Kern-Aufgaben – ohne Codeänderungen.
1 · Antwort-Cache
Prompt hashen; bei Treffer Inferenz überspringen. Guenstigste Schicht zuerst.
2 · Kontext-Injektion
System-Prompts aus deiner Wissensbasis vor dem Aufruf voranstellen.
3 · Kostenrouting
Einfache Prompts → guenstigere Modelle. Schwere Prompts → Claude. 40-70% Einsparungen dokumentiert.
4 · Tool-Call-Manipulation
Tool-Calls umschreiben oder blockieren, bevor sie ausgeführt werden. Datei-Schreibvorgaenge sandboxen.
5 · Human-in-the-Loop
Hochriskante Aktionen verzoegern. Benachrichtigung senden. Auf Genehmigung warten.
6 · Agent-Kaskade
Einen weiteren hoody-agent per HTTP auslösen. Multi-Agent-Systeme ohne Koordinator.
7 · Audit-Log
Jede Anfrage + Antwort in SQLite für Compliance und Fehlersuche.
Eingebaute Regel-Engine deckt gaengige MITM-Muster ohne Code ab. Benutzerdefinierte hoody-exec-Skripte für komplexere Regeln verwenden.
Bring Your Own Provider
Direkten Zugang zu proprietären oder privaten Endpunkten hinzufügen. Lokale Ollama-Instanz, privates Azure OpenAI Deployment, oder ein Experimental-Endpunkt, den du intern betreibst.
# direct provider keys
ANTHROPIC_API_KEY=sk-ant-...
OPENAI_API_KEY=sk-...
# point at local Ollama
OPENAI_BASE_URL=http://localhost:11434/v1
# or Azure / enterprise proxy
OPENAI_BASE_URL=https://your-proxy.internal/v1
Was du sonst zusammenstrickst
LiteLLM, Portkey, OpenRouter und direkte Anbieter-Konten lösen jeweils einen Teil von dem, was das Gateway auf einer Fläche löst.
| Concern | Hoody AI Gateway | Kommerzielles Gateway / DIY |
|---|---|---|
| Wo es läuft | nativ unterstützt — Dein Bare Metal | Anbieter-Cloud (LiteLLM SaaS, Portkey) |
| Container-bezogenes Auth | nativ unterstützt — container-NAME-Tokens | Gemeinsame API-Schlüssel + RBAC |
| Eigenen Anbieter mitbringen | nativ unterstützt — Jeder OpenAI-kompatible Endpunkt | Meistens ja, je nach Anbieter |
| MITM-Regeln + Skripte | nativ unterstützt — Eingebaute Regel-Engine + hoody-exec-Skripte | Kostenpflichtiger Tier oder externer Proxy |
| OpenAI-kompatibel | nativ unterstützt — Ja | Ja (die meisten Alternativen) |
| Preise | nativ unterstützt — 5 % Aufschlag auf Anbieterkosten | Pro-Aufruf-Gebühren + Pro-Sitz-SaaS |
| Integriert mit Infra + Wallet | nativ unterstützt — Einzelner Wallet, einzelne API-Fläche | Separate Abrechnung und Betrieb |
Wenn dein Stack bereits auf LiteLLM oder OpenRouter läuft und du kein Gateway betreiben möchtest, bleiben die besser. Das Hoody AI Gateway glänzt, wenn du sowieso auf Hoody bist.
300+ Modelle warten.
Die Basis-URL auf ai.hoody.com zeigen. Dein bestehender OpenAI-Code funktioniert sofort.
Siehe auch — /platform/control-plane für Token-Ausstellung und Wallet, /platform/proxy für die darunter liegende URL-Schicht.