Zum Inhalt springen
Home / Plattform / AI Gateway
Hoody Plattform

300+ KI-Modelle. Eine OpenAI-kompatible URL.

ai.hoody.com läuft auf deinem Bare Metal. Die Basis-URL in jedem OpenAI-Client ersetzen und dein Code funktioniert mit Claude, GPT, Gemini, Llama oder einem der 15+ Inferenz-Anbieter.

Container authentifizieren sich mit container-NAME-Tokens – keine echten API-Schlüssel in deinen Workloads. Einen Container widerrufen und sein KI-Zugriff stirbt damit.

300+ Modelle15+ AnbieterOpenAI-kompatibel5% Aufschlag
Beliebiger OpenAI-kompatibler Code

# Vorher (OpenAI direkt)

from openai import OpenAI

 

client = OpenAI(

base_url="https://api.openai.com/v1",

api_key="sk-..."

)

Auf ai.hoody.com zeigen

# Nachher (Hoody AI Gateway)

from openai import OpenAI

 

client = OpenAI(

base_url="https://ai.hoody.com/api/v1",

api_key="container-dev-env"

)

Home / Plattform / AI Gateway / Anbieter
Der Anbieterkatalog

15+ Inferenz-Anbieter. Eine API.

Textgenerierung, Bildgenerierung, Embeddings. Jeder wichtige Anbieter, den du sonst separat einbinden würdest.

AnthropicText

Claude-Familie – Opus, Sonnet, Haiku

OpenAIText

GPT-Familie – Flagship- und kostengünstige Stufen

GoogleText

Gemini-Familie über Vertex AI

MetaText

Llama-Familie – gehostet über Inferenz-Partner

MistralText

Mistral + Mixtral Open-Weight-Modelle

DeepseekText

V3 und Coder-Familie

QwenText

Alibaba Qwen – 72B und QwQ Reasoning

CohereEinbettung

Command-R-Familie plus Embeddings

xAIText

Grok-Familie – einschließlich Vision-Stufe

PerplexityText

Sonar-Modelle mit Live-Web-Grounding

Together AIText

Hosting-Plattform für Open-Weight-Modelle

Fireworks AIText

Optimierte Inferenz für Open-Weight-Modelle

ReplicateBild

Flux, SDXL und spezialisierte Vision-Modelle

Stability AIBild

Stable Diffusion Varianten

300+ Modelle insgesamt. Bring Your Own Provider (§5 unten) erweitert dies um direkte Schlüssel und lokale/private Endpunkte. Vollständiger Katalog in der Dokumentation.

Home / Plattform / AI Gateway / keyless
Container-natives Auth

Keine echten API-Schlüssel in deinen Containern.

Jeder Container bekommt einen virtuellen Schlüssel, der an seinen Namen gebunden ist: container-NAME. Das Token funktioniert nur aus diesem Container.

Vorher: echter API-Schlüssel

  • Echter sk-...-API-Schlüssel in env gespeichert
  • Datenlecks leben in git-Verlauf, Logs, Slack weiter
  • Rotation erfordert koordiniertes Update aller Workloads
  • Widerruf tötet alles, was diesen Schlüssel nutzt

Hoody AI Gateway

  • container-NAME Token – nur aus diesem Container gültig
  • Kein echter Schlüssel existiert im Container
  • Container löschen = Token sofort widerrufen
  • Neuen Container starten = neues Token, keine Koordination

Sicher für Freelancer-Uebergaben, vibe-coded Side-Projects und Consumer-SaaS. Das Gateway läuft auf deinem Bare Metal — Hoody sieht keine Schlüsseln.

Home / Plattform / AI Gateway / mitm
MITM-Optimierung

MITM-Kette: 40–70% Kosteneinsparungen.

Kette einen Hoody-Exec-Script zwischen deinem Code und einem kostspieligen Modell. Das Script führt einen günstigen Präfix-Check durch, cacht wiederholte Anfragen oder senkt die Qualität für Nicht-Kern-Aufgaben – ohne Codeänderungen.

deine Apphoody-exec (MITM-Pipeline)ai.hoody.comAnbieter (Anthropic, OpenAI, ...)

1 · Antwort-Cache

Prompt hashen; bei Treffer Inferenz überspringen. Guenstigste Schicht zuerst.

2 · Kontext-Injektion

System-Prompts aus deiner Wissensbasis vor dem Aufruf voranstellen.

3 · Kostenrouting

Einfache Prompts → guenstigere Modelle. Schwere Prompts → Claude. 40-70% Einsparungen dokumentiert.

4 · Tool-Call-Manipulation

Tool-Calls umschreiben oder blockieren, bevor sie ausgeführt werden. Datei-Schreibvorgaenge sandboxen.

5 · Human-in-the-Loop

Hochriskante Aktionen verzoegern. Benachrichtigung senden. Auf Genehmigung warten.

6 · Agent-Kaskade

Einen weiteren hoody-agent per HTTP auslösen. Multi-Agent-Systeme ohne Koordinator.

7 · Audit-Log

Jede Anfrage + Antwort in SQLite für Compliance und Fehlersuche.

Eingebaute Regel-Engine deckt gaengige MITM-Muster ohne Code ab. Benutzerdefinierte hoody-exec-Skripte für komplexere Regeln verwenden.

Home / Plattform / AI Gateway / byop
Eigenen Anbieter mitbringen

Bring Your Own Provider

Direkten Zugang zu proprietären oder privaten Endpunkten hinzufügen. Lokale Ollama-Instanz, privates Azure OpenAI Deployment, oder ein Experimental-Endpunkt, den du intern betreibst.

Container-Umgebung — Keyless deaktivieren

# direct provider keys

ANTHROPIC_API_KEY=sk-ant-...

OPENAI_API_KEY=sk-...

 

# point at local Ollama

OPENAI_BASE_URL=http://localhost:11434/v1

 

# or Azure / enterprise proxy

OPENAI_BASE_URL=https://your-proxy.internal/v1

Direkte Anbieter-Schlüssel (Gateway umgehen)Lokales Ollama (OPENAI_BASE_URL)Azure OpenAIEnterprise OpenAI-kompatibler Proxy
Home / Plattform / AI Gateway / Vergleich
vs. kommerzielle AI-Gateways

Was du sonst zusammenstrickst

LiteLLM, Portkey, OpenRouter und direkte Anbieter-Konten lösen jeweils einen Teil von dem, was das Gateway auf einer Fläche löst.

ConcernHoody AI GatewayKommerzielles Gateway / DIY
Wo es läuftnativ unterstütztDein Bare MetalAnbieter-Cloud (LiteLLM SaaS, Portkey)
Container-bezogenes Authnativ unterstütztcontainer-NAME-TokensGemeinsame API-Schlüssel + RBAC
Eigenen Anbieter mitbringennativ unterstütztJeder OpenAI-kompatible EndpunktMeistens ja, je nach Anbieter
MITM-Regeln + Skriptenativ unterstütztEingebaute Regel-Engine + hoody-exec-SkripteKostenpflichtiger Tier oder externer Proxy
OpenAI-kompatibelnativ unterstütztJaJa (die meisten Alternativen)
Preisenativ unterstützt5 % Aufschlag auf AnbieterkostenPro-Aufruf-Gebühren + Pro-Sitz-SaaS
Integriert mit Infra + Walletnativ unterstütztEinzelner Wallet, einzelne API-FlächeSeparate Abrechnung und Betrieb

Wenn dein Stack bereits auf LiteLLM oder OpenRouter läuft und du kein Gateway betreiben möchtest, bleiben die besser. Das Hoody AI Gateway glänzt, wenn du sowieso auf Hoody bist.

Home / Plattform / AI Gateway / Start
Start

300+ Modelle warten.

Die Basis-URL auf ai.hoody.com zeigen. Dein bestehender OpenAI-Code funktioniert sofort.

Modell-Katalog

Siehe auch — /platform/control-plane für Token-Ausstellung und Wallet, /platform/proxy für die darunter liegende URL-Schicht.