300+ modèles IA. Une URL compatible OpenAI.
ai.hoody.com s'exécute sur votre bare metal. Changez simplement l'URL de base dans n'importe quel client OpenAI et votre code fonctionne avec Claude, GPT, Gemini, Llama ou l'un des 15+ fournisseurs d'inférence.
Les conteneurs s'authentifient avec des tokens container-NAME — pas de vraies clés API dans vos charges de travail. Révoquez un conteneur et son accès IA disparaît avec lui.
# Avant (OpenAI direct)
from openai import OpenAI
client = OpenAI(
base_url="https://api.openai.com/v1",
api_key="sk-..."
)
# Après (Hoody AI Gateway)
from openai import OpenAI
client = OpenAI(
base_url="https://ai.hoody.com/api/v1",
api_key="container-dev-env"
)
15+ fournisseurs d'inférence. Une API.
Génération de texte, génération d'images, embeddings. Chaque fournisseur majeur que vous auriez sinon à câbler séparément.
Famille Claude — Opus, Sonnet, Haiku
Famille GPT — niveaux phares et optimisés coût
Famille Gemini via Vertex AI
Famille Llama — hébergée via des partenaires d'inférence
Modèles open-weight Mistral + Mixtral
Famille V3 et Coder
Alibaba Qwen — 72B et raisonnement QwQ
Famille Command R plus embeddings
Famille Grok — y compris le niveau vision
Modèles Sonar avec ancrage web en direct
Plateforme d'hébergement pour les modèles open-weight
Inférence optimisée pour les modèles open-weight
Flux, SDXL et modèles de vision spécialisés
Variantes de Stable Diffusion
300+ modèles au total. Bring Your Own Provider (§5 ci-dessous) étend cela aux clés directes et aux endpoints locaux/privés. Catalogue complet dans la documentation.
Aucune vraie clé API dans vos conteneurs.
Chaque conteneur obtient une clé virtuelle liée à son nom : `container-NAME`. Le token ne fonctionne que depuis l'infrastructure à laquelle il a été émis. Supprimez le conteneur — le token devient immédiatement inutilisable.
Intégration IA traditionnelle
- —Vraie clé API sk-... stockée dans l'env
- —Les fuites persistent dans l'historique git, les logs, Slack
- —La rotation nécessite une mise à jour coordonnée de toutes les charges de travail
- —La révocation supprime tout ce qui utilise cette clé
Hoody AI gateway
- —Token container-NAME auto-émis à la création du conteneur
- —Le token ne fonctionne que depuis l'intérieur du conteneur
- —Rotation = recréer le conteneur avec le même nom
- —Révoquer le conteneur = le conteneur est supprimé et sa clé aussi
Sûr pour la passation à des freelances, les projets annexes vibe-codés et les SaaS grand public. Le gateway s'exécute sur votre bare metal — Hoody ne voit jamais vos prompts ni vos réponses. Zéro connaissance par architecture, pas par politique.
Interceptez chaque requête IA. Empilez les couches dans l'ordre.
Routez le gateway via hoody-exec pour insérer du middleware avant l'appel au fournisseur. Mettez en cache pas cher. Injectez du contexte. Routez vers le bon modèle. Bloquez les appels d'outils destructeurs en attente d'approbation humaine. Distribuez vers d'autres agents. Journalisez tout. L'ordre est un pipeline — chaque couche s'exécute avant la suivante, et vous choisissez celles dont vous avez besoin.
1 · Cache de réponse
Hachez le prompt ; ignorez l'inférence en cas de correspondance. La couche la moins chère en premier.
2 · Injection de contexte
Ajoutez des prompts système depuis votre base de connaissances avant l'appel.
3 · Routage par coût
Prompts simples → modèles moins chers. Prompts complexes → Claude. Économies de 40 à 70% documentées.
4 · Altération des appels d'outils
Réécrivez ou bloquez les appels d'outils avant leur exécution. Sandboxez les écritures de fichiers.
5 · Humain dans la boucle
Suspendez les actions à enjeux élevés. Envoyez une notification. Attendez l'approbation.
6 · Cascade d'agents
Déclenchez un autre hoody-agent via HTTP. Systèmes multi-agents sans orchestrateur.
7 · Journal d'audit
Chaque requête + réponse dans SQLite pour la conformité et le débogage.
Le moteur de règles intégré couvre les patterns MITM courants sans aucun code. Descendez vers des scripts hoody-exec personnalisés quand une règle ne convient pas.
Apportez votre propre fournisseur. Désactivez le mode keyless.
L'auth keyless est le défaut et le chemin sûr. Mais vous n'êtes jamais verrouillé : routez directement vers n'importe quel endpoint compatible OpenAI — Ollama local, Azure OpenAI, inférence Hugging Face, un proxy d'entreprise ou des clés de fournisseur directes — en définissant des variables d'env dans le conteneur. C'est l'opt-out explicite du keyless, pas un mode parallèle.
# direct provider keys
ANTHROPIC_API_KEY=sk-ant-...
OPENAI_API_KEY=sk-...
# point at local Ollama
OPENAI_BASE_URL=http://localhost:11434/v1
# or Azure / enterprise proxy
OPENAI_BASE_URL=https://your-proxy.internal/v1
Ce que vous auriez sinon à assembler
LiteLLM, Portkey, OpenRouter et les comptes de fournisseurs directs résolvent chacun une partie de ce que le gateway résout sur une seule surface s'exécutant sur votre propre hardware.
| Problématique | Hoody AI Gateway | Gateway commercial / DIY |
|---|---|---|
| Où il s'exécute | supporté nativement — Votre bare metal | Cloud du vendeur (LiteLLM SaaS, Portkey) |
| Auth scopée au conteneur | supporté nativement — Tokens container-NAME | Clés API partagées + RBAC |
| Apportez votre propre fournisseur | supporté nativement — N'importe quel endpoint compatible OpenAI | Principalement oui, varie par vendeur |
| Règles MITM + scripts | supporté nativement — Moteur de règles intégré + scripts hoody-exec | Niveau payant ou proxy externe |
| Compatible OpenAI | supporté nativement — Oui | Oui (la plupart des alternatives) |
| Tarification | supporté nativement — Marge de 5% sur le coût fournisseur | Frais par appel + SaaS par siège |
| Intégré avec l'infra + le portefeuille | supporté nativement — Portefeuille unique, surface API unique | Facturation et ops séparées |
Quand votre stack est déjà sur LiteLLM ou OpenRouter et que vous ne voulez pas gérer un gateway, ceux-là restent meilleurs. Hoody AI Gateway trouve sa place quand vous voulez une auth scopée au conteneur, du MITM natif et le modèle de portefeuille à deux soldes — General Balance finance le serveur (Stripe/crypto/banque), AI Balance finance la gateway, avec des transferts à sens unique General → AI et une seule facture couvrant les deux.
Claude avec un simple changement de base_url.
Créez un conteneur, définissez base URL sur https://ai.hoody.com/api/v1, utilisez container-NAME comme bearer. Chaque bibliothèque compatible OpenAI sait déjà quoi faire.
Voir aussi — /platform/control-plane pour l'émission de tokens et le portefeuille, /platform/proxy pour la couche URL en dessous.