Aller au contenu
accueil / plateforme / ai-gateway
Hoody Platform

300+ modèles IA. Une URL compatible OpenAI.

ai.hoody.com s'exécute sur votre bare metal. Changez simplement l'URL de base dans n'importe quel client OpenAI et votre code fonctionne avec Claude, GPT, Gemini, Llama ou l'un des 15+ fournisseurs d'inférence.

Les conteneurs s'authentifient avec des tokens container-NAME — pas de vraies clés API dans vos charges de travail. Révoquez un conteneur et son accès IA disparaît avec lui.

300+ modèles15+ fournisseursCompatible OpenAIMarge de 5%
N'importe quel code compatible OpenAI

# Avant (OpenAI direct)

from openai import OpenAI

 

client = OpenAI(

base_url="https://api.openai.com/v1",

api_key="sk-..."

)

Pointez-le vers ai.hoody.com

# Après (Hoody AI Gateway)

from openai import OpenAI

 

client = OpenAI(

base_url="https://ai.hoody.com/api/v1",

api_key="container-dev-env"

)

accueil / plateforme / ai-gateway / providers
Le catalogue de fournisseurs

15+ fournisseurs d'inférence. Une API.

Génération de texte, génération d'images, embeddings. Chaque fournisseur majeur que vous auriez sinon à câbler séparément.

AnthropicTexte

Famille Claude — Opus, Sonnet, Haiku

OpenAITexte

Famille GPT — niveaux phares et optimisés coût

GoogleTexte

Famille Gemini via Vertex AI

MetaTexte

Famille Llama — hébergée via des partenaires d'inférence

MistralTexte

Modèles open-weight Mistral + Mixtral

DeepseekTexte

Famille V3 et Coder

QwenTexte

Alibaba Qwen — 72B et raisonnement QwQ

CohereEmbed

Famille Command R plus embeddings

xAITexte

Famille Grok — y compris le niveau vision

PerplexityTexte

Modèles Sonar avec ancrage web en direct

Together AITexte

Plateforme d'hébergement pour les modèles open-weight

Fireworks AITexte

Inférence optimisée pour les modèles open-weight

ReplicateImage

Flux, SDXL et modèles de vision spécialisés

Stability AIImage

Variantes de Stable Diffusion

300+ modèles au total. Bring Your Own Provider (§5 ci-dessous) étend cela aux clés directes et aux endpoints locaux/privés. Catalogue complet dans la documentation.

accueil / plateforme / ai-gateway / keyless
Auth native au conteneur

Aucune vraie clé API dans vos conteneurs.

Chaque conteneur obtient une clé virtuelle liée à son nom : `container-NAME`. Le token ne fonctionne que depuis l'infrastructure à laquelle il a été émis. Supprimez le conteneur — le token devient immédiatement inutilisable.

Intégration IA traditionnelle

  • Vraie clé API sk-... stockée dans l'env
  • Les fuites persistent dans l'historique git, les logs, Slack
  • La rotation nécessite une mise à jour coordonnée de toutes les charges de travail
  • La révocation supprime tout ce qui utilise cette clé

Hoody AI gateway

  • Token container-NAME auto-émis à la création du conteneur
  • Le token ne fonctionne que depuis l'intérieur du conteneur
  • Rotation = recréer le conteneur avec le même nom
  • Révoquer le conteneur = le conteneur est supprimé et sa clé aussi

Sûr pour la passation à des freelances, les projets annexes vibe-codés et les SaaS grand public. Le gateway s'exécute sur votre bare metal — Hoody ne voit jamais vos prompts ni vos réponses. Zéro connaissance par architecture, pas par politique.

accueil / plateforme / ai-gateway / mitm
Couche MITM

Interceptez chaque requête IA. Empilez les couches dans l'ordre.

Routez le gateway via hoody-exec pour insérer du middleware avant l'appel au fournisseur. Mettez en cache pas cher. Injectez du contexte. Routez vers le bon modèle. Bloquez les appels d'outils destructeurs en attente d'approbation humaine. Distribuez vers d'autres agents. Journalisez tout. L'ordre est un pipeline — chaque couche s'exécute avant la suivante, et vous choisissez celles dont vous avez besoin.

votre apphoody-exec (pipeline MITM)ai.hoody.comfournisseur (Anthropic, OpenAI, …)

1 · Cache de réponse

Hachez le prompt ; ignorez l'inférence en cas de correspondance. La couche la moins chère en premier.

2 · Injection de contexte

Ajoutez des prompts système depuis votre base de connaissances avant l'appel.

3 · Routage par coût

Prompts simples → modèles moins chers. Prompts complexes → Claude. Économies de 40 à 70% documentées.

4 · Altération des appels d'outils

Réécrivez ou bloquez les appels d'outils avant leur exécution. Sandboxez les écritures de fichiers.

5 · Humain dans la boucle

Suspendez les actions à enjeux élevés. Envoyez une notification. Attendez l'approbation.

6 · Cascade d'agents

Déclenchez un autre hoody-agent via HTTP. Systèmes multi-agents sans orchestrateur.

7 · Journal d'audit

Chaque requête + réponse dans SQLite pour la conformité et le débogage.

Le moteur de règles intégré couvre les patterns MITM courants sans aucun code. Descendez vers des scripts hoody-exec personnalisés quand une règle ne convient pas.

accueil / plateforme / ai-gateway / byop
Pas de verrouillage

Apportez votre propre fournisseur. Désactivez le mode keyless.

L'auth keyless est le défaut et le chemin sûr. Mais vous n'êtes jamais verrouillé : routez directement vers n'importe quel endpoint compatible OpenAI — Ollama local, Azure OpenAI, inférence Hugging Face, un proxy d'entreprise ou des clés de fournisseur directes — en définissant des variables d'env dans le conteneur. C'est l'opt-out explicite du keyless, pas un mode parallèle.

Environnement du conteneur — opt-out du keyless

# direct provider keys

ANTHROPIC_API_KEY=sk-ant-...

OPENAI_API_KEY=sk-...

 

# point at local Ollama

OPENAI_BASE_URL=http://localhost:11434/v1

 

# or Azure / enterprise proxy

OPENAI_BASE_URL=https://your-proxy.internal/v1

Clés de fournisseur directes (contourne le gateway)Ollama local (OPENAI_BASE_URL)Azure OpenAIProxy compatible OpenAI d'entreprise
accueil / plateforme / ai-gateway / vs
vs gateways IA commerciaux

Ce que vous auriez sinon à assembler

LiteLLM, Portkey, OpenRouter et les comptes de fournisseurs directs résolvent chacun une partie de ce que le gateway résout sur une seule surface s'exécutant sur votre propre hardware.

ProblématiqueHoody AI GatewayGateway commercial / DIY
Où il s'exécutesupporté nativementVotre bare metalCloud du vendeur (LiteLLM SaaS, Portkey)
Auth scopée au conteneursupporté nativementTokens container-NAMEClés API partagées + RBAC
Apportez votre propre fournisseursupporté nativementN'importe quel endpoint compatible OpenAIPrincipalement oui, varie par vendeur
Règles MITM + scriptssupporté nativementMoteur de règles intégré + scripts hoody-execNiveau payant ou proxy externe
Compatible OpenAIsupporté nativementOuiOui (la plupart des alternatives)
Tarificationsupporté nativementMarge de 5% sur le coût fournisseurFrais par appel + SaaS par siège
Intégré avec l'infra + le portefeuillesupporté nativementPortefeuille unique, surface API uniqueFacturation et ops séparées

Quand votre stack est déjà sur LiteLLM ou OpenRouter et que vous ne voulez pas gérer un gateway, ceux-là restent meilleurs. Hoody AI Gateway trouve sa place quand vous voulez une auth scopée au conteneur, du MITM natif et le modèle de portefeuille à deux soldes — General Balance finance le serveur (Stripe/crypto/banque), AI Balance finance la gateway, avec des transferts à sens unique General → AI et une seule facture couvrant les deux.

accueil / plateforme / ai-gateway / start
Démarrer

Claude avec un simple changement de base_url.

Créez un conteneur, définissez base URL sur https://ai.hoody.com/api/v1, utilisez container-NAME comme bearer. Chaque bibliothèque compatible OpenAI sait déjà quoi faire.

Catalogue de modèles

Voir aussi — /platform/control-plane pour l'émission de tokens et le portefeuille, /platform/proxy pour la couche URL en dessous.