300以上のAIモデル。1つのOpenAI互換URL。
ai.hoody.comはベアメタル上で動作します。任意のOpenAIクライアントでベースURLを変更するだけで、Claude、GPT、Gemini、Llama、または15以上のインファレンスプロバイダーのいずれかに対してコードが動作します。
コンテナはcontainer-NAMEトークンで認証します — ワークロードに実際のAPIキーを置く必要はありません。コンテナを削除すると、そのAIアクセスも即座に無効になります。
# 変更前(OpenAI直接)
from openai import OpenAI
client = OpenAI(
base_url="https://api.openai.com/v1",
api_key="sk-..."
)
# 変更後(Hoody AIゲートウェイ)
from openai import OpenAI
client = OpenAI(
base_url="https://ai.hoody.com/api/v1",
api_key="container-dev-env"
)
15以上のインファレンスプロバイダー。1つのAPI。
テキスト生成、画像生成、埋め込み。本来別々に接続する必要があった主要なプロバイダーすべて。
Claudeファミリー — Opus、Sonnet、Haiku
GPTファミリー — フラッグシップとコスト最適化ティア
Vertex AI経由のGeminiファミリー
Llamaファミリー — インファレンスパートナー経由でホスト
Mistral + Mixtralのオープンウェイトモデル
V3とCoderファミリー
Alibaba Qwen — 72BとQwQ推論
Command Rファミリーと埋め込み
Grokファミリー — ビジョンティアを含む
ライブWebグラウンディング付きSonarモデル
オープンウェイトモデルのホスティングプラットフォーム
オープンウェイトモデルの最適化インファレンス
Flux、SDXL、特化ビジョンモデル
Stable Diffusionバリアント
合計300以上のモデル。自己プロバイダー持ち込み(§5以下)でダイレクトキーやローカル/プライベートエンドポイントにも対応。完全なカタログはドキュメントで。
コンテナに実際のAPIキーは不要です。
すべてのコンテナはその名前に結びついた仮想キー: `container-NAME`を取得します。このトークンは発行されたインフラ内からのみ機能します。コンテナを削除すると、トークンは即座に無効になります。
従来のAI統合
- —実際のsk-... APIキーがenvに保存
- —漏洩はgit履歴、ログ、Slackに残り続ける
- —ローテーションはすべてのワークロードで協調したアップデートが必要
- —失効するとそのキーを使用しているすべてのものが停止
Hoody AIゲートウェイ
- —コンテナ作成時に自動発行されるcontainer-NAMEトークン
- —トークンはコンテナ内部からのみ機能
- —ローテーション = 同じ名前でコンテナを再作成
- —コンテナを失効 = そのコンテナとそのキーが消滅
フリーランサーへの引き渡し、バイブコーディングのサイドプロジェクト、コンシューマーSaaSに対して安全です。ゲートウェイはベアメタル上で動作します — Hoodyはプロンプトやレスポンスを見ることはありません。ポリシーではなく、アーキテクチャによるゼロ知識。
すべてのAIリクエストをインターセプト。順番にレイヤーを積み重ねる。
プロバイダーコールの前にミドルウェアを挿入するために、ゲートウェイをhoody-exec経由でルーティングします。安価なものはキャッシュ。コンテキストを注入。適切なモデルにルーティング。破壊的なツールコールに人間の承認を要求。他のエージェントにファンアウト。すべてをログ。順序はパイプラインです — 各レイヤーは次の前に実行され、必要なものを選択できます。
1 · レスポンスキャッシュ
プロンプトをハッシュ化; ヒット時はインファレンスをスキップ。最も安価なレイヤーを最初に。
2 · コンテキスト注入
コール前にナレッジベースのシステムプロンプトを先頭に追加。
3 · コストルーティング
簡単なプロンプト → 安価なモデル。難しいプロンプト → Claude。40〜70%のコスト削減が実証済み。
4 · ツールコール改ざん
実行前にツールコールを書き換えまたはブロック。ファイル書き込みをサンドボックス化。
5 · ヒューマンインザループ
ハイリスクなアクションを停止。通知をプッシュ。承認を待つ。
6 · エージェントカスケード
HTTP経由で別のhoody-agentをトリガー。オーケストレーターなしのマルチエージェントシステム。
7 · 監査ログ
コンプライアンスとデバッグのためにすべてのリクエスト + レスポンスをSQLiteに記録。
組み込みルールエンジンがコードゼロで一般的なMITMパターンをカバーします。ルールが合わない場合はカスタムhoody-execスクリプトに切り替えてください。
独自プロバイダーを持ち込み可能。キーレスをオプトアウト。
キーレス認証はデフォルトで安全なパスです。ただし、ロックインされることはありません: コンテナ内の環境変数を設定することで、任意のOpenAI互換エンドポイント(ローカルのOllama、Azure OpenAI、Hugging Faceインファレンス、エンタープライズプロキシ、または直接プロバイダーキー)に直接ルーティングできます。これはキーレスの明示的なオプトアウトであり、並行モードではありません。
# direct provider keys
ANTHROPIC_API_KEY=sk-ant-...
OPENAI_API_KEY=sk-...
# point at local Ollama
OPENAI_BASE_URL=http://localhost:11434/v1
# or Azure / enterprise proxy
OPENAI_BASE_URL=https://your-proxy.internal/v1
本来組み合わせて使うもの
LiteLLM、Portkey、OpenRouter、直接プロバイダーアカウントはそれぞれ、ゲートウェイが独自のハードウェアで動作する1つのサーフェスで解決することの一部を解決しています。
| 懸念事項 | Hoody AIゲートウェイ | 商用ゲートウェイ / DIY |
|---|---|---|
| 動作場所 | ネイティブでサポート — ベアメタル | ベンダークラウド(LiteLLM SaaS、Portkey) |
| コンテナスコープ認証 | ネイティブでサポート — container-NAMEトークン | 共有APIキー + RBAC |
| 独自プロバイダー持ち込み | ネイティブでサポート — 任意のOpenAI互換エンドポイント | ほぼ対応、ベンダーによって異なる |
| MITMルール + スクリプト | ネイティブでサポート — 組み込みルールエンジン + hoody-execスクリプト | 有料ティアまたは外部プロキシ |
| OpenAI互換 | ネイティブでサポート — 対応 | 対応(ほとんどの代替) |
| 価格設定 | ネイティブでサポート — プロバイダーコストに対して5%マークアップ | コールごとの料金 + シート単価SaaS |
| インフラとウォレットとの統合 | ネイティブでサポート — 単一ウォレット、単一APIサーフェス | 別々の請求と運用 |
スタックがすでにLiteLLMまたはOpenRouter上にあり、ゲートウェイを実行したくない場合はそのままにしておくのが最善です。Hoody AIゲートウェイはコンテナスコープ認証、ネイティブMITM、そして二重ウォレットモデルを望む場合にその価値を発揮します — General Balance がサーバー(Stripe/暗号/銀行)にお金を払い、AI Balance がゲートウェイにお金を払い、一方向性のGeneral → AI 転送と両方をカバーする 1 つの請求書があります。
base_url1つの変更でClaudeが使えます。
コンテナを作成し、ベースURLをhttps://ai.hoody.com/api/v1に設定し、container-NAMEをBearerとして使用します。すべてのOpenAI互換ライブラリはすでに何をすべきか知っています。
関連情報 — /platform/control-planeでトークン発行とウォレット、/platform/proxyで基盤となるURLレイヤー。