コンテンツにスキップ
ホーム / プラットフォーム / AIゲートウェイ
Hoodyプラットフォーム

300以上のAIモデル。1つのOpenAI互換URL。

ai.hoody.comはベアメタル上で動作します。任意のOpenAIクライアントでベースURLを変更するだけで、Claude、GPT、Gemini、Llama、または15以上のインファレンスプロバイダーのいずれかに対してコードが動作します。

コンテナはcontainer-NAMEトークンで認証します — ワークロードに実際のAPIキーを置く必要はありません。コンテナを削除すると、そのAIアクセスも即座に無効になります。

300以上のモデル15以上のプロバイダーOpenAI互換5%マークアップ
任意のOpenAI互換コード

# 変更前(OpenAI直接)

from openai import OpenAI

 

client = OpenAI(

base_url="https://api.openai.com/v1",

api_key="sk-..."

)

ai.hoody.comに向ける

# 変更後(Hoody AIゲートウェイ)

from openai import OpenAI

 

client = OpenAI(

base_url="https://ai.hoody.com/api/v1",

api_key="container-dev-env"

)

ホーム / プラットフォーム / AIゲートウェイ / プロバイダー
プロバイダーカタログ

15以上のインファレンスプロバイダー。1つのAPI。

テキスト生成、画像生成、埋め込み。本来別々に接続する必要があった主要なプロバイダーすべて。

Anthropicテキスト

Claudeファミリー — Opus、Sonnet、Haiku

OpenAIテキスト

GPTファミリー — フラッグシップとコスト最適化ティア

Googleテキスト

Vertex AI経由のGeminiファミリー

Metaテキスト

Llamaファミリー — インファレンスパートナー経由でホスト

Mistralテキスト

Mistral + Mixtralのオープンウェイトモデル

Deepseekテキスト

V3とCoderファミリー

Qwenテキスト

Alibaba Qwen — 72BとQwQ推論

Cohere埋め込み

Command Rファミリーと埋め込み

xAIテキスト

Grokファミリー — ビジョンティアを含む

Perplexityテキスト

ライブWebグラウンディング付きSonarモデル

Together AIテキスト

オープンウェイトモデルのホスティングプラットフォーム

Fireworks AIテキスト

オープンウェイトモデルの最適化インファレンス

Replicate画像

Flux、SDXL、特化ビジョンモデル

Stability AI画像

Stable Diffusionバリアント

合計300以上のモデル。自己プロバイダー持ち込み(§5以下)でダイレクトキーやローカル/プライベートエンドポイントにも対応。完全なカタログはドキュメントで。

ホーム / プラットフォーム / AIゲートウェイ / キーレス
コンテナネイティブ認証

コンテナに実際のAPIキーは不要です。

すべてのコンテナはその名前に結びついた仮想キー: `container-NAME`を取得します。このトークンは発行されたインフラ内からのみ機能します。コンテナを削除すると、トークンは即座に無効になります。

従来のAI統合

  • 実際のsk-... APIキーがenvに保存
  • 漏洩はgit履歴、ログ、Slackに残り続ける
  • ローテーションはすべてのワークロードで協調したアップデートが必要
  • 失効するとそのキーを使用しているすべてのものが停止

Hoody AIゲートウェイ

  • コンテナ作成時に自動発行されるcontainer-NAMEトークン
  • トークンはコンテナ内部からのみ機能
  • ローテーション = 同じ名前でコンテナを再作成
  • コンテナを失効 = そのコンテナとそのキーが消滅

フリーランサーへの引き渡し、バイブコーディングのサイドプロジェクト、コンシューマーSaaSに対して安全です。ゲートウェイはベアメタル上で動作します — Hoodyはプロンプトやレスポンスを見ることはありません。ポリシーではなく、アーキテクチャによるゼロ知識。

ホーム / プラットフォーム / AIゲートウェイ / MITM
MITMレイヤー

すべてのAIリクエストをインターセプト。順番にレイヤーを積み重ねる。

プロバイダーコールの前にミドルウェアを挿入するために、ゲートウェイをhoody-exec経由でルーティングします。安価なものはキャッシュ。コンテキストを注入。適切なモデルにルーティング。破壊的なツールコールに人間の承認を要求。他のエージェントにファンアウト。すべてをログ。順序はパイプラインです — 各レイヤーは次の前に実行され、必要なものを選択できます。

アプリhoody-exec(MITMパイプライン)ai.hoody.comプロバイダー(Anthropic、OpenAIなど)

1 · レスポンスキャッシュ

プロンプトをハッシュ化; ヒット時はインファレンスをスキップ。最も安価なレイヤーを最初に。

2 · コンテキスト注入

コール前にナレッジベースのシステムプロンプトを先頭に追加。

3 · コストルーティング

簡単なプロンプト → 安価なモデル。難しいプロンプト → Claude。40〜70%のコスト削減が実証済み。

4 · ツールコール改ざん

実行前にツールコールを書き換えまたはブロック。ファイル書き込みをサンドボックス化。

5 · ヒューマンインザループ

ハイリスクなアクションを停止。通知をプッシュ。承認を待つ。

6 · エージェントカスケード

HTTP経由で別のhoody-agentをトリガー。オーケストレーターなしのマルチエージェントシステム。

7 · 監査ログ

コンプライアンスとデバッグのためにすべてのリクエスト + レスポンスをSQLiteに記録。

組み込みルールエンジンがコードゼロで一般的なMITMパターンをカバーします。ルールが合わない場合はカスタムhoody-execスクリプトに切り替えてください。

ホーム / プラットフォーム / AIゲートウェイ / 自己プロバイダー
ロックインなし

独自プロバイダーを持ち込み可能。キーレスをオプトアウト。

キーレス認証はデフォルトで安全なパスです。ただし、ロックインされることはありません: コンテナ内の環境変数を設定することで、任意のOpenAI互換エンドポイント(ローカルのOllama、Azure OpenAI、Hugging Faceインファレンス、エンタープライズプロキシ、または直接プロバイダーキー)に直接ルーティングできます。これはキーレスの明示的なオプトアウトであり、並行モードではありません。

コンテナ環境 — キーレスをオプトアウト

# direct provider keys

ANTHROPIC_API_KEY=sk-ant-...

OPENAI_API_KEY=sk-...

 

# point at local Ollama

OPENAI_BASE_URL=http://localhost:11434/v1

 

# or Azure / enterprise proxy

OPENAI_BASE_URL=https://your-proxy.internal/v1

直接プロバイダーキー(ゲートウェイをバイパス)ローカルOllama(OPENAI_BASE_URL)Azure OpenAIエンタープライズOpenAI互換プロキシ
ホーム / プラットフォーム / AIゲートウェイ / 比較
商用AIゲートウェイとの比較

本来組み合わせて使うもの

LiteLLM、Portkey、OpenRouter、直接プロバイダーアカウントはそれぞれ、ゲートウェイが独自のハードウェアで動作する1つのサーフェスで解決することの一部を解決しています。

懸念事項Hoody AIゲートウェイ商用ゲートウェイ / DIY
動作場所ネイティブでサポートベアメタルベンダークラウド(LiteLLM SaaS、Portkey)
コンテナスコープ認証ネイティブでサポートcontainer-NAMEトークン共有APIキー + RBAC
独自プロバイダー持ち込みネイティブでサポート任意のOpenAI互換エンドポイントほぼ対応、ベンダーによって異なる
MITMルール + スクリプトネイティブでサポート組み込みルールエンジン + hoody-execスクリプト有料ティアまたは外部プロキシ
OpenAI互換ネイティブでサポート対応対応(ほとんどの代替)
価格設定ネイティブでサポートプロバイダーコストに対して5%マークアップコールごとの料金 + シート単価SaaS
インフラとウォレットとの統合ネイティブでサポート単一ウォレット、単一APIサーフェス別々の請求と運用

スタックがすでにLiteLLMまたはOpenRouter上にあり、ゲートウェイを実行したくない場合はそのままにしておくのが最善です。Hoody AIゲートウェイはコンテナスコープ認証、ネイティブMITM、そして二重ウォレットモデルを望む場合にその価値を発揮します — General Balance がサーバー(Stripe/暗号/銀行)にお金を払い、AI Balance がゲートウェイにお金を払い、一方向性のGeneral → AI 転送と両方をカバーする 1 つの請求書があります。

ホーム / プラットフォーム / AIゲートウェイ / スタート
始める

base_url1つの変更でClaudeが使えます。

コンテナを作成し、ベースURLをhttps://ai.hoody.com/api/v1に設定し、container-NAMEをBearerとして使用します。すべてのOpenAI互換ライブラリはすでに何をすべきか知っています。

モデルカタログ

関連情報 — /platform/control-planeでトークン発行とウォレット、/platform/proxyで基盤となるURLレイヤー。