跳转到内容
主页 / 平台 / AI 网关
Hoody 平台

300+ AI 模型。统一 OpenAI 兼容 URL。

ai.hoody.com 运行在裸金属服务器上。在任意 OpenAI 客户端中替换 base URL,代码即可访问 Claude、GPT、Gemini、Llama 或任何 15+ 推理提供商。

容器使用 container-NAME Token 进行认证——工作负载中无需真实 API 密钥。删除容器,其 AI 访问权限随即失效。

300+ 模型15+ 提供商OpenAI 兼容5% 加成
任意 OpenAI 兼容代码

# 之前(OpenAI 直连)

from openai import OpenAI

 

client = OpenAI(

base_url="https://api.openai.com/v1",

api_key="sk-..."

)

将目标指向 ai.hoody.com

# 之后(Hoody AI 网关)

from openai import OpenAI

 

client = OpenAI(

base_url="https://ai.hoody.com/api/v1",

api_key="container-dev-env"

)

主页 / 平台 / AI 网关 / 服务商
服务商目录

15+ 推理提供商。统一 API。

文本生成、图像生成、嵌入。涵盖所有主流服务商,否则需逐一接入。

Anthropic文本

Claude 系列——Opus、Sonnet、Haiku

OpenAI文本

GPT 系列——旗舰版和性价比优化版

Google文本

通过 Vertex AI 提供的 Gemini 系列

Meta文本

Llama 系列——通过推理合作伙伴托管

Mistral文本

Mistral + Mixtral 开放权重模型

Deepseek文本

V3 及 Coder 系列

Qwen文本

阿里 Qwen——72B 与 QwQ 推理模型

Cohere嵌入

Command R 系列及嵌入模型

xAI文本

Grok 系列——含视觉版

Perplexity文本

带实时网络检索的 Sonar 模型

Together AI文本

开放权重模型托管平台

Fireworks AI文本

开放权重模型优化推理

Replicate图像

Flux、SDXL 及专项视觉模型

Stability AI图像

Stable Diffusion 各版本

共 300+ 个模型。通过自带服务商(下方第 5 节)可扩展至直接密钥及本地/私有端点。完整目录见文档。

主页 / 平台 / AI 网关 / 无密钥
容器原生认证

容器中无需真实 API 密钥。

每个容器获得与名称绑定的虚拟密钥:`container-NAME`。该 Token 只能从其发放所在的基础设施内部使用。删除容器——Token 立即失效。

传统 AI 集成

  • 真实 sk-... API 密钥存储于环境变量
  • 泄漏会持续存在于 git 历史、日志、Slack 中
  • 轮换需要在所有工作负载间协调更新
  • 撤销会终止所有使用该密钥的服务

Hoody AI 网关

  • 容器创建时自动签发 container-NAME Token
  • Token 只能从容器内部使用
  • 轮换 = 用相同名称重新创建容器
  • 删除容器 = 容器消失,密钥同时失效

适用于自由职业者交接、快速搭建的副项目和消费者 SaaS。网关运行在裸金属服务器上——Hoody 从不接触提示词或响应。架构层面的零知识,而非策略承诺。

主页 / 平台 / AI 网关 / MITM
MITM 层

拦截每次 AI 请求。按序堆叠中间层。

将网关通过 hoody-exec 路由,在服务商调用前插入中间件。低成本缓存,注入上下文,路由到合适模型,对破坏性工具调用设置人工审批关卡,分发到其他智能体,记录一切。顺序即管道——每一层在下一层之前运行,按需选择所需层级。

你的应用hoody-exec(MITM 管道)ai.hoody.com服务商(Anthropic、OpenAI……)

1 · 响应缓存

对提示词进行哈希;命中时跳过推理。最便宜的层,优先执行。

2 · 上下文注入

在调用前从知识库预置系统提示词。

3 · 成本路由

简单提示词 → 廉价模型。复杂提示词 → Claude。已记录节省 40–70%。

4 · 工具调用拦截

在工具调用执行前重写或屏蔽。沙箱化文件写入。

5 · 人工介入

暂停高风险操作。推送通知。等待审批。

6 · 智能体级联

通过 HTTP 触发另一个 hoody-agent。无需编排器的多智能体系统。

7 · 审计日志

将每次请求和响应写入 SQLite,用于合规和调试。

内置规则引擎以零代码覆盖常见 MITM 模式。当规则不适用时,回落到自定义 hoody-exec 脚本。

主页 / 平台 / AI 网关 / 自带服务商
无供应商锁定

自带服务商。选择退出无密钥模式。

无密钥认证是默认且安全的路径。但你永不被锁定:通过在容器内设置环境变量,可直接路由到任意 OpenAI 兼容端点——本地 Ollama、Azure OpenAI、Hugging Face 推理、企业代理,或直接使用服务商密钥。这是明确的选择退出,而非并行模式。

容器环境——选择退出无密钥模式

# direct provider keys

ANTHROPIC_API_KEY=sk-ant-...

OPENAI_API_KEY=sk-...

 

# point at local Ollama

OPENAI_BASE_URL=http://localhost:11434/v1

 

# or Azure / enterprise proxy

OPENAI_BASE_URL=https://your-proxy.internal/v1

直接使用服务商密钥(绕过网关)本地 Ollama (OPENAI_BASE_URL)Azure OpenAI企业 OpenAI 兼容代理
主页 / 平台 / AI 网关 / 对比
vs 商业 AI 网关

否则你需要自行拼凑的东西

LiteLLM、Portkey、OpenRouter 和直接服务商账户各自解决了网关在单一界面上解决的部分问题,且运行在你自己的硬件上。

场景Hoody AI 网关商业网关 / 自建
运行位置原生支持裸金属服务器供应商云(LiteLLM SaaS、Portkey)
容器作用域认证原生支持container-NAME Token共享 API 密钥 + RBAC
自带服务商原生支持任意 OpenAI 兼容端点大多数支持,因供应商而异
MITM 规则 + 脚本原生支持内置规则引擎 + hoody-exec 脚本付费方案或外部代理
OpenAI 兼容原生支持是(大多数替代方案)
定价原生支持在服务商成本基础上加收 5%按调用收费 + 按席位 SaaS
与基础设施 + 钱包集成原生支持统一钱包,统一 API 界面独立计费和运维

如果已在使用 LiteLLM 或 OpenRouter 且不想运行网关,那些方案仍然更合适。当需要容器作用域认证、原生 MITM 和两余额钱包模型时——通用余额资助服务器(Stripe/加密/银行),AI 余额资助网关,单向通用→AI 转账且一张发票同时覆盖基础设施 + LLM 支出——Hoody AI 网关才真正发挥价值。

主页 / 平台 / AI 网关 / 开始
开始

改一行 base_url,接入 Claude。

创建容器,将 base URL 设为 https://ai.hoody.com/api/v1,使用 container-NAME 作为 Bearer Token。所有 OpenAI 兼容库都已知道该怎么做。

模型目录

另见——/platform/control-plane(Token 签发与钱包)、/platform/proxy(底层 URL 层)。