LLMはすでにHTTPを知っています。それがすべての基盤です。
すべてのHoody機能はHTTPコールです。公開インターネットで訓練されたLLMはすでにcurl、JSON、RESTの慣習を知っています。SDKブリッジ不要。MCPアダプターの作成不要。エージェントは最初の推論ターンでプラットフォームを操作できます。
どこでもHTTP · コンテナごとに100以上のエンドポイント · ピアアーキテクチャ · エージェントがエージェントを生成
LLMがすでに訓練されていたプロトコル。
GPT、Claude、Gemini、Llamaはすべて、事前訓練中にcurlコマンド、RESTエンドポイント、JSONボディ、ステータスコードなど何百万ものHTTP例を読んでいます。文法をネイティブに知っています。Hoodyはその文法を通じてプラットフォームを公開するので、何もブリッジする必要がありません。
SDK生成ステップなし
HoodyクライアントにSDKは不要です。LLMはOpenAPI仕様またはドキュメントを読んで、curlを出力します。今日のすべてのモデルで動作 — そして明日も。
MCPアダプターはオプションになります
MCPクライアント(/platform/mcp)はサードパーティサーバーでエージェントのツールセットを拡張します。しかし、Hoodyプラットフォーム自体はプレーンHTTP経由で到達可能 — 翻訳レイヤーなし。
OpenAPIが契約です
すべてのKitサービスが/openapi.jsonを公開しています。エージェントは仕様を読み、スキーマを知り、エンドポイントを呼び出します。構成によって自己文書化。
人間が読めるデバッグ
エージェントが間違えた?生成したcurlを見てください。トレースは人間のオペレーターが手で書くのと同じフォーマットです。
すべてのコンテナが到着時にエージェントに100のツールを提供します。
Kitサービスはコンテナごとに~100以上の文書化されたHTTPエンドポイントを公開します。ターミナル実行、ファイル操作、SQLクエリ、ブラウザー自動化、スクリプトデプロイ、ディスプレイスクリーンショット、通知。Hoodyコンテナに接続するエージェントは、人間の開発者が持つすべてへの即座のプログラムアクセスを持ちます。
コマンド実行、出力ストリーム、セッションキャプチャ、履歴エクスポート
60以上のクラウドバックエンドでの読み取り、書き込み、検索、圧縮、転送
スクリプトをHTTP APIとしてデプロイ、認証付きで実行、結果のキャッシュ
クエリ、変更、スキーマイントロスペクト、同時安全書き込み
ナビゲート、スクリーンショット、インタラクト、スクレイプ、フォーム入力
X11のスクリーンショット、ウィンドウ一覧、GUI状態の観察
コンテナはピアです。エージェントは直接お互いに通信します。
中央のオーケストレーターはありません。コンテナAのエージェントはコンテナBのURLを開き、ファイルを読み取り、ターミナルを実行し、SQLiteをクエリできます — URLと認証があれば。マルチエージェントシステムは上位の調整レイヤーではなくHTTPから出現します。
エージェントカスケード
エージェントAがHTTP経由でエージェントBをトリガー。Bが特化した作業を行って返ります。階層は機能から生まれ、アーキテクチャからではありません。
ファンアウト並列性
エージェントAが10のコンテナにまたがってタスクの10コピーを生成。各コンテナは分離して動作する独立したエージェントです。
レビューチェーン
エージェントAがコードを作成。エージェントBがAのファイルを開いてレビュー。エージェントCがexecにPOSTしてテストを実行。
スペシャリストエージェント
1つのエージェントがファイルシステム作業に特化。もう1つはデータベース。もう1つはブラウザー。インプロセスではなくHTTPで通信します。
エージェントは提案しません。実行します。
従来のエージェントセットアップは'人間に何を実行すべきか伝える'で止まります。Hoodyエージェントはコマンドを自分で実行します。失敗パスは変更を恐れることではなくスナップショットによるロールバックです — これがエージェントが実際に何の役に立つかを変えます。
推論
エージェントが読み、考え、計画します — 任意のLLMループと同じ。
実行
エージェントがterminal / exec / files / sqliteにPOSTします。コマンドが本番環境で実行されます。
観察
エージェントがレスポンス、終了コード、ファイルシステムの変更、stderrを読みます。現実世界のフィードバック。
回復
何かが壊れた?スナップショット(/methods/data-state)へのPATCHでロールバック。リスクを取っても安全。
エージェントがコンテナを作成。コンテナがエージェントを実行。
コンテナの作成が単一のHTTP POSTであるため、エージェントはオンデマンドで新しいコンテナを作成できます。マルチエージェントシステムは出現的 — オーケストレーターは不要。コンテナは短命なスクラッチワーカー、長期実行スペシャリスト、またはその間のどんなものにもなれます。
エージェントが並列化を決定
タスクは10ブランチの仮説テストです。エージェントがファンアウトの機会を認識します。
POST /projects/ID/containers × 10
10個の新しいコンテナ、各コンテナに独自のエージェントインスタンス。
ディスパッチ
各ワーカーが異なるブランチを担当。エージェントが並列で作業し、親コンテナに報告します。
クリーンアップ
勝者は実行を続けます。敗者はDELETEされます。コスト: 使い捨てコンテナごとにほぼゼロ。
すべてのHTTPコールが将来の訓練データになります。
すべての操作がHTTPリクエストである場合、それらはすべてデフォルトでプロキシログとしてキャプチャされます。ユーザーのワークフローは(プロンプト、アクション、結果)タプルの構造化データセットになります — 何の計測器もなしに。これがプラットフォームをAI互換ではなくAIネイティブにするものです。
プロキシログにすべてのアクション
プロキシログはメソッド、パス、ボディ(オプション)、レスポンスをキャプチャします。すべての操作が追跡可能。
デフォルトで構造化
JSONリクエストとレスポンスはすでに教師あり微調整またはRLHFパイプラインの適切な形です。
データはあなたのもの、訓練もあなたのもの
ログはベアメタル上に留まります。エクスポートしない限りHoodyには見えません。
自己構築インフラ
MITMスクリプトはログ履歴からドキュメントを生成し、エンドポイントを最適化し、次に最もよく使われるリクエストを予測できます。
LLMにcurlを渡せば使い方はすでに知っています。
エージェントにHoodyコンテナのURLとトークンを渡してください。コマンドの実行、ファイルの書き込み、データベースのクエリ、さらなるコンテナの生成 — すべて訓練されたプロトコルで行えます。
関連情報 — /platform/ai-gatewayでモデル側、/platform/mcpで外部ツール統合、/kit/agentでエージェントランタイム。