
Sechzig Container auf einem Server
Eine Bare-Metal-Box führt Dutzende bis Hunderte von Hoody-Containern aus. KSM und BTRFS-Dedup machen die Marginalkosten nahezu null.
Die meisten Teams zahlen für Production und dann nochmal für einen Staging-Stack, der ungefähr wie Production aussieht. Auf Hoody ist Staging ein Snapshot des Production-Containers — auf demselben Bare Metal abgezweigt, wenn jemand ihn braucht, zurück auf die Disk eingefroren, wenn nicht.
ein tatsächliches Lesen der Spalte, die die meisten Teams schon haben, aber nicht auditieren
Snapshots sind auf Hoody günstig, weil der Storage-Layer Copy-on-Write ist. Das Base-Image wird referenziert, nicht kopiert. Staging teilt sich die Pages mit Production, bis etwas auseinanderläuft — dann wird nur das Delta bezahlt.
POST /containers/$PROD/snapshots mit einem Alias. Das Base-Image bleibt referenziert; nur die Metadaten sind neu. Der Call liefert innerhalb einer Sekunde einen Snapshot-Namen zurück.
POST /containers/$PROD/copy mit source_snapshot=prod-baseline. Ein neuer Container startet auf derselben Hardware und teilt sich Pages mit prod. Schreibvorgänge gehen in ein Delta — Staging wird nur für das berechnet, was es ändert.
Stoppe den Staging-Container, wenn QA fertig ist. Disk bleibt erhalten, RAM und CPU fallen auf null. In 5–15 Sekunden wieder hoch, sobald das nächste Ticket reinkommt. Drift ist unmöglich, weil jeder Branch von einem bekannten Prod-Stand startet.
Snapshots können eine Expiry in Tagen tragen; Cleanup ist automatisch. Copies können eine andere target_project_id und target_server_id wählen, sodass QA in einer separaten Region oder Sub-Account leben kann, ohne das Rezept zu ändern.
Wenn Staging ein Branch statt einer parallelen Miete ist, hören mehrere wiederkehrende Plagen auf zu existieren. Die Rechnung ist nur die sichtbarste davon.
Production, Staging und QA waren früher drei Mieten, die du separat abgerechnet hast. Jetzt sind sie ein Container plus zwei günstige Branches, die aufwachen, wenn nötig. Die marginale Umgebung kostet ein Delta, kein Duplikat.
Jeder Staging-Branch startet von einem echten Production-Snapshot — dasselbe OS-Image, dieselben Pakete, dieselbe Datenform, dieselben Env-Vars. Die Bug-Klasse „läuft auf Staging, bricht auf Prod“ ist by design geschlossen.
PATCHe den Container gegen einen älteren Snapshot, um einen schlechten Deploy zurückzudrehen, oder zweige eine frische QA-Kopie vom Backup von letzter Nacht ab. Kein rsync, kein DB-Dump, kein 90-Minuten-Provision-Job — nur ein Snapshot-Name.
Derselbe Workload — Production, Staging, QA — auf zwei Arten gerechnet. Einmal als drei volle Mieten, einmal als ein Container mit zwei Snapshot-Branches.
Zwei EC2 m5.large für 0,096 $/Std (730 Stunden), plus zwei db.t3.medium Multi-AZ RDS-Instanzen für 0,380 $/Std. Staging die meiste Zeit der Woche idle; den Zähler stört das nicht.
Staging zweigt von einem Prod-Snapshot ab. Geteilte Pages werden referenziert, nicht dupliziert. Nur die Bytes, die ein QA-Run wirklich schreibt, werden abgerechnet — meist ein paar hundert MB statt 100 GB.
Ein Hoody Container fährt prod 24×7. Staging und QA wachen aus einem Snapshot auf, wenn Arbeit sie braucht, und frieren zurück auf die Disk, wenn nicht. Eine Rechnung, drei Umgebungen, kein Drift.
AWS-Preise nutzen die öffentlichen On-Demand-Raten für us-east-1 EC2 m5.large und RDS db.t3.medium Multi-AZ Stand Anfang 2026. Der Hoody-Container-Preis ist illustrativ und hängt vom Underlying-Server ab (Marketplace-Preise ab 20 $/Monat aufwärts); Snapshot-Storage wird nach Delta-Größe abgerechnet. Die gezeigten Zahlen sind ein repräsentativer Vergleich, kein Angebot.
Staging war früher ein Duplikat von Production. Jetzt ist es ein Snapshot davon.
Die Standardwege, wie Teams die Staging-Steuer zahlen. Jeder rechnet dir eine Umgebung ab, die die meiste Woche idle ist oder bis zu dem Zeitpunkt, an dem du sie brauchst, von prod weggedriftet ist.
Hör auf, eine Umgebung zu mieten, die driftet. Zweige eine ab, die es nicht kann.