2025 年在海外社群与开发者圈内口碑较好、单卡价格“够便宜”的 GPU 云主机(按 A100/H100 等主流训练卡计价)可优先考虑以下几家。所有价格均为按量(On‑Demand)公开最低价,供快速比价参考:
排名 | 服务商 | 最低价 & GPU 型号 | 计费粒度 | 亮点 | 适合人群 |
---|---|---|---|---|---|
① | Dataoorts GPU Cloud | H100 $0.72 / h;A100 $0.59 / h | 分钟级 | 新创平台,专做 AI;全线裸金属无额外流量费 | 重度训练、预算敏感团队 |
② | Vast.ai | A100 $0.67 / h;RTX A5000 $0.15 / h | 分钟级 | 社区节点众多,可“砍价式”选实例;价格经常全网最低 | 个人、短时实验 |
③ | Spheron | H100 NVLink $1.95 / h;A100 NVLink $1.40 / h;GTX 1650 $0.04 / h | 分钟级 | 透明费用,无隐藏 IO/流量费,最低端卡极致便宜 | 推理、微服务、边训练边部署 |
④ | RunPod | A100 PCIe $1.19 / h;H100 PCIe $1.99 / h;MI300X $2.49 / h | 分钟级 | 社区与安全两种云池;支持「Pods」一键模板,SOC‑2 合规 | 从训练到推理全流程 |
⑤ | Lambda Labs | A100‑40 $1.29 / h;H100 PCIe $2.49 / h | 小时级 | 提供预装 LLM/SD 镜像,磁盘 IO、带宽给得足 | 需要成熟工具链的团队 |
⑥ | CoreWeave | A100 $1.64 / h;H100 $2.39 / h | 分钟级 | 大规模集群可申请折扣,支持 Kubernetes 原生 GPU 排队 | 多 GPU 并行训练 |
⑦ | Voltage Park | A100 $1.64 / h;H100 $2.39 / h | 小时级 | 非营利机构,库存上万卡;可预留长期容量 | 公司级长期项目 |
⑧ | JarvisLabs | A100‑40 $1.29 / h;RTX 5000 $0.39 / h | 小时级 | 印度节点多,附赠 30 GB NVMe,本地开发友好 | 亚太区域用户 |
⑨ | FluidStack | A100 ≈$1.49 / h | 小时级 | 欧洲机房丰富,网络带宽高 | 在欧部署或数据合规场景 |
⑩ | Crusoe Cloud | A100 ≈$1.65 / h | 分钟级 | 100 % 可再生能源,附 GPU‑optimised Jupyter | 关注碳排放的团队 |
选型小贴士
- 同一平台不同节点价格差异大,可先用筛选器锁定“<= $1.2/h A100”再逐个测速。
- 若要多 GPU 并行,请确认机房内网带宽(≥ 50 Gbps 才能发挥 H100 NVLink 效率)。
- 海外低价云大多不送 Egress,跨区下载数据前核算流量成本。
- 社区型平台(Vast.ai、RunPod Community Pool)须自行评估硬件健康与数据安全。
以上名单以“公开单卡价格/稳定供货/社区讨论热度”为主要筛选标准;若后续有更新价格或新增廉价平台,建议持续关注各家 Discord 频道的闪降通告。