这是一篇为您准备的关于在 Vultr VPS 上部署 AgentScope 的实战教程。AgentScope 是阿里巴巴开源的多智能体(Multi-Agent)开发框架,它最大的特点是提供了强大的可视化工作台(Workstation),并且对容错机制和分布式部署有很好的支持。
AgentScope 是一个开发者优先的框架。与 RAGFlow 这种开箱即用的产品不同,AgentScope 更像是一个代码库和开发环境。因此,在 Vultr 上部署它,本质上是搭建一个远程 Python AI 开发环境。
优惠参考:《2026 Vultr 最新优惠码汇总:最高免费赠送 $300 美金/充多少送多少》。

🛠️ 第一步:服务器选型
AgentScope 本身运行占用的资源并不大(除非你在本地跑大模型)。大多数情况下,通过 API 调用远程大模型(如 DashScope/通义千问、OpenAI、DeepSeek)是主流用法。
推荐配置 (API 模式)
-
机型: Cloud Compute (High Frequency)
-
CPU/内存: 2 vCPU / 4GB 内存 (推荐) 或 1 vCPU / 2GB (最低)
-
系统: Ubuntu 24.04 LTS (强烈推荐) 或 Ubuntu 22.04
-
硬盘: 64GB NVMe SSD
注意: 如果您计划在本地运行大模型(如 Llama-3 或 Qwen-7B),请务必选择 Vultr 的 NVIDIA GPU Cloud 实例(至少 16GB 显存)。
🐍 第二步:环境初始化与 Conda 安装
SSH 登录您的 Vultr 服务器。为了避免污染系统自带的 Python 环境,我们强烈建议使用 Miniconda。
1. 更新系统
sudo apt update && sudo apt upgrade -y
# 安装基础工具
sudo apt install git wget curl build-essential -y
2. 安装 Miniconda
mkdir -p ~/miniconda3
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh -O ~/miniconda3/miniconda.sh
bash ~/miniconda3/miniconda.sh -b -u -p ~/miniconda3
rm -rf ~/miniconda3/miniconda.sh
# 初始化 Shell
~/miniconda3/bin/conda init bash
source ~/.bashrc
3. 创建虚拟环境
# 创建一个名为 as_env 的环境,指定 Python 3.10
conda create -n as_env python=3.10 -y
# 激活环境
conda activate as_env
📦 第三步:安装 AgentScope
在激活的虚拟环境中安装 AgentScope 及其依赖。
1. 基础安装
pip install agentscope
2. 安装分布式支持(可选)
如果您打算在多台 Vultr 服务器之间进行分布式 Agent 通信,建议安装完整版:
pip install agentscope[distribute]
3. 验证安装
python -c "import agentscope; print(agentscope.__version__)"
# 如果输出了版本号,说明安装成功
💻 第四步:编写第一个 Agent (Hello World)
我们来写一个简单的脚本,测试能否通过 DashScope (通义千问) 或其他 API 进行对话。
1. 准备 API Key
请确保您拥有 DashScope (阿里) 或 OpenAI 的 API Key。
2. 创建测试脚本
nano demo_agent.py
3. 写入代码
将以下代码粘贴进去(请替换您的 API KEY):
import agentscope
from agentscope.agents import DialogAgent
from agentscope.message import Msg
# 1. 初始化配置 (这里以 DashScope 为例)
model_config = {
"config_name": "my_qwen_config",
"model_type": "dashscope_chat",
"model_name": "qwen-turbo", # 或 qwen-max
"api_key": "sk-xxxxxxxxxxxxxx", # 替换您的 Key
}
agentscope.init(model_configs=[model_config])
# 2. 创建两个智能体:用户和助手
agent_user = DialogAgent(name="User", model_config_name="my_qwen_config")
agent_assistant = DialogAgent(name="Assistant", model_config_name="my_qwen_config", sys_prompt="你是一个乐于助人的 AI 助手。")
# 3. 开始对话
msg = Msg(name="User", content="你好,请介绍一下 AgentScope 是什么?", role="user")
msg = agent_user(msg)
msg = agent_assistant(msg)
# 打印回复
print(f"Assistant 说是: {msg.content}")
4. 运行测试
python demo_agent.py
如果看到控制台打印出 AI 的回复,说明环境和网络都配置通了!
🎨 第五步:启动可视化工作台 (Workstation)
AgentScope 提供了一个名为 AS Studio 的 Web 可视化界面,用于通过拖拽编排 Agent。
1. 启动 Studio
在服务器上运行:
as_studio
注意:默认情况下,它会监听 127.0.0.1:5000。
2. 远程访问 (关键步骤)
由于服务运行在 Vultr 远程服务器上,且绑定的是本地回环地址,您有以下两种方式访问:
方法 A:SSH 隧道 (推荐,最安全)
在您本地电脑的终端中执行:
# 将服务器的 5000 端口映射到本地的 5000 端口
ssh -L 5000:127.0.0.1:5000 root@<您的Vultr_IP>
然后,在本地浏览器打开 http://127.0.0.1:5000 即可看到界面。
方法 B:修改监听地址 (直接访问)
如果想直接通过 http://VPS_IP:5000 访问,需要指定 host:
as_studio --host 0.0.0.0 --port 5000
警告: 这样做会把开发界面暴露给公网。请务必配合防火墙限制 IP,或确保不要在公网环境泄露敏感配置。
🌐 第六步:利用 Vultr 内网搭建分布式 Agent (进阶)
Vultr 的一大优势是同机房内网(VPC)互通且免费。AgentScope 支持分布式部署(Actor 模式)。
您可以开两台 Vultr VPS(例如都在 Tokyo 机房):
-
Server A (接收端): 运行主控制脚本。
-
Server B (计算端): 运行耗时的 Agent 任务(例如专门跑本地模型的 GPU 机器)。
简易步骤:
-
在 Server B 启动 Name Server:
python -m agentscope.rpc.launch_server --host <Server_B_Private_IP> --port 12345 -
在 Server A 的代码中连接 B:
agent = RpcAgent( name="RemoteWorker", host="<Server_B_Private_IP>", port=12345 )
这样可以将昂贵的 GPU 资源和轻量级的控制逻辑分离,最大化利用 Vultr 的资源。
📝 常见问题与维护
-
DashScope 连接超时:
Vultr 的服务器在海外,连接阿里云 DashScope API 有时会因为跨境网络波动而不稳定。
-
解决方案: 建议在代码中增加重试机制,或者优先使用 OpenAI/DeepSeek 等国际版 API。
-
-
后台运行:
如果希望
as_studio关闭 SSH 后继续运行,请使用tmux或nohup:nohup as_studio --host 0.0.0.0 > studio.log 2>&1 & -
端口防火墙:
如果使用方法 B (0.0.0.0) 无法访问,请检查 UFW 防火墙:
sudo ufw allow 5000/tcp
现在,您已经拥有了一个云端的 AgentScope 开发工作台,可以开始构建您的多智能体应用了!

主机百科






