字
字节笔记本
2026年2月22日
Volcano Agent SDK:Google Vertex Studio Provider 使用指南
本文介绍 Volcano Agent SDK 中的 Google Vertex Studio Provider,帮助开发者使用 Google 的 Gemini 模型构建 AI Agent 应用。
Google Vertex Studio Provider 简介
Google Vertex Studio Provider 是 Volcano Agent SDK 支持的 7 大 LLM Provider 之一,提供对 Google Gemini 模型的原生支持,包括函数调用(Function Calling)、流式输出(Streaming)和完整的 MCP(Model Context Protocol)集成。
快速开始
安装 SDK
bash
npm install @volcano.dev/agent基础配置
typescript
import { llmVertexStudio } from "@volcano.dev/agent";
const vertex = llmVertexStudio({
model: "gemini-2.0-flash-exp",
apiKey: process.env.GCP_VERTEX_API_KEY!,
baseURL: "https://aiplatform.googleapis.com/v1", // 可选
options: {
temperature: 0.8,
max_output_tokens: 2048,
top_k: 40,
top_p: 0.95,
stop_sequences: ["\n\n"],
candidate_count: 1,
response_mime_type: "text/plain",
},
});认证方式
| 方法 | 必需 | 描述 |
|---|---|---|
apiKey | 必需 | Google AI Studio API 密钥 |
baseURL | 可选 | 自定义 API 端点(默认: https://aiplatform.googleapis.com/v1) |
获取 API 密钥:访问 Google AI Studio 创建 API 密钥。
配置参数
| 参数 | 必需 | 描述 |
|---|---|---|
model | 必需 | Gemini 模型标识符 |
apiKey | 必需 | Google AI Studio API 密钥 |
options | 可选 | 模型特定参数(见下表) |
Options 参数详解
| 参数 | 类型 | 描述 |
|---|---|---|
temperature | 0-2 | 控制随机性,值越高创造性越强 |
max_output_tokens | number | 最大生成 token 数 |
top_p | 0-1 | 核采样参数 |
top_k | number | 从 top K 选项中采样 |
stop_sequences | string[] | 停止序列数组 |
candidate_count | number | 响应变体数量(通常为 1) |
response_mime_type | string | 响应格式,JSON 模式使用 "application/json" |
在 Agent 工作流中使用
typescript
import { agent } from "@volcano.dev/agent";
const results = await agent({ llm: vertex })
.then({ prompt: "分析这段文本的情感倾向" })
.run();
console.log(results[0].llmOutput);支持的模型
Google Vertex Studio Provider 支持以下 Gemini 模型:
gemini-2.0-flash-exp- 最新实验版 Flash 模型gemini-1.5-pro- 专业版多模态模型gemini-1.5-flash- 快速响应版本gemini-1.0-pro- 稳定版文本模型
功能特性
✅ 完整支持
| 功能 | 支持状态 |
|---|---|
| 基础文本生成 | ✅ 完整支持 |
| 函数调用 | ✅ 原生支持 (Function calling) |
| 流式输出 | ✅ 原生支持 |
| MCP 集成 | ✅ 完整支持 |
函数调用限制
注意:多工具单次调用仅支持搜索工具。对于复杂的工具编排,建议使用多步骤工作流。
Provider 对比
Volcano Agent SDK 支持 7 个主流 LLM Provider:
| Provider | 基础生成 | 函数调用 | 流式输出 | MCP 集成 |
|---|---|---|---|---|
| OpenAI | ✅ 完整 | ✅ 原生 | ✅ 原生 | ✅ 完整 |
| Anthropic | ✅ 完整 | ✅ 原生 | ✅ 原生 | ✅ 完整 |
| Mistral | ✅ 完整 | ✅ 原生 | ✅ 原生 | ✅ 完整 |
| Llama | ✅ 完整 | ✅ Via Ollama | ✅ 原生 | ✅ 完整 |
| AWS Bedrock | ✅ 完整 | ✅ 原生 | ✅ 原生 | ✅ 完整 |
| Google Vertex Studio | ✅ 完整 | ✅ 原生 | ✅ 原生 | ✅ 完整 |
| Azure AI | ✅ 完整 | ✅ 原生 | ✅ 原生 | ✅ 完整 |
最佳实践
- API 密钥管理:使用环境变量存储 API 密钥,避免硬编码
- 温度参数:创意任务使用 0.8-1.0,精确任务使用 0.1-0.3
- Token 限制:根据需求合理设置
max_output_tokens - 错误处理:实现重试机制处理 API 限流
相关资源
分享: