字节笔记本

2026年2月22日

Volcano Agent SDK:Google Vertex Studio Provider 使用指南

本文介绍 Volcano Agent SDK 中的 Google Vertex Studio Provider,帮助开发者使用 Google 的 Gemini 模型构建 AI Agent 应用。

Google Vertex Studio Provider 简介

Google Vertex Studio Provider 是 Volcano Agent SDK 支持的 7 大 LLM Provider 之一,提供对 Google Gemini 模型的原生支持,包括函数调用(Function Calling)、流式输出(Streaming)和完整的 MCP(Model Context Protocol)集成。

快速开始

安装 SDK

bash
npm install @volcano.dev/agent

基础配置

typescript
import { llmVertexStudio } from "@volcano.dev/agent";

const vertex = llmVertexStudio({
  model: "gemini-2.0-flash-exp",
  apiKey: process.env.GCP_VERTEX_API_KEY!,
  baseURL: "https://aiplatform.googleapis.com/v1", // 可选
  options: {
    temperature: 0.8,
    max_output_tokens: 2048,
    top_k: 40,
    top_p: 0.95,
    stop_sequences: ["\n\n"],
    candidate_count: 1,
    response_mime_type: "text/plain",
  },
});

认证方式

方法必需描述
apiKey必需Google AI Studio API 密钥
baseURL可选自定义 API 端点(默认: https://aiplatform.googleapis.com/v1

获取 API 密钥:访问 Google AI Studio 创建 API 密钥。

配置参数

参数必需描述
model必需Gemini 模型标识符
apiKey必需Google AI Studio API 密钥
options可选模型特定参数(见下表)

Options 参数详解

参数类型描述
temperature0-2控制随机性,值越高创造性越强
max_output_tokensnumber最大生成 token 数
top_p0-1核采样参数
top_knumber从 top K 选项中采样
stop_sequencesstring[]停止序列数组
candidate_countnumber响应变体数量(通常为 1)
response_mime_typestring响应格式,JSON 模式使用 "application/json"

在 Agent 工作流中使用

typescript
import { agent } from "@volcano.dev/agent";

const results = await agent({ llm: vertex })
  .then({ prompt: "分析这段文本的情感倾向" })
  .run();

console.log(results[0].llmOutput);

支持的模型

Google Vertex Studio Provider 支持以下 Gemini 模型:

  • gemini-2.0-flash-exp - 最新实验版 Flash 模型
  • gemini-1.5-pro - 专业版多模态模型
  • gemini-1.5-flash - 快速响应版本
  • gemini-1.0-pro - 稳定版文本模型

功能特性

✅ 完整支持

功能支持状态
基础文本生成✅ 完整支持
函数调用✅ 原生支持 (Function calling)
流式输出✅ 原生支持
MCP 集成✅ 完整支持

函数调用限制

注意:多工具单次调用仅支持搜索工具。对于复杂的工具编排,建议使用多步骤工作流。

Provider 对比

Volcano Agent SDK 支持 7 个主流 LLM Provider:

Provider基础生成函数调用流式输出MCP 集成
OpenAI✅ 完整✅ 原生✅ 原生✅ 完整
Anthropic✅ 完整✅ 原生✅ 原生✅ 完整
Mistral✅ 完整✅ 原生✅ 原生✅ 完整
Llama✅ 完整✅ Via Ollama✅ 原生✅ 完整
AWS Bedrock✅ 完整✅ 原生✅ 原生✅ 完整
Google Vertex Studio✅ 完整✅ 原生✅ 原生✅ 完整
Azure AI✅ 完整✅ 原生✅ 原生✅ 完整

最佳实践

  1. API 密钥管理:使用环境变量存储 API 密钥,避免硬编码
  2. 温度参数:创意任务使用 0.8-1.0,精确任务使用 0.1-0.3
  3. Token 限制:根据需求合理设置 max_output_tokens
  4. 错误处理:实现重试机制处理 API 限流

相关资源

分享: