在 OpenManus / LangManus 类应用集成 GenStudio API
Manus 的出现推动了一批轻量化、可互操作的开源框架兴起,聚焦于真实世界的自主性与多智能体协作。在这些框架中,引入推理能力、视觉理解等模型成为实现复杂任务理解与决策的关键。GenStudio 平台提供了丰富的相关 API 支持,助力智能体更高效地感知与行动。
本教程将指导在以下框架中配置 GenStudio API 服务。
- OpenManus
- LangManus
获取 GenStudio API Key
您可以复制已有 API Key 或创建新的 Key。
预置模型 API 服务有 API 频率限制。企业级用户如使用预置模型,可联系无问芯穹调整限额。
在 OpenManus 中使用
OpenManus 是来自 MetaGPT 团队的 Manus 复刻框架。
安装 OpenManus。
安装完成后,在 config 目录找到
config.example.toml
,创建自己的配置文件config.toml
。toml# Global LLM configuration [llm] model = "qwq-32b" # 需要支持 Function Calling 的模型 base_url = "https://cloud.infini-ai.com/maas/v1" api_key = "GENSTUDIO_API_KEY" max_tokens = 16384 temperature = 0.6 # Optional configuration for specific LLM models [llm.vision] model = "qwen2.5-vl-72b-instruct" base_url = "https://cloud.infini-ai.com/maas/v1" api_key = "GENSTUDIO_API_KEY" ```
NOTE
首次配置时建议使用以上模型组合。请注意注释掉其他 [llm]
和 [llm.vision]
配置。
在 LangManus 中使用
LangManus 官方仓库已不再提供。以下使用 fork 进行演示。
安装完成后,在项目根目录找到
.env.example
,创建自己的配置文件.env
。shell# LLM Environment variables # Reasoning LLM 需要使用推理模型 REASONING_API_KEY=GENSTUDIO_API_KEY REASONING_BASE_URL=https://cloud.infini-ai.com/maas/v1 REASONING_MODEL=qwq-32b # Non-reasoning LLM BASIC_API_KEY=GENSTUDIO_API_KEY BASIC_BASE_URL=https://cloud.infini-ai.com/maas/v1 BASIC_MODEL=qwen2.5-32b-instruct # Vision-language LLM 需要使用视觉模型 VL_API_KEY=GENSTUDIO_API_KEY VL_BASE_URL=https://cloud.infini-ai.com/maas/v1 VL_MODEL=qwen2.5-vl-72b-instruct # Application Settings DEBUG=True APP_ENV=development # Add other environment variables as needed TAVILY_API_KEY=tvly-xxx # 此处请更换为您自行申请的 TAVILY API KEY。 # CHROME_INSTANCE_PATH=/Applications/Google Chrome.app/Contents/MacOS/Google Chrome
NOTE
首次配置时强烈建议使用以上模型组合。
查找可用模型
推理能力、多模态模型及视觉语言模型是实现复杂任务理解与决策的关键,部分服务依赖 Function Calling 能力。以上配置实例已经给出了推荐的模型组合。
如果需要查找其他支持 Function Calling、视觉理解等能力的模型,请前往 GenStudio 模型广场,在左侧通过「工具调用」「视觉理解」等标签进行筛选。