AIStudio SSH 公钥管理,一处配置,处处可用AIStudio SSH 公钥管理,一处配置,处处可用 ,只为更佳开发体验如何配置
Skip to content
回到全部文章

在 OpenManus / LangManus 类应用集成 GenStudio API

Manus 的出现推动了一批轻量化、可互操作的开源框架兴起,聚焦于真实世界的自主性与多智能体协作。在这些框架中,引入推理能力、视觉理解等模型成为实现复杂任务理解与决策的关键。GenStudio 平台提供了丰富的相关 API 支持,助力智能体更高效地感知与行动。

本教程将指导在以下框架中配置 GenStudio API 服务。

  • OpenManus
  • LangManus

获取 GenStudio API Key

您可以复制已有 API Key 或创建新的 Key。

预置模型 API 服务有 API 频率限制。企业级用户如使用预置模型,可联系无问芯穹调整限额。

在 OpenManus 中使用

OpenManus 是来自 MetaGPT 团队的 Manus 复刻框架。

  1. 安装 OpenManus

  2. 安装完成后,在 config 目录找到 config.example.toml,创建自己的配置文件 config.toml

    toml
    # Global LLM configuration 
    [llm]
    model = "qwq-32b" # 需要支持 Function Calling 的模型
    base_url = "https://cloud.infini-ai.com/maas/v1"
    api_key = "GENSTUDIO_API_KEY"
    max_tokens = 16384
    temperature = 0.6
    
    # Optional configuration for specific LLM models
    [llm.vision]
    model = "qwen2.5-vl-72b-instruct"
    base_url = "https://cloud.infini-ai.com/maas/v1"
    api_key = "GENSTUDIO_API_KEY"
    ```​

NOTE

首次配置时建议使用以上模型组合。请注意注释掉其他 [llm][llm.vision] 配置。

在 LangManus 中使用

LangManus 官方仓库已不再提供。以下使用 fork 进行演示。

  1. 安装 Darwin-lfl/langmanus

  2. 安装完成后,在项目根目录找到 .env.example,创建自己的配置文件 .env

    shell
    # LLM Environment variables
    
    # Reasoning LLM 需要使用推理模型
    REASONING_API_KEY=GENSTUDIO_API_KEY
    REASONING_BASE_URL=https://cloud.infini-ai.com/maas/v1
    REASONING_MODEL=qwq-32b
    
    # Non-reasoning LLM 
    BASIC_API_KEY=GENSTUDIO_API_KEY
    BASIC_BASE_URL=https://cloud.infini-ai.com/maas/v1
    BASIC_MODEL=qwen2.5-32b-instruct
    
    # Vision-language LLM 需要使用视觉模型
    VL_API_KEY=GENSTUDIO_API_KEY
    VL_BASE_URL=https://cloud.infini-ai.com/maas/v1
    VL_MODEL=qwen2.5-vl-72b-instruct
    
    # Application Settings
    DEBUG=True
    APP_ENV=development
    
    # Add other environment variables as needed
    TAVILY_API_KEY=tvly-xxx # 此处请更换为您自行申请的 TAVILY API KEY。 
    # CHROME_INSTANCE_PATH=/Applications/Google Chrome.app/Contents/MacOS/Google Chrome

NOTE

首次配置时强烈建议使用以上模型组合。

查找可用模型

推理能力、多模态模型及视觉语言模型是实现复杂任务理解与决策的关键,部分服务依赖 Function Calling 能力。以上配置实例已经给出了推荐的模型组合。

如果需要查找其他支持 Function Calling、视觉理解等能力的模型,请前往 GenStudio 模型广场,在左侧通过「工具调用」「视觉理解」等标签进行筛选。