使用 One API 集成 GenStudio API
本教程将指导用户如何在 One API 平台集成 GenStudio 的 API 服务。
获取 GenStudio API Key
您可以复制已有 API Key 或创建新的 Key。
预置模型 API 服务有 API 频率限制。企业级用户如使用预置模型,可联系无问芯穹调整限额。
创建自定义渠道
One API 并未内置无问芯穹 GenStudio API 服务。必须通过自定义渠道集成。
以下为必填选项,其他可根据需要进行自定义。
- 类型:必须选择「自定义渠道」。
- Base URL:必须配置为
https://cloud.infini-ai.com/maas
。 - 模型:请从 GenStudio 模型广场 获取模型名称。仅支持大语言模型。例如:
qwen2.5-7b-instruct
qwen2.5-14b-instruct
qwen2.5-32b-instruct
qwen2.5-72b-instruct
- API Key 密钥:获取 GenStudio API 密钥。
测试连通性
配置成功后如图。请务必进行测试。
测试成功即配置正确,至此已完成所有配置。
NOTE
如果想了解如何在一站式 AI 平台(AIStudio)部署 one-api 项目,可以继续查看下方教程。
在 AIStudio 中部署 one-api
一站式 AI 平台(AIStudio)开发机提供了含 GPU 开发机环境,您可以在 AIStudio 开发机上部署 one-api 项目和 Ollama 等本地推理项目。
改造 Dockerfile
one-api 项目直接提供了 Dockerfile,但该文件直接依赖了 DockerHub 的镜像,在国内网络环境下无法拉取镜像,因此需要对该文件进行改造。此外,我们还需要针对国内情况调整 NPM 和 Go 的设置。
针对 DockerHub 镜像的问题,建议您提前获取构建过程中依赖的镜像,存入自己的租户镜像仓库。本次 Dockerfile 示例中的基础镜像已被替换为租户 te-b905754427352261
的私有镜像:
cr.infini-ai.com/te-b905754427352261/node:22
cr.infini-ai.com/te-b905754427352261/golang:alpine
cr.infini-ai.com/te-b905754427352261/alpine:latest
完整的 Dockerfile(仅作为示例,请务必自行替换 FROM 语句中的镜像地址):
FROM cr.infini-ai.com/te-b905754427352261/node:22 AS builder
# 克隆 one-api 代码仓库
WORKDIR /app
RUN git clone https://ghfast.top/https://github.com/songquanpeng/one-api.git .
RUN echo "registry=https://registry.npmmirror.com" > .npmrc
WORKDIR /app/web
WORKDIR /app/web/default
RUN npm install
RUN DISABLE_ESLINT_PLUGIN='true' REACT_APP_VERSION=$(cat ../../VERSION) npm run build
WORKDIR /app/web/berry
RUN npm install
RUN DISABLE_ESLINT_PLUGIN='true' REACT_APP_VERSION=$(cat ../../VERSION) npm run build
WORKDIR /app/web/air
RUN npm install
RUN DISABLE_ESLINT_PLUGIN='true' REACT_APP_VERSION=$(cat ../../VERSION) npm run build
FROM cr.infini-ai.com/te-b905754427352261/golang:alpine AS builder2
RUN apk add --no-cache g++ git
ENV GO111MODULE=on \
CGO_ENABLED=1 \
GOOS=linux \
GOPROXY=https://goproxy.cn,direct
WORKDIR /build
# 从上一个阶段获取构建产物
COPY --from=builder /app/go.mod /app/go.sum ./
RUN go mod download
COPY --from=builder /app/ .
COPY --from=builder /app/web/build ./web/build
RUN go build -trimpath -ldflags "-s -w -X 'github.com/songquanpeng/one-api/common.Version=$(cat VERSION)' -extldflags '-static'" -o one-api
FROM cr.infini-ai.com/te-b905754427352261/alpine:latest
RUN apk update \
&& apk upgrade \
&& apk add --no-cache ca-certificates tzdata \
&& update-ca-certificates 2>/dev/null || true
COPY --from=builder2 /build/one-api /
EXPOSE 3000
WORKDIR /data
CMD ["/bin/sh"]
构建自定义镜像
前往镜像中心,选择使用 Dockerfile 构建镜像。填入您改造后的 Dockerfile,构建自定义镜像,后续用于启动 AIStudio 开发机。
启动 one-api
创建 AIStudio 开发机,使用自定义镜像。登录后,执行以下命令。
cd /
chmod u+x ./one-api
./one-api --port 3000 --log-dir ./logs
访问 Web UI:
- 使用开发机的预览 Web 应用功能,直接从智算云平台打开预览页面。详见预览开发机上运行的 Web 应用。使用该方式生成的预览链接,要求已登录 AIStudio 账号。
- 如果想避免 AIStudio 平台账号认证,可在本地计算机命令行终端设置端口转发。详见 SSH 端口转发。
使用自部署的模型推理服务
您可以使用 AIStudio 提供的云算力自部署的私有的模型 API 服务。
一键部署方案:
自行安装:
常见问题
如何配置 GenStudio M × N API 接口?
暂不支持在 One API 中接入 GenStudio M × N 多模型芯片 Chat Completions。
如何配置 GenStudio Embeddings 接口?
暂不支持在 One API 中接入 GenStudio Embeddings 接口。
如何配置自部署的大语言模型 API 服务?
暂不支持在 One API 中接入 GenStudio 自部署模型 Chat Completions。