21. 如何在n8n中接入国产大模型:完整指南

文章正文
发布时间:2025-05-12 20:53

n8n是一个强大的工具,但其原生支持的AI模型主要来自国外厂商。本文将详细介绍如何通过OneAPI将国产大模型(如智谱、文心一言、讯飞星火等)接入n8n系统,实现本地化AI能力集成。

一、n8n原生支持的AI模型现状

n8n目前官方支持的AI模型包括:

Google系列:

Google PaLM Chat Model

Google Gemini Chat Model

开源及云服务模型:

Groq Chat Model

Mistral Cloud Chat Model

Ollama Chat Model/Ollama Model

主流商业模型:

OpenAI Chat Model/OpenAI Model

Azure OpenAI Model

AWS Bedrock Chat Model

Anthropic Chat Model

Cohere Model

其他:

Huagging Face Interence Model

然而,这些模型中不包含任何国产闭源模型,这限制了n8n在国内环境中的应用潜力。

二、国产大模型接入方案对比 方案1:直接使用HTTP Request节点

实现方式

通过HTTP Request节点直接调用国产大模型的API接口

缺点

配置复杂,需要手动处理所有API参数

无法与n8n内置的LangChain节点集成

Workflow编排难度大幅增加

缺乏标准化接口,维护成本高

方案2:通过OneAPI转换为OpenAI兼容接口(推荐)

优势

标准化接口,简化配置

完美兼容n8n的AI节点

支持LangChain集成

可管理多个模型渠道

支持负载均衡和配额管理

三、详细实施步骤 3.1 准备工作:服务器环境要求

服务器配置建议

最低配置:2核vCPU + 2GB RAM

推荐配置:4核vCPU + 8GB RAM(持续运行工作流)

年成本参考:约30美元起

必要组件

已安装1Panel管理面板

域名一个(用于HTTPS访问)

国产大模型API Key(如智谱、文心一言等)

提示:如果没有服务器,可以考虑CloudCone等性价比高的VPS服务商。

3.2 步骤1:使用1Panel部署OneAPI

安装OneAPI

进入1Panel后台 → 应用商店 → AI/大模型 → OneAPI

点击安装,保持默认设置(端口3000)

重要:不要勾选"端口外部访问"

配置反向代理

1. 进入 网站 > 创建网站 2. 选择"反向代理"类型 3. 主域名填写为OneAPI准备的域名(如oneapi.yourdomain.com) 4. 代理地址填写::3000/

配置HTTPS

为域名申请SSL证书

启用强制HTTPS(增强安全性)

验证安装

3.3 步骤2:OneAPI安全配置

修改默认凭证

立即更改root账号密码

建议使用16位以上随机密码

访问控制

关闭公开注册(设置 > 系统设置 > 配置登录注册)

启用CloudFlare Turnstile验证码

生产环境建议

在搜索引擎中屏蔽OneAPI管理界面

配置使用量告警

限制访问IP范围(如仅限内网)

3.4 步骤3:配置模型渠道(以智谱GLM为例)

获取API Key

前往智谱AI开放平台注册开发者账号

完成认证并获取API Key

添加新渠道

- 类型:选择"智谱 ChatGLM" - 名称:自定义标识(如"GLM-Production") - 模型:填写"gpt-4,gpt-3.5-turbo"(兼容OpenAI格式) - 模型重定向: { "gpt-3.5-turbo": "glm-4" } - 密钥:填入从智谱获取的API Key

关键配置说明

模型重定向实现了OpenAI接口到国产模型的转换

这种伪装使n8n能原生识别和使用这些模型

下来,让我们先学会如何配置渠道。

让我们去AI平台去注册(类似网站较多)、获得一个 API Key:

3.5 步骤4:创建访问令牌

新建令牌

名称:如"n8n-GLM-Access"

模型范围:包含实际模型(glm-4)和伪装模型(gpt-3.5-turbo)

获取令牌Key

创建后复制生成的Key

此Key将用于n8n的认证

3.6 步骤5:n8n集成配置

创建工作流

添加Chat Trigger节点

添加Basic LLM Chain节点

添加OpenAI Chat Model节点

配置凭证

1. 在OpenAI Chat Model节点点击"Credentials"旁的编辑图标 2. 新建凭证,填入OneAPI的令牌Key 3. 忽略OpenAI连接错误提示,强制保存

在这里,我们将刚刚创建的 OneAPI Key 填进去,点击保存时,n8n 将提示我们这个 Key 无法正常与 OpenAI 建立链接,这是当然的,因为这压根不是 OpenAI 的 Key,我们只是借用一下凭证的壳子,因此无视错误直接保存即可。

返回 OpenAI Chat Model 节点,我们选择刚刚新建的凭证,然后在 Option 里添加一个 Base URL。

这里特别要注意,它不是你的 OneAPI 安装地址,而是后面还要有个 v1。

比如,你的 OneAPI 安装在了 https://oneai.abc.com。那么这里就要填写 https://oneai.abc.com/v1 。

在上面的 Model 处,点击三个点,然后选择 Refresh List 就能看到已经伪装好的 gpt-3.5-turbo 啦。

重要:修改完 Base URL,你需要保存整个 Workflow,退出编辑器,重新进入才能让 Base URL 彻底生效,仅仅能刷出模型并不意味着 Workflow 会向正确的 URL 发送请求,这似乎是个 BUG。

好,进行完上述操作之后,让我们点击 Chat 按钮,测试一下这个 Workflow 吧:

关键参数设置

Base URL:填写https://your.oneapi.domain/v1

Model:刷新列表选择"gpt-3.5-turbo"(实际调用glm-4)

重要提示

修改Base URL后必须:保存工作流 → 完全退出 → 重新进入

这是目前n8n的一个已知问题

四、进阶配置技巧 4.1 多模型管理策略

负载均衡配置

在OneAPI中添加同一模型的多个渠道

OneAPI会自动分配请求到不同渠道

配额管理

为用户分配不同的调用额度

设置使用量告警阈值

4.2 非标准模型接入

对于与OpenAI格式差异较大的模型:

手动指定模型名

将Model设置为Expression模式

直接输入实际模型名称(如"ernie-bot")

注意事项

参数验证会出现警告(可忽略)

可能需要调整请求/响应格式

4.3 安全加固建议

网络隔离

将OneAPI限制为仅限内网访问

通过n8n所在服务器进行代理

监控措施

启用OneAPI的详细日志记录

设置异常调用告警

五、常见问题解决方案

模型列表不刷新

确认Base URL格式正确(必须包含/v1)

完全重启n8n服务

调用返回错误

检查OneAPI模型重定向配置

验证原始API Key是否有效

性能问题

在OneAPI中启用缓存

考虑增加渠道数量实现负载均衡

六、总结

通过本文介绍的方法,您可以将各类国产大模型无缝集成到n8n工作流中,同时保留n8n全部原生功能。这种方案不仅解决了API兼容性问题,还提供了以下优势:

统一管理:集中管控多个模型和API Key

弹性扩展:轻松添加新的国产模型

成本优化:实现多个Key之间的负载均衡

安全增强:避免直接暴露原始API Key

随着国产大模型能力的不断提升,这种集成方式将为自动化工作流带来更多可能性。建议根据实际业务需求,选择合适的模型组合,充分发挥n8n在AI自动化领域的潜力。

资料推荐

如果您在实践中遇到任何问题,欢迎在评论区留言讨论,我将及时解答您的疑问。

首页
评论
分享
Top