n8n是一个强大的工具,但其原生支持的AI模型主要来自国外厂商。本文将详细介绍如何通过OneAPI将国产大模型(如智谱、文心一言、讯飞星火等)接入n8n系统,实现本地化AI能力集成。
一、n8n原生支持的AI模型现状n8n目前官方支持的AI模型包括:
Google系列:
Google PaLM Chat Model
Google Gemini Chat Model
开源及云服务模型:
Groq Chat Model
Mistral Cloud Chat Model
Ollama Chat Model/Ollama Model
主流商业模型:
OpenAI Chat Model/OpenAI Model
Azure OpenAI Model
AWS Bedrock Chat Model
Anthropic Chat Model
Cohere Model
其他:
Huagging Face Interence Model
然而,这些模型中不包含任何国产闭源模型,这限制了n8n在国内环境中的应用潜力。
二、国产大模型接入方案对比 方案1:直接使用HTTP Request节点实现方式:
通过HTTP Request节点直接调用国产大模型的API接口
缺点:
配置复杂,需要手动处理所有API参数
无法与n8n内置的LangChain节点集成
Workflow编排难度大幅增加
缺乏标准化接口,维护成本高
方案2:通过OneAPI转换为OpenAI兼容接口(推荐)优势:
标准化接口,简化配置
完美兼容n8n的AI节点
支持LangChain集成
可管理多个模型渠道
支持负载均衡和配额管理
三、详细实施步骤 3.1 准备工作:服务器环境要求
服务器配置建议:
最低配置:2核vCPU + 2GB RAM
推荐配置:4核vCPU + 8GB RAM(持续运行工作流)
年成本参考:约30美元起
必要组件:
已安装1Panel管理面板
域名一个(用于HTTPS访问)
国产大模型API Key(如智谱、文心一言等)
提示:如果没有服务器,可以考虑CloudCone等性价比高的VPS服务商。
3.2 步骤1:使用1Panel部署OneAPI
安装OneAPI:
进入1Panel后台 → 应用商店 → AI/大模型 → OneAPI
点击安装,保持默认设置(端口3000)
重要:不要勾选"端口外部访问"
配置反向代理:
1. 进入 网站 > 创建网站 2. 选择"反向代理"类型 3. 主域名填写为OneAPI准备的域名(如oneapi.yourdomain.com) 4. 代理地址填写::3000/
配置HTTPS:
为域名申请SSL证书
启用强制HTTPS(增强安全性)
验证安装:
3.3 步骤2:OneAPI安全配置
修改默认凭证:
立即更改root账号密码
建议使用16位以上随机密码
访问控制:
关闭公开注册(设置 > 系统设置 > 配置登录注册)
启用CloudFlare Turnstile验证码
生产环境建议:
在搜索引擎中屏蔽OneAPI管理界面
配置使用量告警
限制访问IP范围(如仅限内网)
3.4 步骤3:配置模型渠道(以智谱GLM为例)
获取API Key:
前往智谱AI开放平台注册开发者账号
完成认证并获取API Key
添加新渠道:
- 类型:选择"智谱 ChatGLM" - 名称:自定义标识(如"GLM-Production") - 模型:填写"gpt-4,gpt-3.5-turbo"(兼容OpenAI格式) - 模型重定向: { "gpt-3.5-turbo": "glm-4" } - 密钥:填入从智谱获取的API Key
关键配置说明:
模型重定向实现了OpenAI接口到国产模型的转换
这种伪装使n8n能原生识别和使用这些模型
下来,让我们先学会如何配置渠道。
让我们去AI平台去注册(类似网站较多)、获得一个 API Key:
3.5 步骤4:创建访问令牌
新建令牌:
名称:如"n8n-GLM-Access"
模型范围:包含实际模型(glm-4)和伪装模型(gpt-3.5-turbo)
获取令牌Key:
创建后复制生成的Key
此Key将用于n8n的认证
创建工作流:
添加Chat Trigger节点
添加Basic LLM Chain节点
添加OpenAI Chat Model节点
配置凭证:
1. 在OpenAI Chat Model节点点击"Credentials"旁的编辑图标 2. 新建凭证,填入OneAPI的令牌Key 3. 忽略OpenAI连接错误提示,强制保存在这里,我们将刚刚创建的 OneAPI Key 填进去,点击保存时,n8n 将提示我们这个 Key 无法正常与 OpenAI 建立链接,这是当然的,因为这压根不是 OpenAI 的 Key,我们只是借用一下凭证的壳子,因此无视错误直接保存即可。
返回 OpenAI Chat Model 节点,我们选择刚刚新建的凭证,然后在 Option 里添加一个 Base URL。
这里特别要注意,它不是你的 OneAPI 安装地址,而是后面还要有个 v1。
比如,你的 OneAPI 安装在了 https://oneai.abc.com。那么这里就要填写 https://oneai.abc.com/v1 。
在上面的 Model 处,点击三个点,然后选择 Refresh List 就能看到已经伪装好的 gpt-3.5-turbo 啦。
重要:修改完 Base URL,你需要保存整个 Workflow,退出编辑器,重新进入才能让 Base URL 彻底生效,仅仅能刷出模型并不意味着 Workflow 会向正确的 URL 发送请求,这似乎是个 BUG。
好,进行完上述操作之后,让我们点击 Chat 按钮,测试一下这个 Workflow 吧:
关键参数设置:
Base URL:填写https://your.oneapi.domain/v1
Model:刷新列表选择"gpt-3.5-turbo"(实际调用glm-4)
重要提示:
修改Base URL后必须:保存工作流 → 完全退出 → 重新进入
这是目前n8n的一个已知问题
四、进阶配置技巧 4.1 多模型管理策略
负载均衡配置:
在OneAPI中添加同一模型的多个渠道
OneAPI会自动分配请求到不同渠道
配额管理:
为用户分配不同的调用额度
设置使用量告警阈值
对于与OpenAI格式差异较大的模型:
手动指定模型名:
将Model设置为Expression模式
直接输入实际模型名称(如"ernie-bot")
注意事项:
参数验证会出现警告(可忽略)
可能需要调整请求/响应格式
4.3 安全加固建议
网络隔离:
将OneAPI限制为仅限内网访问
通过n8n所在服务器进行代理
监控措施:
启用OneAPI的详细日志记录
设置异常调用告警
五、常见问题解决方案
模型列表不刷新:
确认Base URL格式正确(必须包含/v1)
完全重启n8n服务
调用返回错误:
检查OneAPI模型重定向配置
验证原始API Key是否有效
性能问题:
在OneAPI中启用缓存
考虑增加渠道数量实现负载均衡
六、总结通过本文介绍的方法,您可以将各类国产大模型无缝集成到n8n工作流中,同时保留n8n全部原生功能。这种方案不仅解决了API兼容性问题,还提供了以下优势:
统一管理:集中管控多个模型和API Key
弹性扩展:轻松添加新的国产模型
成本优化:实现多个Key之间的负载均衡
安全增强:避免直接暴露原始API Key
随着国产大模型能力的不断提升,这种集成方式将为自动化工作流带来更多可能性。建议根据实际业务需求,选择合适的模型组合,充分发挥n8n在AI自动化领域的潜力。
资料推荐
如果您在实践中遇到任何问题,欢迎在评论区留言讨论,我将及时解答您的疑问。