用N1飞牛NAS 5分钟部署New-API AI接口中转站,本地Ollama秒变公网OpenAI接口(超详细干货教程)

image-20260405200011860

前言

你是不是也遇到过这种情况:手里既有本地跑着的 Ollama 免费大模型,又有一堆零散的云端大模型 API(比如 DeepSeek、通义千问等),每次在不同的第三方应用里来回配置接口地址和密钥,折腾到头皮发麻?又或者你想把家里的 AI 算力分享给朋友,却发现根本没办法做统一的密钥管理额度限制,更别提离开局域网后根本连不上的尴尬?

好消息是——New-API 这个神器就能完美解决你的痛点!它就像一个超级路由节点,不仅能把你本地的 Ollama 和各家云端 API 全部整合到一起,统一提供给别的应用调用,还能在自带的可视化面板里轻松搞定多用户管理日志监控,真正实现一站式 AI 自由调度

接下来,我们就从准备工作开始,带你利用手头的 N1 飞牛 NAS,在 5 分钟内快速部署一套专属的 AI 接口中转站,并一条龙打通公网访问,让你本地的 AI 老黄牛秒变安全可控、随时随地都能调用的云端大模型!

1 什么是New-API?

image-20260405203114578

New-API 是一款基于经典项目 One API 升级而来的新一代大模型接口聚合网关与资产分布管理系统。它向下能够统一对接并转换各类主流云端 LLM 服务(如 OpenAI、Claude、Gemini 以及各大国产模型)和本地开源模型(如 Ollama),向上为各种第三方 AI 客户端与应用提供标准化的 OpenAI API 协议支持。作为个人的全能 AI 服务中枢,它不仅大幅降低了异构接口的适配成本,还极大地提升了模型的管理与分发效率。其核心亮点突出体现在以下几个方面:

  • 异构接口自动转换:原生支持将数十种不同格式的大模型 API 乃至本地运行的 Ollama 服务,无缝跨界转换为标准的 OpenAI 接口格式,实现下游应用零门槛一键接入。
  • 精细化权限与额度管控:内置完善的可视化管理面板,支持多用户账户隔离。你可以针对每个下发出去的 Token 令牌设定精确的调用额度、并发频率限制及请求有效期,实现算力安全跨网分享。
  • 高可用智能路由调度:允许将多个免费或付费 API 整合进统一的模型通道池(Channel),系统支持按权重动态轮询及故障自动重试响应,有效规避单点失效,确保 AI 服务的高可用性。
  • 全透明数字资产监控:配备丰富清晰的图表看板,从每一个模型、每一次请求到每一个用户的 Token 消耗量与延时表现均被精准记录,资金消耗实现百分之百透明。

2 Docker一键部署New-API

没错,本期教程的折腾主力军依然是我们熟悉的老战友——N1 盒子!为了榨干它的最后一点剩余价值,我提前在 N1 上刷入了 ARM 版本的飞牛 NAS 系统。接下来,我们将直接利用飞牛系统自带的 Docker 环境,极速部署 New-API。

💡 温馨提示:如果你手边正好有一台吃灰的 N1 盒子,也想给它刷个飞牛 NAS 体验一把“麻雀虽小五脏俱全”的专属快乐,强烈建议先查看下面这篇保姆级刷机指北:https://www.cpolar.com/blog/7-year-old-slag-rebirth-install-the-arm-version-of-feibo-nas-on-the-n1-box-step-by-step-tutorial

好了,接下来直接开始上教程!首先,打开你的飞牛Nas,在桌面点击【Docker】图标,进入后确保【Docker服务】处于开启状态:
image-20260405204759072

然后进入【系统设置】中,选择【SSH】,将其启用:
image-20260326194845722

接着,电脑摁下【Win + X】键,选择【终端(管理员)】打开PowerShell窗口:
image-20260326202131520

然后在终端输入如下ssh命令,进行远程连接你的飞牛Nas终端:

# 其中,n1为你的飞牛Nas用户名,IP地址为你的飞牛IP地址
ssh n1@192.168.50.228

如下图所示:
image-20260326202509419

接着,在终端执行如下命令,切换至root用户(输入密码时不会显示):

sudo -i

image-20260406190649190

然后执行如下命令,将一键部署脚本下载下来:

curl -L https://gitee.com/jun-wan/script/raw/master/new_api_deploy/deploy_sqlite.sh -o deploy_sqlite.sh && ls

image-20260406190726760

下载下来后,进行授权并且执行它:

chmod +x deploy_sqlite.sh && bash deploy_sqlite.sh

执行后,如下图,首先会询问选择安装的位置:
image-20260406190852477

如果你外接扩展了硬盘,就会有如图显示中的扩展存储,我这里选择【2】,安装在外置硬盘上,然后进行回车:

image-20260406191101628

可以看到,成功部署完成了,让我们在浏览器中进行访问测试一下:
image-20260406191138460

成功访问到页面!这样通过Docker一键部署的NewAPI就搞定啦!

3 配置New-API项目

部署好项目后,访问newapi默认需要进行初始化,在数据库检查页面选择【下一步】:
image-20260406191534458

接着创建你的管理员账号和密码,创建完成后继续点击【下一步】:
image-20260406191637535

接着来到使用模式部分,根据你需要的运行模式进行选择,这里选择【自用模式】,然后继续进行【下一步】:
image-20260406191836563

点击【初始化系统】进行完成初始化:
image-20260406191903396

初始化完成会来到如下页面:
image-20260406192047354

如果默认没有登录,点击右上角【登录】按钮,输入刚才初始化的管理员账号密码即可进入后台:
image-20260406192304063

4 下载安装测试Ollama

我们在上一步已经成功搭好了 New-API 这个“超级网关”,但既然要管理和分发接口,手里自然还需要跑一个本地 AI 大模型来作为“主力输出”。

如果你还没有玩过本地部署大模型,别慌!接下来我会在 Windows 电脑上,带你从零极速安装 Ollama 这个广受好评的大模型启动器,并以通义千问的小参数模型(qwen3.5:0.8b)为例,下载并运行它作为我们的接口测试对象。如果你早就折腾过 Ollama,或者只想单纯接入你现成的各类云端大厂 API,完全可以直接跳过本节,快进到第 5 节继续配置。

4.1 安装Ollama程序

为了方便大家能够完整的跟着教程走下去,这里演示在本地windows上进行安装一个Ollama程序(如局域网AI服务器或已经有相关API程序可跳过)。

重新打开一个【PowerShell】终端,执行如下命令,即可一键安装Ollama:

irm https://ollama.com/install.ps1 | iex

如下图所示:
image-20260406193457644

接着,输入如下命令,可以查看ollama版本信息确认已安装:

ollama --version

image-20260406193542020

好了,这样ollama就成功安装上啦!

4.2 下载模型

我们可以在ollama的官网,进行搜索自己想要使用的模型,进行下载,官网地址:

https://ollama.com/search

如下图:
image-20260406193707442

就以【qwen3.5:0.8b】模型为例,它比较小(大概1G左右),用来测试,我们回到终端执行如下命令进行下载和运行它:

ollama run qwen3.5:0.8b

如下图:
image-20260406194552165

接着我们进行对话询问一下看看,这里输入【你好】为例,如下图所示:

image-20260406195325100

可以看到能够成功的思考和回答,我当前是3060ti显卡,基本3秒左右就输出完成了,还是挺快的!测试成功后,输入如下命令即可退出对话:

/bye

image-20260406195950548

这样就成功的下载并且部署好了一个ollama模型啦!

4.3 测试Ollama 的 API 服务

ollama支持标准的 OpenAI 兼容格式(/v1/chat/completions),端口默认为,我们可以在【PowerShell】终端执行如下命令:

Invoke-RestMethod -Method Post -Uri "http://localhost:11434/v1/chat/completions" -ContentType "application/json" -Body '{"model": "qwen3.5:0.8b", "messages": [{"role": "user", "content": "hi"}], "stream": false}'

image-20260406202907638

如果是在cmd终端,则是执行如下命令进行测试:

curl http://localhost:11434/v1/chat/completions -H "Content-Type: application/json" -d "{\"model\": \"qwen3.5:0.8b\", \"messages\": [{\"role\": \"user\", \"content\": \"你好\"}], \"stream\": false}"

image-20260406203039949

测试成功,可以看到ollama的API服务是正常的!

5 在New-API中配置Ollama渠道

登录到New-API后台,点击左侧菜单栏的【渠道管理】,然后点击【添加渠道】:

image-20260406204434806

接着,在弹出的侧边栏配置中,配置类型为【Ollama】,名称自定义一个即可,密钥也是随机输入一个(因为ollama默认不需要密钥进行连接),接着在API地址部分,填写你当前Windows的局域网IP地址(如果不知道可以终端执行如下命令获取):

ipconfig | findstr "IPv4"

如图:
image-20260406205334322

接着,在模型部分,点击获取模型列表按钮,如果配置正确的话,就会弹出如下选择模型的窗口,选择我们刚才下载的【qwen3.5:0.8b】然后确定进行添加:
image-20260406205428134

添加完成后,点击底部的提交按钮即可:
image-20260406205754319

提交后,点击测试按钮或者展开按钮,进行测试,出现测试成功的提示,代表成功的把模型接入进来啦:
image-20260406205934369

好了,如果你有本地局域网其他的AI服务器的话,也都可以接入进来,像这样:
image-20260406210310390

然后你就可以在模型广场看到许许多多你本地AI服务器部署的模型啦:
image-20260406210401156

6 创建令牌进行测试

点击左侧菜单栏的【令牌管理】,然后点击【添加令牌】:

image-20260406210616539

在弹出的侧边配置区域,填写好相关信息,然后点击提交:
image-20260406210842749

创建成功后,点击复制令牌:

image-20260406210953041

然后通过N1部署的NewAPI就可以访问啦,比如在CMD中测试(注意修改令牌为自己的):

# 修改其中的192.168.50.228为你的N1飞牛Nas地址,以及sk-xxxxxxx
curl http://192.168.50.228:3000/v1/chat/completions ^
-H "Content-Type: application/json" ^
-H "Authorization: Bearer sk-MbmNWNXhaGrNlZRe6r1ZxEOoROiE5HpIfU6zL8353FJ4msZO" ^
-d "{\"model\": \"qwen3.5:0.8b\", \"messages\": [{\"role\": \"user\", \"content\": \"你好\"}], \"stream\": false}"

如下图:

image-20260406211437080

访问成功!这样我们就成功利用 New-API 把局域网里的 Ollama 模型,彻底包装成了一个拥有“正规编制”(带密钥鉴权 + 标准 OpenAI 格式)的云端接口啦!

7 穿透New-API实现公网访问

成功在局域网内调通了 Ollama 和 New-API,不过,目前这个接口地址依然只能在家里连着同一个局域网时才能调用。如果想在外面上下班路上随时随地榨干家里的算力,或者把刚才创建的 Token 令牌直接发给异地的朋友使用,我们还需要进行最后也是最关键的一步:内网穿透

没错!只要借助内网穿透工具,我们就能把飞牛 NAS 上的 New-API 端口直接映射到公网地址上。这样一来,无论你身在何处,只要手机或电脑有网,打开浏览器就能随时随地“钻”进家里的后台面板修改配置,发出去的 Token 也能通过公网被随时调用,和坐在家里局域网操作一模一样丝滑!

7.1 什么是cpolar?

image-20260311173747662

  • cpolar 是一款内网穿透工具,可以将你在局域网内运行的服务(如本地 Web 服务器、SSH、远程桌面等)通过一条安全加密的中间隧道映射至公网,让外部设备无需配置路由器即可访问。
  • 广泛支持 Windows、macOS、Linux、树莓派、群晖 NAS 等平台,并提供一键安装脚本方便部署。

7.2 安装cpolar

回到刚才的【PowerShell终端】窗口,执行如下命令进行一键安装:

sudo curl https://get.cpolar.sh | sh

image-20260127145907036

安装完成后,执行下方命令查看cpolar服务状态:(如图所示即为正常启动)

sudo systemctl status cpolar

image-20260329211307782

7.3 注册及登录cpolar web ui管理界面

官网链接:https://www.cpolar.com/

访问cpolar官网,点击【免费注册】按钮,进行账号注册:

image-20250804085039567

注册完成后,在浏览器中输入飞牛NAS的IP地址+9200端口访问 web ui管理界面:

http://192.168.50.228:9200/

image-20260406212918527

输入刚才注册好的cpolar账号登录即可进入后台页面:

image-20260127145959685

7.4 穿透New-API实现远程访问

点击左侧菜单栏的【隧道管理】,展开进入【隧道列表】页面,页面下默认会有 2 个隧道:

  • ssh隧道,指向22端口,tcp协议
  • website隧道,指向8080端口,http协议(http协议默认会生成2个公网地址,一个是http,另一个https,免去配置ssl证书的繁琐步骤)

image-20260329211825602

点击【创建隧道】菜单,然后在配置区域填写一个【隧道名称】,本地地址填写【3000】端口,然后点击创建:

image-20260406213324080

创建完成后,来到侧边栏的【状态>在线隧道列表】里面,可以看到刚创建的这条隧道:
image-20260406213547215

以https为例,复制公网地址,访问测试(加载稍慢,需耐心等待一下):

image-20260406213716945

可以看到,页面成功加载,大功告成!现在,即便你身处公司、咖啡厅甚至出差在高铁上,只要手机连着网,输入这个公网地址,就能随时随地“钻”回家里的 NAS 调大模型跑项目,甚至直接把生成的 API 接口和临时 Token 甩给异地的好友白嫖,简直爽到飞起!

8 固定二级子域名

不过,由于我们刚才使用的是免费随机域名,这个地址就像“灰姑娘的魔法”,每隔 24 小时就会强行刷新变脸一次。如果只是图个新鲜玩两天还好,但如果你想把它作为全天候生产力工具,或者接入了自动处理工作流的微信机器人(比如往期咱们提到的 OpenClaw),那每次域名突然失效带来的脱网断连,绝对会让你崩溃到抓狂!

为了让这套自建 AI 站拥有真正的安全感与商业级稳定性,强烈建议升级至 cpolar 的任意基础套餐,配置一个固定、专属的二级子域名。一次配置,终身免维护,再也无需担心半夜接口突然就挂了!

首先,进入官网的预留页面:

https://dashboard.cpolar.com/reserved

然后,选择【预留】菜单,即可看到【保留二级子域名】项,填写其中的【地区、名称、描述(可不填)】项,然后点击【保留】按钮,操作步骤图如下:

image-20260406214631576列表中显示了一条已保留的二级子域名记录:

  • 地区:显示为China TOP
  • 二级域名:显示为newapi01

注:二级域名是唯一的,每个账号都不相同,请以自己设置的二级域名保留的为主

保留后,接着进入侧边菜单栏的【隧道管理】下的【隧道列表】,可以看到名为【newapi】的隧道:

image-20260406214813662

点击【编辑】按钮进入编辑页面,修改域名类型为【二级子域名】,然后填写前面配置好的子域名,点击更新按钮:

image-20260406214849455

接着来到【状态】菜单下的【在线隧道列表】可以看到隧道名称为【newapi】的公网地址已经变更为【二级子域名+固定域名主体及后缀】的形式了:

image-20260406214928945

这里以https访问测试一下:

image-20260406215035035

访问成功!这样一个永久固定不变的地址就设置好啦!

Tips:首页显示的网站地址可以在【系统设置】>【服务器地址】中修改哦~

总结

本教程带你利用手边闲置吃灰的 N1 盒子与飞牛 NAS 环境,极速部署了一个基于 New-API 的大模型聚合中转站。通过将本地跑着的 Ollama 大模型与各类云端 API 集中接管,我们轻松实现了异构接口的无缝转换与核心的密钥额度管控;最后再借用 cpolar 获取固定内网穿透域名,彻底打通了局域网封锁的任督二脉。

这意味着,你成功从一个只能在家里局域网玩单机的大模型初学者,进阶为拥有私人专属高可用“多模型云枢纽”的网络极客!这套折腾组合拳不仅把家里的战损设备性能压榨到了极致,更让你在全世界的任意角落,都能随时随地享受到自由分发和调度 AI 算力的极速爽感!

感谢您阅读本篇文章,有任何问题欢迎留言交流。 cpolar官网-安全的内网穿透工具 | 无需公网ip | 远程访问 | 搭建网站

Share:

发表回复

目录

On Key

推荐文章