AI摘要:CNB云开发平台为开发者提供全链路DevOps解决方案,配备高性能GPU,可稳定运行18小时。部署Ollama的步骤包括准备仓库、启动环境、选择模型、拉取模型、配置路径、端口映射、验证结果和调用模型,操作简单高效。
背景介绍
CODING 标准版已于 2025 年 9 月 1 日正式下线,全新升级的云原生构建(CNB)平台同步上线。该平台整合 "云原生构建"、"云原生开发"、"代码托管"、"制品库"、"AI 助手"、"任务集" 六大核心功能,专注为开发者提供全链路 DevOps 解决方案。
其云开发环境配备 H20、L40 等高性能 GPU,在保持环境心跳的情况下,最长可稳定运行 18 小时。更重要的是,运行中的程序可通过 CNB 自动映射为公网地址,极大简化测试流程 —— 这为 AI 大模型的本地试用提供了理想环境。
部署 Ollama 完整步骤
1.准备仓库
Fork Ollama 仓库到个人 CNB 组织,点击 "云原生开发" 进入部署流程

2.启动开发环境
等待云开发环境初始化完成后,点击 "WebIDE" 进入云开发桌面


3.选择模型
进入 CNB 的ai-models组织下的Ollama子组织,挑选所需的 AI 大模型

4.拉取模型(内网加速)
在云开发桌面的终端中执行git clone拉取选定模型(CNB 内网环境下,拉取过程通常不到 1 分钟)
5.配置模型路径
克隆完成后,通过mv命令将模型文件移动到当前项目的models目录下

6.配置端口映射
点击云开发界面的 "PORTS" 选项,添加 Ollama 默认端口11434,系统会自动生成对应的公网访问域名


7.验证部署结果
访问生成的公网域名并拼接路径/v1/models,即可查看当前运行的模型列表

8.模型调用方式
- 支持通过第三方工具对接 Ollama API 调用模型
- 可直接在终端中运行测试,实时查看模型响应效果

零门槛玩转 AI 大模型,高效 DevOps 工具一站 get!更多惊喜,尽在 CNB.COOL 等你解锁!
评论 (0)