首页
归档
友链
关于
Search
1
网易云音乐黑胶会员月月免费赠送
4,786 阅读
2
十年之约RSS聚合订阅服务上线
4,185 阅读
3
工资发放日的区别
2,996 阅读
4
rsyslogd内存占用过高解决方案
2,733 阅读
5
Nginx反代MinIO后,上传文件签名异常
2,599 阅读
零碎
标本
码海
工具
其他
登录
Search
标签搜索
北京
生活
摄影
Java
旅行
学习笔记
教程
Linux
日记
服务器
软件
SpringBoot
服务
Windows
数据库
福利
Spring
系统
php
SQL
萧瑟
累计撰写
218
篇文章
累计收到
1,601
条评论
首页
栏目
零碎
标本
码海
工具
其他
页面
归档
友链
关于
搜索到
1
篇与
AI
的结果
2025-11-06
在 CNB 云开发中部署 Ollama:零门槛体验 AI 大模型,极速启动指南
背景介绍CODING 标准版已于 2025 年 9 月 1 日正式下线,全新升级的云原生构建(CNB)平台同步上线。该平台整合 "云原生构建"、"云原生开发"、"代码托管"、"制品库"、"AI 助手"、"任务集" 六大核心功能,专注为开发者提供全链路 DevOps 解决方案。其云开发环境配备 H20、L40 等高性能 GPU,在保持环境心跳的情况下,最长可稳定运行 18 小时。更重要的是,运行中的程序可通过 CNB 自动映射为公网地址,极大简化测试流程 —— 这为 AI 大模型的本地试用提供了理想环境。部署 Ollama 完整步骤1.准备仓库Fork Ollama 仓库到个人 CNB 组织,点击 "云原生开发" 进入部署流程2.启动开发环境等待云开发环境初始化完成后,点击 "WebIDE" 进入云开发桌面3.选择模型进入 CNB 的ai-models组织下的Ollama子组织,挑选所需的 AI 大模型4.拉取模型(内网加速)在云开发桌面的终端中执行git clone拉取选定模型(CNB 内网环境下,拉取过程通常不到 1 分钟)5.配置模型路径克隆完成后,通过mv命令将模型文件移动到当前项目的models目录下6.配置端口映射点击云开发界面的 "PORTS" 选项,添加 Ollama 默认端口11434,系统会自动生成对应的公网访问域名7.验证部署结果访问生成的公网域名并拼接路径/v1/models,即可查看当前运行的模型列表8.模型调用方式支持通过第三方工具对接 Ollama API 调用模型可直接在终端中运行测试,实时查看模型响应效果{dotted startColor="#ff6c6c" endColor="#1989fa"/}零门槛玩转 AI 大模型,高效 DevOps 工具一站 get!更多惊喜,尽在 CNB.COOL 等你解锁!
2025年11月06日
132 阅读
0 评论