首页
归档
友链
关于
Search
1
网易云音乐黑胶会员月月免费赠送
5,086 阅读
2
十年之约RSS聚合订阅服务上线
4,269 阅读
3
工资发放日的区别
3,048 阅读
4
rsyslogd内存占用过高解决方案
2,783 阅读
5
Nginx反代MinIO后,上传文件签名异常
2,642 阅读
零碎
标本
码海
工具
其他
登录
Search
标签搜索
北京
生活
摄影
Java
旅行
学习笔记
教程
日记
Linux
服务器
软件
SpringBoot
服务
Windows
数据库
福利
Spring
系统
php
SQL
萧瑟
累计撰写
222
篇文章
累计收到
1,664
条评论
首页
栏目
零碎
标本
码海
工具
其他
页面
归档
友链
关于
搜索到
1
篇与
llm
的结果
2026-03-12
Dify添加模型max_tokens_too_small异常
环境信息Dify版本:1.10.1插件版本:OpenAI-API-compatible 0.0.36异常问题添加自定义模型出现 {"error":{"code":"max_tokens_too_small","message":"max_tokens must be at least 10 (request id: xxxxx)"}} 错误;通过GitHub提问,目前是已知问题:与 OpenAl-API 兼容的插件在进行凭证验证时使用了固定的“max_tokens: 5”设置,低于许多模型所要求的最小令牌数5;修改方法docker部署解决方案:找到映射的目录文件:docker/volumes/plugin_daemon/cwd/langgenius/openai_api_compatible-0.0.**@**/.venv/lib/python3.12/site-packages/dify_plugin/interfaces/model/openai_compatible/llm.py找到 validate_credentials_max_tokens = credentials.get("validate_credentials_max_tokens", 5) or 5 进行修改修改为5为16或者更高,就可以解决这个问题。参考文档issues 1694 issues 2710
2026年03月12日
11 阅读
0 评论