
2025 年 12 月 19 日,ollama 正式发布了 v0.13.5,这一次的更新规模颇为可观:合并了 10 次提交,涉及约 150 个文件,新增代码超过一万行,同时删除了近七千行旧代码。版本迭代的重点集中在模型兼容、引擎性能、工具系统表达以及底层推理优化等核心环节。
这一版本首次在 ollama 生态中引入了 Google 的 FunctionGemma 模型,并为其配套了解析器与渲染器,使其可以以原生方式执行函数声明、调用和响应等结构化任务。配合 SentencePiece 分词器的升级,系统新增了函数相关符号的识别逻辑,确保普通 token 与控制 token 的区分在多模型运行中保持精准。
在架构支持上,BERT 体系迎来了统一调整:无论是标准 BERT 还是 nomic-bert,都归入 Ollama Engine 的执行路径,并且正式支持 flash attention。这不仅使各类 BERT 模型拥有更一致的推理体验,也为未来扩展打下了稳定基础。
DeepSeek 系列也获得了新能力。v0.13.5 为 DeepSeek-V3.1 增加了内置渲染与工具解析能力,尤其是嵌套属性的处理逻辑被修复和加强。同时,API 层新增了 ToolProperty 的深度嵌套支持,可以定义多级对象结构,并通过测试覆盖了多种复杂场景,让工具调用的参数表达更加接近主流大模型标准。
底层部分,GGML 的版本引用已更新至最新上游,并同步修改构建配置。KV Cache 与因果掩码构建也进行了精简——移除冗余逻辑、优化掩码生成方式,从而降低推理阶段的内存占用并提升稳定性。llama.cpp 相关代码则在模型加载、上下文创建和采样器初始化等环节进行了系统化整理,减少重复路径、改进容错处理,并提高了采样参数解析的一致性。
此外,还有一系列维护性更新:清理旧代码、完善类型定义、回滚 granite-embedding 变更、补充同步规则等。这些看似细微的改进,实则提升了整个架构的可靠性与可维护性。
总体而言,v0.13.5 是一次以基础能力强化和架构统一为方向的重磅更新。无论是使用 BERT、DeepSeek 还是 FunctionGemma 的开发者,都能在这一版本中体验到更稳定、更高效、更灵活的运行环境,同时也为未来功能拓展预留了充足空间。
你对这一系列升级中哪一项最期待,或者认为哪一项能给你的工作带来直接帮助?欢迎在评论区聊聊你的看法。
配资门户网址提示:文章来自网络,不代表本站观点。