如果你是在 Mac 上进行本地大模型开发的极客,那么
3 月 31 日,本地大模型运行方案
根据官方披露的数据,集成 MLX 框架后的
内存管理优化:长对话不再“卡壳”
除了纯粹的速度提升,本次更新还深度优化了内存管理策略:
高效调度: 新版本能更灵活地利用 Mac 的系统统一内存(Unified Memory),即便在长时间、大上下文的会话中,也能保持流畅的交互。
专业建议: 官方建议用户在配备 32GB 或更高内存 的 Mac 上运行,以换取最理想的推理表现。
首发阵营:阿里 Qwen 3.5 率先支持
在预览阶段,这一基于 MLX 加速的版本(Ollama 0.19 预览版)主要针对 阿里旗下的
发表评论取消回复