开发者文档

模型引用与目录

绝对路径最稳妥

CLI 和 API 都支持传绝对路径:

./omniinfer model load -m /absolute/path/to/model.gguf

相对路径何时可用

如果当前 backend 已配置 models_dir,则可以使用相对路径。

例如:

./omniinfer model load -m Qwen3-0.6B-Q4_K_M.gguf

但这要求该 backend 的模型目录已经指向正确位置。

目录内文件规则

对于 llama.cpp-* 目录加载模式,推荐做到:

  • 一个目录只保留一个主模型 GGUF
  • 如果是 VLM,再附带一个 mmproj GGUF

如果目录里有多个主模型 GGUF 或多个 mmproj GGUF,OmniInfer 会要求你显式指定。

OmniMind

万象智维

Omni Studio 公众号二维码

公众号

Omni Studio 小红书二维码

小红书

© 2025 万象智维科技有限公司. All rights reserved.

京ICP备2025136340号-1