模型引用与目录
绝对路径最稳妥
CLI 和 API 都支持传绝对路径:
./omniinfer model load -m /absolute/path/to/model.gguf
相对路径何时可用
如果当前 backend 已配置 models_dir,则可以使用相对路径。
例如:
./omniinfer model load -m Qwen3-0.6B-Q4_K_M.gguf
但这要求该 backend 的模型目录已经指向正确位置。
目录内文件规则
对于 llama.cpp-* 目录加载模式,推荐做到:
- 一个目录只保留一个主模型 GGUF
- 如果是 VLM,再附带一个
mmprojGGUF
如果目录里有多个主模型 GGUF 或多个 mmproj GGUF,OmniInfer 会要求你显式指定。



