开发者文档

首次对话

加载一个模型

最简单的方式是直接传模型目录:

./omniinfer model load -m /path/to/model-directory

llama.cpp-* 来说,也可以直接传主模型 GGUF:

./omniinfer model load -m /path/to/model.gguf

发起一条文本请求

./omniinfer chat --message "Introduce yourself in one sentence."

默认情况下,CLI 会流式输出结果。

如果你更想等最终完整响应,可以关闭流式模式:

./omniinfer chat --no-stream --message "Explain OmniStudio in one paragraph."

常用的下一步

./omniinfer model list
./omniinfer thinking show
./omniinfer thinking set on
./omniinfer shutdown
OmniMind

万象智维

Omni Studio 公众号二维码

公众号

Omni Studio 小红书二维码

小红书

© 2025 万象智维科技有限公司. All rights reserved.

京ICP备2025136340号-1