开发者文档

核心概念

概念 说明
Backend 实际负责执行推理的运行后端,例如 llama.cpp-linuxllama.cpp-linux-rocm
Runtime 某个 backend 对应的本地可执行文件、动态库、日志目录和模型目录
Gateway OmniInfer 本地服务层,负责后端生命周期和 API 代理
Backend Profile 后端专属高级配置文件,存放 backend-native 参数
Model 模型本体。对 llama.cpp-* 通常是 .gguf 文件或包含单个主模型 GGUF 的目录
mmproj 多模态投影文件,VLM 处理图像时常用
Context Length 单次请求可处理的上下文窗口大小
Launch Args backend 启动参数,例如 -ngl-c-np
Request Defaults 模型加载后保存的默认推理参数,例如 temperaturemax_tokens
Thinking 推理请求中的默认思考开关,OmniInfer 可在 CLI 与 Gateway 侧统一管理
OmniMind

万象智维

Omni Studio 公众号二维码

公众号

Omni Studio 小红书二维码

小红书

© 2025 万象智维科技有限公司. All rights reserved.

京ICP备2025136340号-1