开发者文档

引擎与框架

OmniStudio 通过 OmniInfer 的多后端抽象架构支持不同的推理引擎,并由中间调度层根据硬件和模型需求选择更合适的运行后端。

OmniInfer 架构图

当前后端规划

后端引擎 分支 说明 状态
llama.cpp main 基于 GGML 的推理引擎,社区成熟,兼容 GGUF 可用
OmniInfer Native feature/llm-backend 自研引擎,面向深度性能优化 开发中
MNN 阿里巴巴移动端推理框架 规划中
MLX Apple Silicon 原生推理框架 规划中
ET (ExecuTorch) Meta 的边缘推理框架 规划中
vLLM 高吞吐量推理引擎 规划中

使用建议

  • 当前可用能力以 llama.cpp 为主。
  • 规划中的后端并不代表当前版本已经可直接使用。
  • 具体支持情况请以实际发布版本和运行环境为准。
OmniMind

万象智维

Omni Studio 公众号二维码

公众号

Omni Studio 小红书二维码

小红书

© 2025 万象智维科技有限公司. All rights reserved.

京ICP备2025136340号-1