开发者文档

llama.cpp 引擎

llama.cpp 仍然是当前 OmniStudio 客户端形态下最核心的后端家族之一。

特点

  • 支持 GGUF 格式模型
  • CPU 推理稳定,并支持多种 GPU 相关后端
  • 可运行在 Windows、macOS、Linux
  • 支持从 Q2_KF16 的多种量化
  • 具备 OpenAI 兼容 server 语义

Windows / macOS 相关 backend

  • Windows:llama.cpp-cpullama.cpp-cudallama.cpp-vulkanllama.cpp-syclllama.cpp-hipllama.cpp-windows-arm64
  • macOS:llama.cpp-macllama.cpp-mac-intel

查看当前 runtime 版本

源码仓库模式下,典型路径例如:

.\.local\runtime\windows\llama.cpp-cpu\bin\llama-server.exe --version

或在发布包中:

.\runtime\llama.cpp-cpu\bin\llama-server.exe --version

macOS 同理,可在对应 runtime.local/runtime 目录下查看。

OmniMind

万象智维

Omni Studio 公众号二维码

公众号

Omni Studio 小红书二维码

小红书

© 2025 万象智维科技有限公司. All rights reserved.

京ICP备2025136340号-1