全部动态

太魔幻了!本地 AI 还在被问能不能用,海外用户已经开始催更 Omni Studio 了

04/16 2026

Omni Studio 全网上线后,海外评论区先热闹起来了。

海外用户对 Omni Studio 的评论截图

但这波热闹,和以前不太一样。

以前大家聊本地 AI,最常见的问题是:

能不能跑?

要不要折腾环境?

手机到底带不带得动?

装完是不是只能体验五分钟?

这次不一样。

Gemma 4 上线 Omni Studio 之后,海外用户已经直接跳过“能不能用”这一步,开始问下一题了。

比如,8GB RAM 到底够不够?

E2B 和 E4B 应该怎么选?

图像理解到底怎么样?

还有人更直接,已经开始催 iOS 上更轻一点的版本了。

画风一下就变了。

海外用户关于 8GB RAM 与模型版本选择的评论

真正让这条评论显得重要的,不是态度,而是问题本身。

它关心的已经不是“Gemma 4 上了没有”,

而是一个更具体、也更接近现实的问题:

2B 模型在 agentic workload 下的承载能力如何,

8GB RAM 这样的设备边界意味着什么,

不同版本之间的差异,最终会怎样体现在使用体验上。

当讨论开始进入这一层,本地 AI 的意义也就不再停留在“可以运行”,

而是开始逼近“可以使用”。

另一部分用户关注 Omni Studio 多模态处理能力,

海外用户关于 Omni Studio 图像理解能力的评论

它没有去强调某一个夸张的单点突破,而是给出了一个更接近真实使用感受的判断:

图像理解是在线的,除此之外,整体体验也足够稳定、足够顺滑,没有明显短板。

这类反馈往往比一句“amazing”更有参考价值。

因为它对应的,不是短时间的惊喜感,而是一个产品是否能被真正留下来的基本条件。

对于本地 AI 来说,能够在图像理解之外,仍然让用户感到“everything else”也成立,本身就已经说明问题。

海外用户希望 Omni Studio 提供更轻量 iOS 版本的评论

这句看似是在提需求,其实透露出的信息更多。

用户关心的已经不是“有没有 iOS 支持”,

而是更进一步地追问:在移动端场景里,模型还能不能继续压缩、继续优化,变得更适合长期使用。

这意味着,讨论已经越过了“能不能上手机”这一层,

开始进入“怎样才能更适合手机”这一层。

而这种追问本身,往往只会发生在一个产品已经进入真实考虑范围之后。

换句话说,用户已经不是把它当作一次更新来看,而是在把它放进自己的设备场景里衡量。

海外用户对 Omni Studio 的正向反馈截图

更值得注意的,其实是评论区里这类更泛化的正向反馈。

有些评价很短,甚至只有一句简单的感叹;

有些则给得非常直接,把 Omni Studio 称作自己用过的最好的本地 AI 产品之一。

这类评论未必展开很多技术细节,但它们共同传递出的信息很清楚:

在一部分海外用户眼里,Omni Studio 已经不只是一个“支持本地部署”的工具,而是一个整体体验足够成立的本地 AI 产品。

说到底,这些海外评论之所以有意思,不只是因为它们是好评。

更重要的是,它们让我们看到,Omni Studio 留给用户的,已经不只是“本地能跑”这一个印象。

从 8GB RAM 能不能用,到 E2B 和 E4B 怎么选,再到 iOS 上能不能继续做得更轻,大家讨论的已经不只是模型有没有接进来,而是它究竟能不能真正留在自己的设备里,进入真实的使用场景。

而这也正是 Omni Studio 一直想做的事情。

它不是一个模型本身,而是一个面向全设备的本地大模型运行与管理平台。基于自研 OmniInfer 推理引擎,Omni Studio 持续整合底层推理能力、优化部署流程、适配更多终端环境,希望把原本复杂、割裂、容易劝退的本地大模型体验,变成一件更简单、更统一、也更容易上手的事。

目前,Omni Studio 已覆盖 Android、iOS、macOS、Windows、Linux 五大平台。其中,Android、macOS、Windows、Linux 版本可直接前往官网下载安装,

Omni Studio 官网下载入口截图

iOS 用户则可在 App Store 直接下载体验:

Omni Studio App Store 下载入口截图

这一次,不妨直接在你自己的设备上试试看:

本地 AI,到底已经走到哪一步了。

我们也在持续建设端侧 AI 开发者社区,如果你对本地 AI、Agent 或端侧推理感兴趣,欢迎加入交流。

Omni Studio 社区二维码
万象智维分隔图

万象智维 Omnimind 依托清华大学泛在智能实验室(THU OmniLab)团队孵化成立,是一家聚焦端侧智能与协作智能方向的创新型科技公司。公司秉持“让智能真正发生在端侧”的技术愿景,致力于将前沿学术研究成果转化为可落地、可规模化的端侧智能系统与解决方案,推动智能计算从云端走向终端、从中心走向协同。

公司核心团队成员来自清华大学、北京大学、上海交通大学、浙江大学、密歇根大学安娜堡分校、加州大学圣地亚哥分校,以及腾讯、阿里、字节、华为、微软等顶尖高校与互联网企业。团队长期聚焦端侧模型轻量化与高效推理、端侧模型系统优化与计算加速、多端协作与端云协同推理等关键方向,持续推进系统性的技术攻关与工程实践,在相关领域形成了扎实的技术积累与较强的行业影响力。近年来,团队先后主持多项国家自然科学基金重点项目、专项重点项目、优秀青年科学基金项目及国家重点研发计划课题等国家级科研任务,并与华为、荣耀、蚂蚁、字节跳动等头部企业建立了紧密的学术与技术合作关系。

Website: https://omnimind.com.cn

Github: https://github.com/omnimind-ai

Email: info@omnimind.com.cn