
Lorqa 是一款适用于 macOS 的 AI 原生翻译和实时字幕应用。 它让文字的转换变得专注而高效——大型语言模型在你的设备上本地运行,将不同语言之间的文字准确而自然地翻译出来。无需网络,也无需担心隐私,一切都在你的电脑中完成。打开任何应用播放的视频(音频)即可开始低延迟精准转录,本地LLM实时翻译,悬浮双语字幕随意拖动并且支持多种自定义。支持25种语言转录,多种模型可选,助力用户看懂外语视频 核心功能: - 本地运行 LLM,支持Qwen3,Gemma3, 现已支持直接导入Ollama和 LM Studio模型 - 离线可用,无网环境下依然工作 - 数据仅存于本地,保护你的内容安全 - 简洁界面,专注翻译,和实时字幕 快捷键设置: 快捷键需要用户在 系统设置/隐私与安全/辅助功能/ + (从应用程序选择Lorqa) 自行设置,方可使用快捷键翻译功能。 关于自动续订 购买确认时,费用将从您的 Apple ID 账户中扣除。订阅将在当前订阅期结束前至少 24 小时未取消的情况下自动续订。在当前订阅期结束前的 24 小时内,您的账户将被扣除续订费用。购买后,您可以前往 App Store 的账户设置管理或取消订阅。 邮箱 [email protected] 条款:https://jdi-app.notion.site/Terms-5a99ba5bf942491b8299c07221bb5f7b 隐私政策:https://jdi-app.notion.site/Privacy-Policy-cdb1be6b87f64c06b7dbea6ffbbad83f 心路历程 翻译是一个很大众的需求,市面上各种各样的翻译软件层出不穷。有很多大公司出手参与此类应用竞争,可以说有很多翻译的解决方案。 过去很长一段时间我日常使用某款翻译软件,很方便只要选中文本快捷键即可完成内容的翻译,在使用过程中也有一些小的可以吐槽的点,例如:翻译速度太慢,翻译的文本数量会受到一些限制,一些长文本还是得通过其他方法。 我发现现在LLM(文本语言模型)也常作为翻译工具来使用,LLM有良好的多语言能力,现在Qwen3,Gemma3,这类小模型也具备很好的翻译能力。在使用LLM翻译的时候有很多的选择,大多数是网页版,也有一部分是本地部署的模型。这些产品通常没有为翻译场景打造出端到端的翻译体验,总是差点意思。 我过去做过PocketLM(移动端的LLM本地推理客户端),对于小LLM的能力水平有一定的了解,并且对于模型不同设备的推理速度和载入速度也很熟悉。于是我开始着手使用LLM打造这个端到端的翻译应用, 整个实现过程也相当顺利,经过测试我发现Qwen3 0.6B 4bit的效果已经和DeepL的翻译能力不相上下,我还同时增加了Qwen3 1.7B ,Gemma3系列模型作为备选为用户提供多重选择。 我制作这个产品的动机非常个人化。我比较关注这个需求是否有其他人真实存在。关于后续的规划也想听听其他人的反馈~