1)
随着 LLM-based 翻译(实际上是「按照源语言的原意重写到目标预言,并解释必须的源语言文化现象」)逐渐成熟,我做了一个 Coze 机器人,功能是我把 web clipper 抓下来的 Markdown 格式英语/日语文档发给它,它回复给我翻译到简体中文的文章。

我本科毕业于国内最好的英语系之一,拿到了保研资格(纯成绩排名,走不了关系),有同传经验(青春饭,现在干不动了),专八持证,做过桌面和手机操作系统的 en_US 国际化…… 应该是国内最符合「那些直接阅读英语原文的人」刻板印象的一群人。

但是实际上,到了今天这个阶段,我读中文的速度还是会明显比读英文要快一些,理解得也会更深入。当 AI 大模型大幅提升了机器翻译的质量以后,我就毫不犹豫地把各种新闻和时评类文章先翻译成中文再看。

2)
今天主流 LLM 的中·英笔译水平(DeepSeek、ChatGPT、甚至是豆包),是明显比绝大部分大学本科英语系学生和老师的水平要高的。

我自己曾经在大三大四必修了笔译课程,所以我很清楚当年我们和我们的老师的翻译水平是什么样。在绝大多数情况下,LLM 的水平都秒杀当年的我们这些预备役人肉翻译和人肉翻译教练。真·秒杀。

我甚至觉得在 LLM 随处可以获得的今天,国内四年制英语语言文学专业在大三大四设置的笔译课程教学和作业,很可能本身已经没有什么太多的实际意义了:

一方面,由于 LLM 的惊人能力,学生们毕业之后,雇主们【使用人肉来对应这些翻译需求】的场景几乎要不存在了;

另一方面,学生们可以轻易借助任何一个 LLM chatbot(国内基本都是免费的)做出比官方标准答案更好的答案。甚至轻易地提供 5+ 种不同风格和长度的、比标准答案更好的答案。

3)
过去的十几年时间,国内媒体和科技圈的一个主流说法是「如果一个文本最初是用英语写成的,那你应该学好英语,去读原文」。

这个说法在过去基本上是正确的,因为在那个时候,人肉笔译的水平是很有限的,机翻(Google Translate / 后来的各种基于 DeepL 路线的解决方案)的水平比人肉更差。本质上,你不应该信任大部分人肉翻译、和所有的机翻方案。

但是今天,情况是完全不同的。对于日常生活中绝大多数的文本内容,你都应该优先考虑用 LLM 翻译(重写)到简体中文,从而充分利用你的母语优势。而不是去无差别地阅读英语原文。

4)
AI 机翻能力突飞猛进的最近两年,我会常常想起在 2008 年我上大一的时候,行业内(专业内)对于翻译工作将来职业前景的讨论。

彼时,有道词典和金山词典仅能胜任单词翻译、Google Translate 可用性很差、北京要举办奥运会所以对于有外语翻译能力的人需求很大。

那个时候,大部分人会觉得机器替代不了人肉翻译。随着经济发展,翻译类岗位会越来越多。

我是当时少数不这么看的人,我觉得大家对技术进步的【远期】预估,是过于保守的。很可能在我们这一代人退休之前,机器翻译的能力就会大幅提升,大部分的人肉笔译岗位就已经不存在了。

事实证明,即使是我的预估,其实也是过于保守了。我今年 36 岁,基于现在的这个情况,很有可能在我们这一代人 40 岁之前,大部分的人肉笔译岗位就已经不存在了。
DeepSeek-Prover-V2 通过利用大型语言模型 DeepSeek-V3 进行子目标分解和生成形式化草图,结合递归式证明解决、创新的冷启动数据合成及强化学习策略,显著提升了 Lean 4 形式化定理证明的能力,达到了新的 SOTA 水平,并有效缩小了非形式化与形式化数学推理之间的差距。https://mapp.api.weibo.cn/fx/49d7a0b3c9256b7b608ffe3a460d7bfa.html
IBM 刚发布了 granite-4.0-tiny-7B-A1B-preview 使用了 Mamba-2 / Transformer 架构。每个 Transformer 块有 9 个 Mamba 块。基本上,Mamba 块有效地捕捉全局上下文,并将其传递给注意力层,以进行更细致的局部上下文解析。

从 MMLU 分数上看感觉不错(MMLU专注日常任务,比如识别门牌号啥的),IBM也 ​​​https://mapp.api.weibo.cn/fx/29150b6943998525fac67af79515fbe6.html
看到一个如何训练领域特定模型的文章写得非常好,作者使用 GRPO 微调了 qwen2.5-coder-7B, 实现了一个生成日程表的大模型。并且不光有教程,还有代码,模型。感兴趣的同学可以参考这个学习

教程地址:huggingface.co/blog/anakin87/qwen-scheduler-grpo
代码地址: ​​​https://mapp.api.weibo.cn/fx/d8bbc474e4a04f29c66bfa55c4675104.html
Back to Top