DeepSeek开源OCR-2模型,梁文锋带队探索新架构_视觉_Token_顺序
出品|搜狐科技
作者|常博硕
编辑|杨锦
临近春节,DeepSeek的更新也越来越频繁了。
刚刚,DeepSeek团队发布了论文《DeepSeek-OCR 2:Visual Causal Flow》,并正式开源了DeepSeek-OCR 2模型。论文三位作者分别是魏浩然、孙耀峰和李宇琨。
要读懂这篇文章,首先要知道的一个问题就是:啥是OCR?
其实,OCR是光学字符识别(Optical Character Recognition)的缩写,基本思路就是让计算机能看懂图像中的文字。比如我们把手机拍摄的***、合同扫描件、书籍照片等转换成计算机可以编辑和搜索的文字内容,这就是OCR。
传统OCR模型通常遵循扫描式的思路,首先检测图像中的文字区域,再一个字一个字或一行一行地识别,这种固定扫描顺序就容易忽略文档的整体结构。但人不是这样的,我们在阅读复杂文档时,通常会先浏览标题然后看看段落表格,会有优先级排序,而不是机械地从左上到右下扫过页面。
现在的问题是,当文档结构复杂到一定程度时,AI就不知道先看哪儿了。像学术论文一般是多栏排版,文章中还有公式与正文交错出现,技术报告中的表格与注释,报纸版面等等这些都对模型提出了超出传统OCR的要求。
所以,DeepSeek新开源的DeepSeek-OCR 2模型其实就是为了让机器阅读更像人而设计的。
提出视觉因果流
DeepSeek-OCR 2作为新一代视觉语言OCR模型,核心创新在于提出了视觉因果流(Visual Causal Flow)的编码器架构。
DeepSeek-OCR 2的整体架构延续了DeepSeek-OCR的“编码器—解码器”设计,其中解码器仍然***用约3B参数的MoE语言模型,编码器部分则升级为DeepEncoder V2。
从论文中看,DeepEncoder V2编码器通过引入语义驱动的顺序重排,使AI能够根据图片内容的逻辑顺序来处理信息,而不再只是按照固定的栅格顺序。
上图示意了DeepSeek-OCR 2的核心架构。左边为传统DeepEncoder,使用CLIP视觉模型,右图为DeepEncoder V2。新的架构使用了语言模型作为视觉编码器(LM as Vision Encoder),并在视觉Token序列后附加了因果查询(learnable query),用于新的阅读顺序排列。
一个关键的点在于,DeepSeek-OCR 2使用了语言模型架构作为视觉编码器。
在DeepEncoder V2中,DeepSeek用一个轻量级语言模型(Qwen2-500M)取代了传统的CLIP ViT。这样做就可以让模型在视觉编码阶段本身就具备序列建模和因果推理能力,使得其与后续的语言解码阶段在建模范式上保持一致。
从架构上看,DeepSeek-OCR 2并未增加视觉token的数量,也没有引入额外的多模态复杂结构,而是通过注意力掩码的重新设计,让“顺序”成为可学习的对象。这使得模型在处理表格、公式、多栏排版等场景时,能够更自然地恢复文档的逻辑结构。
注意力掩码的设计其实十分有意思。在编码器中,视觉token与一组新增的因果流查询token被拼接成一个统一序列,但两者在注意力机制上其实是非对称的。
视觉token之间***用双向注意力,保持与ViT类似的全局建模能力。而查询token之间***用严格的因果注意力,每个query(查询)只能关注其之前的query,同时,每个查询token都可以访问所有视觉token。
在这种注意力掩码的作用下,查询token被迫以序列化方式逐步聚合视觉信息,其内部顺序不再由空间坐标决定,而是在训练过程中,在语义建模目标的驱动下逐步形成更接近人类阅读逻辑的视觉表示序列。
这种设计就和人类阅读文档的方式高度相似,首先获取全局结构,随后在语义理解的引导下,决定接下来该看哪里。
部分表现优于Gemini
在OmniDocBench v1.5基准测试中,DeepSeek-OCR 2在整体准确率上达到91.09%,在使用最少视觉token的情况下,较上一代DeepSeek-OCR提升了3.73%。
在衡量阅读顺序(R-order)的指标编辑距离(Edit Distance)上,DeepSeek-OCR 2从前代的0.085降低到了0.057,证明了新模型不仅识别得更准,结构理解能力也发生了实质变化。
在和Gemini-3 Pro等闭源强模型的对比中,在均使用约1120个视觉Token的情况下,DeepSeek-OCR2的文档解析编辑距离(0.100)也优于Gemini-3 Pro(0.115)。
根据DeepSeek披露的数据,在真实用户日志与PDF批量处理场景中,DeepSeek-OCR 2的重复输出率也有了明显下降。
相比前代模型,DeepSeek-OCR 2在在线用户日志图像中,重复率从6.25%降至4.17%。在PDF数据生产场景中,重复率从3.69%降至2.88%。重复输出往往源于模型对文档结构理解不充分,导致内容会被多次误读,从结果来看,视觉因果流的引入也有效缓解了这一问题。
如果放在更宏观一点的角度,其实DeepSeek-OCR 2还提供了一种新的框架思路,那就是二维视觉理解,是否可以拆解为两层一维因果推理。在这一框架下,编码器负责怎么读内容,解码器负责如何回答,两者共同完成对复杂视觉内容的理解。
这也是DeepSeek在论文最后提出的一个长期方向——原生多模态(Native Multimodality)。如果同一套因果查询机制可以用于视觉、文本甚至音频,那么OCR可能只是这一架构的起点,而不是终点。
正如论文最后所说,虽然光学文本识别,特别是文档解析,是大语言模型时代最实用的视觉任务之一,但它仅占视觉理解领域的一小部分。
展望未来,DeepSeek将向着更通用的多模态智能继续“深度求索”。返回搜狐,查看更多
同类文章排行
- 前端,后端,全栈哪个好找工作?
- 话说南宁真的差吗?
- 为什么成功人士的精力都非常旺盛?
- 如何评价女明星梅根福克斯的身材?
- 为什么hdmi2.1带宽优于dp1.4,还是会推荐dp?
- 成为体育女主播,光「好看」就够了吗?
- 为什么现在贬损文科这么严重?
- 为什么4K显示器看1080P会糊呢?
- 大家在广州的一天是怎么样的呢?
- 现在个人开发ios还有机会吗?
最新资讯文章
- 盒马鲜生和山姆会员店哪家比较好?
- 为什么说 Node.js 有望超越J***a?
- 如何看待 2025 浙江高考杭州二中高分段被镇海宁海学军等校「碾压」?
- 公司规定所有接口都用 post 请求,这是为什么?
- 为什么现在越来越多的人不想要孩子呢?
- Golang 中为什么没有注解?
- 国产轮胎那么便宜,为什么很多人非要买高价的国外轮胎??
- 为什么一部分 Go 布道师的博客不更新了?
- 缅甸的军阀如果关押着数十万的美国人的话,美国会怎么做?
- 2025 年还能等得到 LCD 屏的旗舰机吗?
- 鱼缸能不能做到一直不换水还很清澈?
- 怎么看待三十而已里说的养鱼让人玩物丧志,养鱼是魔鬼,是黑洞,养鱼毁三代鱼缸毁一生的话?
- go 有哪些成熟点的后台管理框架?
- 家里想搞个服务器,有什么好的建议方案吗?
- 有没有可能在安卓手机上直接运行Linux?
- 自研项目,PHP用什么框架最好?
- 本人女20,平胸跟男生一样怎么办 ?
- 为什么有人觉得《庆余年》很垃圾?
- 柳州的债务,谁来还?用什么还?怎么还?
- Golang与Rust哪个语言会是今后的主流?





