DeepSeek开源OCR模型:文本识别更强,单卡日训超20万页

人工智能领域迎来一项重大突破——DeepSeek公司近日在GitHub平台开源了一款创新的OCR模型,同时发表了技术论文《DeepSeek+OCR:上下文光学压缩》。这项技术通过视觉模态实现文本信息的高效压缩,为解决大语言模型处理长文本时的计算瓶颈提供了全新思路。
研究团队发现,现有大语言模型在处理超长文本时面临显著的计算压力。为此,他们创新性地将文本信息转化为视觉模态,运用“一图胜千言”的原理大幅减少Token消耗。实验数据显示,这种光学压缩技术可实现近10倍的无损上下文压缩,同时保持97%以上的OCR准确率。在A100-40G显卡环境下,单日可生成超过20万页的模型训练数据。
该模型采用双组件架构设计:DeepEncoder编码器负责图像特征提取与压缩,DeepSeek3B-MoE解码器则从压缩后的视觉Token中重建文本。解码器采用混合专家(MoE)架构,在300亿参数规模中仅激活约5.7亿有效参数,兼顾了模型表达能力与推理效率。当压缩率控制在10倍以内时,OCR精度稳定在97%;即使压缩率提升至20倍,准确率仍维持在60%左右。
研究团队提出了更具前瞻性的设想——模拟人类记忆衰退机制。通过逐步缩小历史上下文的图像渲染尺寸,实现Token消耗的递减免压缩。随着图像尺寸缩小,内容清晰度相应降低,最终达到类似人类记忆的渐进式遗忘效果。这种设计为处理无限上下文信息提供了理论可能,目前该方向仍处于早期探索阶段。
项目核心成员包括Haoran Wei、Yaofeng Sun和Yukun Li三位研究员。其中Haoran Wei曾主导开发第二代OCR系统GOT-OCR2.0,具备深厚的技术积累。该模型开源后迅速获得业界关注,GitHub平台累计获得超过1400个星标。
尽管市场对DeepSeek未发布R2新模型存在争议,但此次技术突破显示公司正专注于底层技术创新。光学压缩技术不仅优化了现有模型性能,更为下一代大语言模型的发展开辟了新路径。这种将文本与视觉信息深度融合的研究方向,可能成为通向通用人工智能的重要突破口。
免责声明
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
阿里“C计划”聚焦对话AI,直指字节豆包竞争新局
近日,有消息人士透露,阿里巴巴旗下智能搜索平台夸克正在低调推进一项名为“C计划”的AI业务项目。该项目由夸克核心研发团队牵头,并邀请通义实验室多位资深专家参与,主要聚焦对话式AI领域的创新应用。据知
马斯克:Grok 5实现AGI概率达10%,2025年底前将持续提升
埃隆・马斯克近日在社交平台X上透露了关于其旗下xAI公司新产品的关键预测。据他描述,该公司正在研发的大型语言模型Grok 5,有10%的概率能够达成通用人工智能(AGI)的目标,且这一概率呈现上升趋
国产数据平台如何借力Databricks+OpenAI破局?
在人工智能技术飞速发展的当下,企业如何高效、安全地接入AI,成为业界关注的焦点。近日,全球领先的数据智能平台Databricks与知名大模型公司OpenAI宣布达成多年期战略合作,这一举动不仅标志着
亚马逊云科技峰会聚焦:助力软件企业出海与AI业务创新
2025亚马逊云科技软件企业峰会暨亚马逊云科技Marketplace全球卖家峰会近日在深圳圆满落幕。此次峰会汇聚了众多行业专家与企业代表,共同探讨软件企业在全球化进程中的机遇与挑战,以及AI技术如何
AI Agent:从多面手到专家,重塑企业市场价值与生态协同
当通用大模型的热潮逐渐退去,AI Agent正经历一场从“技术炫技”到“价值深耕”的转型。市场关注的焦点,已从“模型参数有多大”转向“业务理解有多深”。这场转变背后,是企业对AI落地效果的迫切需求—
热门推荐
热门教程
更多- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程



















