香港大学揭示AI推理训练中的对称性陷阱
这项由香港大学、清华大学和中山大学联合开展的突破性研究发表于2026年2月,论文编号为arXiv:2602.05548v2。研究团队深入分析了目前最先进的AI推理训练方法GRPO(Group Relative Policy Optimization)中一个被忽视但极其重要的问题。有兴趣深入了解的读者可以通过该论文编号查询完整研究内容。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

当我们训练AI模型解决复杂数学问题时,就像教一个学生做题一样。理想情况下,学生应该既能掌握已知的解题方法,又敢于尝试新的思路。然而研究团队发现,目前广泛使用的GRPO训练方法存在一个致命缺陷:它会让AI变得过于保守,只会重复已经掌握的方法,而不敢探索新的解决途径。
这个问题的根源在于GRPO算法内部存在一种"隐性对称性"。可以把这种现象比作一个天平:当AI找到正确答案时会得到奖励,找到错误答案时会受到惩罚,而这两种奖惩的力度总是完全相等的。这种看似公平的平衡实际上创造了一个意想不到的副作用——AI对那些从未尝试过的新方法保持完全的漠视态度,就像一个从不敢走没走过的路的人。
更令人惊讶的是,这种对称性还体现在另一个层面:GRPO倾向于将更多注意力放在中等难度的问题上,而对简单和困难的问题给予相同程度的忽视。这就像一个老师总是重点关注中等生,而对学困生和优等生都缺乏针对性指导。
为了解决这个问题,研究团队开发了一种名为"非对称GRAE"(A-GRAE)的新方法。这种方法巧妙地打破了原有的对称性,让AI既敢于探索新方法,又能根据学习阶段调整对不同难度问题的关注重点。
一、传统方法的"对称陷阱"究竟是什么
要理解这个问题,我们可以把AI的学习过程比作一个学生在题海中寻找宝藏。传统的GRPO方法就像给学生制定了一套严格的奖惩规则:做对一道题得到的奖励,和做错一道题受到的惩罚,在数值上总是完全相等的。
研究团队通过深入的数学分析发现,这种"公平"的奖惩机制实际上产生了两个意想不到的负面效应。第一个效应发生在"群体层面":当AI处理一批问题时,所有正确解答获得的权重总和,总是等于所有错误解答的权重总和。这听起来很公平,但问题在于,这种严格的平衡让AI对那些从未尝试过的新方法完全无动于衷。
这就好比一个学生在考试时,只会反复使用那几种已经熟练掌握的解题方法,即使看到题目有更简洁的解法,也不敢尝试,因为系统没有给他任何探索新方法的动力。更糟糕的是,即使有一种全新的、更优秀的解题思路存在,只要学生之前没有尝试过,这种方法就永远不会被发现和采用。
第二个效应体现在"样本层面":GRPO算法在分配注意力时存在明显偏见。研究团队通过数学推导证明,当成功率为50%的中等难度问题会获得最多关注,而那些成功率为25%的困难题目和成功率为75%的简单题目,尽管难度差异巨大,却获得完全相同的关注度。
这种现象就像一位老师在课堂上总是把大部分时间花在帮助中等生上,而对学困生和优等生都给予相同程度的忽视。对于学困生来说,他们最需要基础训练,但却得不到足够的指导;对于优等生来说,他们需要更有挑战性的题目来提升能力,但老师的注意力却不在他们身上。
研究团队发现,随着训练的进行,这种偏见会变得更加严重。因为AI的整体能力在提升,原本困难的题目变得相对简单,而真正困难的题目所占比例越来越小。这就导致AI越来越倾向于在那些对它来说已经不太困难的问题上浪费时间,而对真正具有挑战性的问题投入不足。
更深入的分析显示,这种对称性实际上限制了AI的"探索边界"。研究团队通过理论分析证明,在GRPO的框架下,那些概率很低但可能正确的解题路径,其概率值会始终保持不变,永远不会得到提升。这意味着AI永远无法发现那些需要创新思维才能找到的解决方案。
这个发现具有重要意义,因为在现实世界中,许多重要的科学发现和技术突破都来自于那些最初看起来不太可能的想法。如果我们的AI系统从根本上就缺乏探索这些"不太可能"路径的能力,那么它们在面对真正需要创新的问题时就会显得力不从心。
二、打破对称性的实验验证
为了验证这些理论发现,研究团队设计了一系列精巧的对比实验。他们就像科学家研究药物效果一样,通过改变算法的某些关键参数,观察AI行为的变化。
在第一组实验中,研究团队故意打破了群体层面的对称性。他们创建了三个不同的实验组:第一组维持原有的平衡状态作为对照组;第二组人为地放大正确答案的奖励(称为"正向主导组");第三组则相反,减少正确答案的奖励权重(称为"负向主导组")。
实验结果出人意料。正向主导组的表现并没有如预期那样提升,反而在处理复杂问题时表现更差。深入分析发现,过分强调正确答案的奖励导致AI变得过分谨慎,它开始过度优化那些已经掌握的方法,失去了尝试新思路的勇气。这种现象被研究团队称为"熵坍塌",就像一个本来活泼好动的孩子突然变得畏手畏脚,不敢尝试任何新事物。
相比之下,负向主导组的表现却令人眼前一亮。当研究团队减少正确答案的奖励权重时,AI反而开始表现出更强的探索精神。它不再满足于重复使用熟悉的方法,而是开始尝试各种新的解题思路。在测试中,这种方法在处理复杂问题时表现特别突出,甚至在需要尝试多种不同方法的场景下超越了原始方法。
然而,负向主导组也暴露出一个严重问题:训练的稳定性变差了。就像一个过分大胆的探险者,虽然可能发现新大陆,但也更容易迷失方向。在某些情况下,AI会变得过分"冒险",开始尝试一些明显错误的方法,导致整体性能的不稳定。
第二组实验聚焦于样本层面的对称性。研究团队创建了两个实验组:一个专注于困难问题的"困难优先组",另一个专注于简单问题的"简单优先组"。这次的发现更加有趣。
困难优先组在处理最具挑战性的问题时确实表现出色,但在相对简单的任务上却显得力不从心。这就像一个专门训练举重的运动员,虽然能够举起很重的杠铃,但在需要精细动作的任务上反而不如普通人灵活。
简单优先组则呈现出完全相反的特征:它在基础任务上表现优异,但面对真正有挑战性的问题时就显得准备不足。更重要的是,研究团队在训练过程的动态观察中发现了一个关键现象:简单优先组在训练初期进步神速,但很快就遇到了性能瓶颈;而困难优先组在初期进步缓慢,但在后期却能够实现持续的性能提升。
这个发现让研究团队意识到,不同难度的问题在AI学习的不同阶段发挥着不同的作用。简单问题就像学习的基石,帮助AI建立扎实的基础知识和基本技能;困难问题则像是挑战的高峰,推动AI突破现有能力的边界。
通过对训练过程中正确答案数量变化的仔细追踪,研究团队发现了一个有趣的现象:简单优先组在训练早期能够快速积累正确答案,这为后续的学习奠定了良好基础;而困难优先组虽然在早期进步缓慢,但一旦突破某个临界点,其进步速度就会显著加快,最终在整体性能上超越其他方法。
这些实验结果共同指向一个重要结论:单纯的对称性确实限制了AI的学习潜力,但简单的不对称调整也不是万能药。真正需要的是一种能够动态平衡探索与稳定、基础与挑战的智能方法。
三、创新解决方案的诞生
基于这些深入的实验观察,研究团队开发了一种名为"非对称GRAE"(A-GRAE)的创新方法。这种方法就像一个智慧的教练,能够根据学生的学习阶段和能力水平,动态调整训练策略。
A-GRAE的核心思想是打造一个"双重动态系统"。在群体层面,它采用了一种称为"衰减抑制策略"的巧妙方法。这种策略不像之前实验中的简单粗暴调整,而是根据AI当前的能力水平来精细调节对正确答案的奖励程度。
具体来说,当AI还是"新手"时,系统会显著降低正确答案的奖励权重,鼓励它大胆尝试各种可能的解法。这就像教练在训练初期告诉运动员:"不要害怕失败,多尝试不同的动作。"随着AI能力的提升,系统逐渐恢复正常的奖励机制,确保学习过程的稳定性。这种设计巧妙地解决了之前负向主导组遇到的稳定性问题。
在样本层面,A-GRAE实现了"动态难度关注转移"。系统会持续监控AI的整体表现水平,用这个水平作为调整训练重点的依据。当AI还处于基础能力建设阶段时,系统会将更多注意力分配给相对简单的问题,帮助AI建立扎实的基础。随着AI能力的提升,系统逐渐将重点转向更具挑战性的问题。
这种转移过程是渐进式的,不是突然的切换。研究团队设计了一个优雅的数学公式,让系统能够平滑地在"简单优先"和"困难优先"之间进行过渡。公式中包含一个反映AI当前能力的动态参数,这个参数会随着训练的进行自动更新。
更巧妙的是,A-GRAE的两个组件之间存在协同效应。群体层面的探索激励为AI提供了尝试新方法的勇气,而样本层面的动态调整则确保这种探索是有方向性的。这就像一个既鼓励学生勇敢尝试,又能根据学生进步情况调整教学重点的优秀老师。
为了验证A-GRAE的有效性,研究团队在七个不同的测试基准上进行了全面评估。这些基准涵盖了从基础数学推理到复杂视觉数学问题的广泛范围。测试结果显示,A-GRAE不仅在单一指标上表现优异,更重要的是在所有测试场景下都能保持稳定的性能提升。
特别值得注意的是,A-GRAE在"多样性指标"上的表现尤为出色。这个指标衡量的是AI能否找到多种不同的正确解法,而不是仅仅依赖一种固定模式。结果显示,使用A-GRAE训练的AI在面对同一个问题时,能够想出更多不同的解决方案,这正是原始GRPO方法所欠缺的能力。
研究团队还发现,A-GRAE的优势在处理真正困难的问题时表现得最为明显。在AIME 2025这样的高难度数学竞赛题目上,A-GRAE相比传统方法的性能提升达到了13%以上。这个提升幅度在AI领域是相当显著的,表明新方法确实解决了传统方法的核心痛点。
四、跨领域验证的惊喜发现
为了验证A-GRAE的普适性,研究团队将其应用到了完全不同的领域——多模态AI,也就是能够同时理解图像和文本的AI系统。这就像测试一种新的教学方法是否不仅适用于数学课,也适用于物理课和化学课。
在几何问题解答任务中,AI需要同时理解图形和文字描述才能给出正确答案。这类问题的复杂性远超纯文本数学题,因为AI必须具备视觉理解能力。测试结果显示,A-GRAE在这个领域同样表现出色,相比传统方法的改进幅度达到了1-3个百分点。虽然数字看起来不大,但在这个技术要求极高的领域,这样的提升已经是非常显著的进步。
更令人兴奋的发现出现在医学影像分析领域。研究团队将A-GRAE应用于医学视觉问答任务,让AI学习如何根据X光片、CT扫描和MRI图像回答医学问题。这类任务对准确性要求极高,因为错误的判断可能影响患者的治疗。
在这个极具挑战性的应用场景中,A-GRAE展现出了令人印象深刻的性能。在X光片分析任务中,性能提升达到了8个百分点;在CT扫描分析中提升了1.4个百分点;在MRI分析中也有显著改善。这些结果表明,A-GRAE的核心优势——平衡探索与稳定、适应不同难度级别——在需要高度专业知识的医学领域同样有效。
研究团队还进行了一项特别重要的测试:检验A-GRAE是否能够在保持专业领域性能的同时,维持在一般领域的表现。这个测试的重要性在于,许多AI系统在专门化训练后会失去处理一般问题的能力,这种现象被称为"灾难性遗忘"。
结果显示,A-GRAE成功避免了这个陷阱。使用A-GRAE训练的AI系统不仅在专业医学任务上表现优异,在处理一般数学问题时也保持了良好的性能。这表明新方法具有很好的"知识保持"能力,这对于开发实用的AI系统具有重要意义。
跨领域验证还揭示了A-GRAE的另一个优势:适应性强。在不同类型的任务中,系统能够自动调整其内部参数,找到最适合当前任务特点的平衡点。这种自适应能力使得A-GRAE不需要针对每个具体应用进行大量的手工调优,大大降低了实际部署的复杂性。
特别值得一提的是,在多模态任务中,A-GRAE展现出了处理"跨模态推理"的独特优势。这类推理需要AI将视觉信息和文本信息进行深度整合,是当前AI技术的前沿挑战之一。传统方法往往在这类任务上表现不稳定,要么过分依赖视觉信息,要么过分依赖文本信息。而A-GRAE通过其动态平衡机制,能够更好地整合两种信息源,产生更准确、更全面的推理结果。
这些跨领域验证结果不仅证明了A-GRAE的技术优势,更重要的是展示了其巨大的应用潜力。从基础数学教育到前沿医学诊断,这种新方法都能提供有价值的改进,这为AI技术的实际应用开辟了新的可能性。
五、深入理解算法机制的科学发现
为了更深入地理解A-GRAE为什么能够取得这样的成功,研究团队进行了详细的"算法解剖"分析。这就像医生通过各种检查手段来了解新药物在人体内的作用机制一样。
首先,研究团队发现了一个有趣的现象:A-GRAE改变了AI在学习过程中的"注意力分布模式"。传统的GRPO方法下,AI的注意力分布呈现出一种相对固定的模式,就像一个习惯性很强的人总是按照相同的路线上班。而A-GRAE训练的AI则表现出更加灵活的注意力分配,能够根据问题的特点和自身的学习状态动态调整重点。
通过对训练过程中"熵值变化"的追踪,研究团队揭示了A-GRAE的另一个重要机制。熵值可以理解为AI行为的"随机性程度":熵值高意味着AI更愿意尝试多种不同的方法,熵值低则表示AI倾向于使用固定的策略。
传统GRPO方法的熵值变化呈现单调下降趋势,就像一个人随着年龄增长变得越来越保守。而A-GRAE的熵值变化则呈现出一种更加健康的模式:在训练初期熵值快速下降,随后保持在一个相对稳定的水平,避免了过度保守化的问题。
更深入的分析显示,A-GRAE在"样本利用效率"方面也有显著优势。研究团队通过追踪训练过程中每个样本被"学习"的次数发现,传统方法存在明显的样本利用不均衡现象:某些简单样本被反复学习很多次,而某些困难样本却很少得到关注。A-GRAE通过其动态调整机制,实现了更均衡的样本利用,让每个样本都能在合适的时机发挥最大价值。
研究团队还发现了A-GRAE的一个意外优势:它提高了AI的"错误恢复能力"。当AI在某个问题上犯错时,传统方法往往会让AI变得更加谨慎,甚至回避类似的问题。而A-GRAE训练的AI则能够从错误中学习,并在下次遇到类似问题时采用不同的策略。这种能力对于处理复杂、多变的现实问题具有重要价值。
通过对不同组件贡献度的分析,研究团队发现A-GRAE的两个核心组件发挥着互补作用。群体层面的探索激励主要提升AI的"发现新方法"能力,这在需要创新思维的任务中特别有价值。样本层面的动态调整则主要提升"学习效率",让AI能够在有限的训练时间内达到更好的性能。
更有趣的是,研究团队发现这两个组件之间存在一种"正反馈循环":探索激励帮助AI发现新的解题思路,而动态调整确保这些新思路能够得到适当的强化和完善。这种协同效应是A-GRAE能够同时提升准确性和多样性的关键原因。
在稳定性分析方面,研究团队进行了大量重复实验来验证A-GRAE的可靠性。结果显示,与之前实验中不稳定的"负向主导组"不同,A-GRAE在多次独立训练中都能保持一致的性能表现,没有出现训练崩溃或性能大幅波动的情况。
这种稳定性的来源在于A-GRAE的"自适应调节机制"。当系统检测到训练可能偏向不稳定状态时,会自动降低探索激励的强度,优先保证训练的稳定性。这就像一个经验丰富的教练,既鼓励学生挑战自己,又知道在什么时候需要放缓节奏以避免受伤。
六、对AI发展的深远影响
A-GRAE的成功不仅仅是一个技术改进,它揭示了AI训练领域的一个深层问题,并为未来的发展指明了新的方向。这项发现的影响可能远超研究团队的最初预期。
首先,这项研究彻底改变了我们对"奖励机制"的理解。传统观念认为,奖励和惩罚应该保持平衡,这样才能确保公平和稳定。但A-GRAE的成功证明,在某些情况下,故意打破这种平衡反而能够获得更好的结果。这个发现可能会影响整个机器学习领域对于激励机制设计的思考。
这种思维转变的意义不仅限于技术层面。在教育心理学中,也有类似的讨论:是否应该对正确和错误给予同等程度的关注?A-GRAE的成功为这个古老的教育问题提供了一个技术角度的答案:在学习的不同阶段,最优的激励策略是不同的。
其次,A-GRAE揭示了"探索与利用平衡"的新维度。这是机器学习中的一个经典问题:AI应该花多少时间探索新的可能性,又应该花多少时间利用已知的好方法?传统方法通常采用固定的平衡策略,而A-GRAE展示了动态调整这个平衡的巨大价值。
这个发现对于开发更智能的AI系统具有重要启发。未来的AI可能不再是按照固定规则行事的机器,而是能够根据情况动态调整自己行为策略的智能体。这种"元学习"能力——学习如何学习——正是通向更高级AI的关键一步。
在实际应用层面,A-GRAE的成功开启了许多新的可能性。在教育技术领域,这种方法可以用来开发更智能的个性化学习系统。系统可以根据学生的学习进度和能力水平,动态调整题目难度和教学策略,就像一个永远耐心、永远了解学生需求的私人教师。
在科学研究领域,A-GRAE式的方法可能有助于开发更强大的科学发现工具。这些工具不仅能够验证现有理论,还能够主动探索新的假设和理论可能性。这对于加速科学发现过程具有重要价值。
在商业应用方面,A-GRAE的理念可以应用于推荐系统的优化。传统推荐系统往往会陷入"过滤泡泡",总是推荐用户已经喜欢的内容类型。而采用A-GRAE式的动态平衡机制,推荐系统可以在满足用户当前偏好的同时,适度引入一些新颖的内容,帮助用户发现新的兴趣点。
更广泛地说,A-GRAE代表了AI发展的一个重要趋势:从"静态优化"向"动态适应"的转变。未来的AI系统不仅要在给定条件下表现优异,还要能够随着环境和需求的变化而自我调整和进化。
这项研究还为理解"智能的本质"提供了新的视角。真正的智能可能不在于找到最优解,而在于知道何时探索、何时利用,以及如何在不同策略之间进行动态切换。这种"战略智能"可能是人类智能超越传统AI的关键所在,而A-GRAE的成功表明,我们正在学会如何将这种智能嵌入到人工系统中。
七、技术实现的精巧设计
从技术实现的角度来看,A-GRAE的设计体现了工程学中的一个重要原则:简单而优雅的解决方案往往最有效。尽管解决的问题非常复杂,但A-GRAE的核心机制却相对简洁,这使得它易于理解、实现和部署。
A-GRAE的核心只需要一个关键参数α,这个参数控制着探索激励的强度。研究团队发现,在大多数应用场景下,α=1效果最佳,但在处理多模态任务时,α=0.5能够提供更好的稳定性。这种简单的参数设计大大降低了方法的使用门槛。
动态调整机制的实现同样巧妙。系统使用当前批次的平均性能作为"能力指标",这个指标既容易计算,又能够准确反映AI的学习状态。基于这个指标,系统通过一个平滑的插值公式在"简单优先"和"困难优先"之间进行切换,避免了突然变化可能带来的不稳定性。
特别值得称赞的是,A-GRAE保持了与现有系统的良好兼容性。研究团队验证了A-GRAE可以轻松集成到GRPO、DAPO、Dr.GRPO等多种现有方法中,而不需要对原有系统进行大幅修改。这种兼容性设计使得A-GRAE可以快速推广到现有的AI开发流程中。
从计算效率的角度看,A-GRAE几乎没有增加额外的计算负担。所有的动态调整都是基于训练过程中本来就需要计算的量,没有引入新的复杂操作。这意味着采用A-GRAE不会显著增加训练时间或计算资源需求,这对于实际部署非常重要。
研究团队还考虑了方法的鲁棒性问题。他们测试了A-GRAE在不同的训练批次大小、不同的学习率设置下的表现,发现方法在各种配置下都能保持稳定的性能改进。这种鲁棒性表明A-GRAE不是一个"脆弱"的技术,而是一个可以在各种实际条件下可靠工作的工具。
在实验验证方面,研究团队的工作特别严谨。他们在七个不同的基准测试上进行了全面评估,涵盖了从基础数学到复杂视觉推理的广泛领域。更重要的是,他们还进行了详细的消融实验,分别验证了A-GRAE两个核心组件的独立贡献,证明每个组件都是必要的,而两个组件的结合能够产生协同效应。
为了确保结果的可重复性,研究团队还公开了他们的代码实现,并详细记录了所有的实验设置和超参数配置。这种开放的研究态度不仅有助于科学验证,也为其他研究者进一步改进和扩展这项工作奠定了基础。
说到底,A-GRAE的成功揭示了AI训练中一个被长期忽视的根本问题。就像发现了一个一直存在但从未被注意到的bug,这项研究不仅修复了问题,还为我们理解AI学习机制提供了新的视角。
传统的GRPO虽然看起来公平合理,但实际上限制了AI的潜力发挥。通过巧妙地打破对称性,A-GRAE让AI既敢于探索新方法,又能根据学习阶段智能调整重点,这种动态平衡正是智能学习的精髓所在。
更重要的是,这项研究表明,在AI发展的道路上,有时候最大的突破来自于重新审视我们认为理所当然的基本假设。A-GRAE的成功不仅为当前的AI系统提供了实用的改进方案,更为未来开发更智能、更灵活的AI系统指明了方向。
对于普通人来说,这项研究的意义在于,它让我们的AI助手变得更加聪明和灵活。无论是教育软件、医疗诊断工具,还是各种智能应用,都可能因为这种新方法而变得更加实用和可靠。这就是科学研究的魅力所在:看似抽象的理论突破,最终会转化为改善我们生活的具体技术。
Q&A
Q1:什么是GRPO算法的"隐性对称性"问题?
A:隐性对称性是指GRPO算法在训练AI时,给正确答案的奖励权重总是等于给错误答案的惩罚权重。这种看似公平的平衡实际上有两个问题:一是让AI对从未尝试过的新解法完全无动于衷,二是总是把注意力集中在中等难度问题上,而忽视了简单和困难的问题。
Q2:A-GRAE方法是如何解决这个问题的?
A:A-GRAE通过两个机制打破对称性。在群体层面,它根据AI的学习阶段动态调整对正确答案的奖励,鼓励探索新方法。在样本层面,它会根据AI能力的提升,逐渐将训练重点从简单问题转向困难问题,就像一个智能教练会根据学生进步调整教学策略。
Q3:这项研究对实际AI应用有什么影响?
A:这项研究可以让AI在教育、医疗、科研等领域表现更好。比如教育软件能更好地根据学生水平调整教学内容,医疗AI能更准确地分析医学影像,推荐系统也能在满足用户喜好的同时适度推荐新内容。整体上让AI变得更加灵活和智能。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
三星突破1纳米技术:芯片制程极限与前景
三星电子晶圆代工业务部门已明确目标,将于2030年前推出1纳米半导体工艺。这一被称为“梦幻半导体”的工艺,需采用全新技术排布尺寸仅相当于5个原子的运算元件。此举旨在与竞争对手台积电展开全面技术博弈,
5千元档笔记本推荐:华为MateBook 14与D16哪款更值得买?
5000元左右笔记本电脑推荐,大学生的理想之选对于大学生以及职场新人来说,在选购笔记本电脑时,5000元左右的机型是备受关注的焦点。只有深入了解5000元左右笔记本电脑的选购逻辑,才能挑选到符合自身
慧荣展出SM2504XT无缓存方案,CFMS 2026终极解决PCIe5.0发热
受到存储芯片价格上涨因素影响,各个PC品牌纷纷表示将要上调产品价格,对于很多玩家来说确实是个坏消息。不过也不用过于担心,在3月27日举办的CFMSMemoryS 2026中国闪存市场峰会闪存行业峰会
2025年美图净利润新高:业绩有力回应AI替代叙事
研究机构Citrini Research关于人工智能经济风险的假设性报告,一度引发市场对传统软件商业模式可持续性的广泛讨论。在市场恐慌过后,如今人们开始有限乐观。市场恐慌的核心,在于投资者担忧AI技
三星Exynos 2800延期,死磕2nm工艺迎战高通
快科技3月26日消息,在三星第一代2nm GAA工艺推向市场后,紧接着将迎来光刻工艺的改进与迭代。三星正致力于通过技术优化,进一步提升先进制程在实际应用中的表现。据行业报道,三星计划在今年内完成Ex
- 日榜
- 周榜
- 月榜
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程

