对话港科大郭毅可提问型AI比复刻ChatGPT更具价值

今年四月,香港科技大学清水湾校区的一间会议室里,气氛有些不同寻常。十几位顶尖的科学家围坐一堂,既有以郭毅可教授为代表的香港本地学者,也有专程从北京赶来的何晓冬、王小川等AI领域的领军人物。讨论的焦点,正是席卷全球的大模型技术浪潮。
一个核心问题被抛了出来:在这轮创新中,香港能扮演什么角色?
香港的优势显而易见:高校林立,人才储备丰富。但要把大模型从概念落到实地,真正部署和应用起来,还缺一块关键的拼图——算力。海量的GPU资源,是大模型生存与发展的“硬通货”。
讨论最终指向一个共识:必须有一个实体机构作为支撑,先把香港自己的基础大模型做出来。
回望国内大模型创业潮的起点,“中国版OpenAI”曾是许多故事的开场白。2015年成立的OpenAI,其独立于商业的科研机构模式,常被视为ChatGPT成功的基石。但在郭毅可看来,值得学习的并非其商业模式,而是它走通的技术路径和长期的技术理想主义。
“OpenAI很好,但创新不在于思考如何在中国复制一个它。每个人都有自己的方法论,如果眼里只有‘复制’,那本身就偏离了创新的本意。”
他认为,从机构属性看,无论是海外的OpenAI、DeepMind,还是国内的智源研究院、百度、阿里达摩院,目标其实是一致的:聚集一批顶尖人才,去攻克最前沿、最具探索性的课题。模式本身并无本质差异。
理念最终要落实到行动。随后的四个月里,进展迅速:由香港政府资助、港科大牵头,联合五所本地高校成立了香港生成式人工智能研发中心(HKGAI);港科大成为国内首个全面启用ChatGPT服务的高校;而香港基础大模型,也正在HKGAI紧锣密鼓地研发中,即将面世。
这个“香港大模型”的追求,并非在排行榜上争分数高低。它的关注点更为务实:有多少人愿意用?能在哪些具体场景中用起来?怎么用?出了问题如何解决?
人工智能的市场足够广阔,香港大模型的定位是成为一个开源的技术基座。在此基础上,本地的企业和市民都能便捷地使用大模型,并基于此开发各类生成式AI应用。用技术去解决那些过去难以解决的、实实在在的问题,这才是创新真正伟大的地方。
郭毅可笑称自己是个“工程师”,在他看来,“少说,踏实走好每一步”,便是对创新最好的诠释。

2022 年秋,郭毅可在伦敦
八月初,在港科大郭毅可教授的办公室,我们围绕香港生成式AI研究中心以及校园ChatGPT等话题,进行了一场深入对话。
GPT如何革新教育范式?
问:今年6月,港科大正式开放了校园版ChatGPT,成为国内首个全面启用该服务的高校。专门部署一个校园GPT,主要出于哪些考虑?
郭毅可:我们确实是第一个“吃螃蟹”的学校。这么做,核心目的是为了深入理解用户体验,并认真研究ChatGPT在大学教育中到底该怎么用。
我们希望师生都能用上这项技术,所以当时就想,不如直接订阅服务,把GPT部署在校园内网。这样一来,所有使用数据都归学校自己管理,既保护了数据安全,又能基于这些数据做更多分析和研究,从而更精准地评估ChatGPT在教育中的作用。
问:在学校内部部署这样一套系统,成本高吗?
郭毅可:可能没有大家想象的那么高,一年大约三百万港币左右。
问:使用校园GPT后,带来了哪些具体的变化?
郭毅可:变化是多方面的,但归根结底,它迫使我们重新思考传统的教育模式。
过去的教育很大程度上是“记忆式”的。ChatGPT出现后,情况变了——任何问题它都能给出答案,单纯靠记忆学习知识的方式,效用大打折扣。这就引出一个关键问题:它给出的答案,准确性和可信度究竟如何?反映到教育方法上,就是必须着重培养学生的批判性思维能力。
有效运用ChatGPT,本身就需要创造性思维。举个例子,我们可以让ChatGPT尝试回答各类考卷,从而对试卷质量有个大致判断,进而设计出更有意义的考题。如果你出的题,ChatGPT能轻松拿满分,那这试卷的区分度可能就有问题;如果模型只能考70分,那这份试卷对学生才有挑战性。
你甚至可以把ChatGPT的得分设为一个基准线,要求学生必须比机器做得更好。现在有种普遍担忧,认为学生有了ChatGPT就会抄袭。这个看法其实比较片面。当年搜索引擎刚普及时,大家也担心抄袭。ChatGPT与搜索引擎的区别是什么?本质上,它更像一个强大的“思维链搜索引擎”,能够对信息进行归纳总结。所以,对它的能力不必过度恐惧。
事实上,ChatGPT对教师提出了更高要求。教师必须改变教学方法,引导学生在与机器的互动中形成自己的思考,提升自身能力。
问:在这个过程中,如何区分机器给出的信息,并将其转化为我们自己的知识?
郭毅可:关键在于学会批判性地看待它。ChatGPT提供的不是现成的知识,而是经过压缩和提炼的信息。将这些信息去粗取精、去伪存真,转化为真正的知识,正是人工智能时代教育的主要任务之一。这对教师而言,无疑是更高的要求。
我们的教育不能再满足于让学生回答书本上的定义、定理应用这类问题。那都是过去的做法了。
问:大模型的兴起,将对人才培养模式产生怎样的深远影响?
郭毅可:最直接的影响,是知识获取的途径发生了根本变化。重点变成了:人如何在与智能机器的交互中,更高效地学习。这种转变是必然的。
之前出现“提示工程师”这种岗位,其本质反映了当前人机交流的水平有待提高。这类岗位即便存在,可能也是阶段性的。
更重要的是,机器本身也在快速进化。大模型才刚刚起步,五年、十年后,它会发展成什么样子?现在的大模型主要擅长回答,或许不久的将来,我们会看到能够主动提问的大模型,那才意味着真正的交互式人工智能时代到来。
问:为什么说“学会提问”反而更难?
郭毅可:提问分两种。一种是“不懂装懂”式的提问,另一种是真正意识到自己“不懂”——这对计算机来说非常困难。
目前绝大多数大模型都属于前者,真正具备“自知之明”的模型几乎没有,这是其一。其二,模型需要能判断什么是对、什么是错,这意味着它需要拥有价值观。不是所有问题都值得提出,而是要能提出有价值的问题。反过来,对于人给出的回答,机器也需要能判断正误。因此,只有具备价值观的机器,才能与人进行有意义的交互。从这些角度看,我们距离真正的交互式人工智能还有很长的路要走。
讨论“AI取代人”为时尚早
问:您曾提出一个观点:“人创造更聪明的机器,更聪明的机器培养更聪明的人”。这与外界对生成式AI可能失控的担忧是否矛盾?
郭毅可:人理应比机器更聪明。当前我们对生成式AI应该做的,是努力研究它,合理使用它,让它为我们创造更多价值。在研究和使用过程中,管控的方法自然会浮现。但前提是,我们必须先去实践,不能纸上谈兵。
首先要使用它,这能消除很多误解。任何新技术诞生,总会伴随正反两面的声音。汽车、飞机出现时,人们担心事故风险;计算器普及后,又担心人类会丧失计算能力。但这些担忧并未成为现实。只有亲身使用后你才会发现,人类的生活和发展方式并非如此脆弱。
机器的确能替代一部分人力劳动。比如会议记录、翻译等工作,如果AI能做得更好,为什么不让机器去做?许多重复性、流程化的工作本就应该被机器取代。
但人总有人的价值,最大的价值就在于能够驾驭自己创造的机器。也许初期会有误用和负面效果,但这些都可以被管控。AI源于人类,由人研发,为人所用。至少在现阶段,无需过度悲观,认为它会带来毁灭性灾难。
问:但一些职业确实可能因此消失。
郭毅可:关键是如何调整和提升自己。
部分岗位的消失是必然的。例如传媒行业,ChatGPT强大的写作能力已经带来冲击,未来的新闻传播形式必然改变。四年后,我们获取新闻的方式还会和今天一样吗?职业本身也会演化,文字工作者可能转向视频内容创作等新形态。但这种改变有错吗?四百年前,连报纸杂志都没有。
所以无需过度担忧。职业变迁是技术发展的必然结果,技术推动社会进步和人类能力提升是永恒的主题。
每次技术革命,总有人欢呼,也有人反对。但这改变不了趋势。我们应该做的,是在规则范围内,以科学的态度去探索。而不是等到技术成熟后,才发现自己已经落后。
问:当前大模型领域,顶尖人才是争夺的焦点。从OpenAI、微软出来的人尤其受追捧。
郭毅可:“挖人”这个词,在我看来有些可悲。OpenAI最初的核心成员又是从哪里来的呢?
当然,我们需要有经验的领军人物和工程师来带领团队完成迭代。但放眼全球,有多少创造是真正前所未有的?
一个人在OpenAI工作过,本身带有一定的偶然性,他对大模型的贡献也存在不确定性。况且,一个人在一件事上成功,并不保证他未来还能持续创新。甚至,有时一次巨大的成功反而可能桎梏未来的创新能力。认为“挖人”是创新的捷径,这种想法未免过于幼稚。
我在选人时更看重的是:我们要做什么事,需要什么能力;候选人是否具备通过学习和领悟获得这些能力的灵气;是否有脚踏实地做好一件事的耐心;是否能独立思考,坦诚沟通。
问:如何理解您提到的“人在创造中的偶然性”?
郭毅可:OpenAI今天的成就绝非偶然,它在创新上做得非常出色。但仔细看它的团队,有多少成员来自谷歌?其实并不多。所以,某个人恰好在某个时间点身处OpenAI,这件事本身有偶然性,并不等同于他一定是天才。
因此,如果我们的思路是“因为他参与过大模型,知道怎么做,所以我们复制起来更容易”,那么这种想法本身就否定了创新,也不尊重知识产权。
Transformer架构2017年提出,2020年GPT-3发布,三年时间,该学的技术大家基本都掌握了。如果今天有OpenAI的成员因为认可我们的工作而想加入,我们欢迎。但我并不希望他只是把OpenAI的那套方法论照搬过来,没必要。每个地方、每个人的路径都可以不同。
很多风险投资机构评估初创公司,过分关注团队里是否有OpenAI背景的人,有就投,没有就不投。按这种思路能成就一家伟大的公司吗?未必。Midjourney只有12个人,依然做出了惊艳的产品,他们挖了谁吗?并没有。所以,一味盯着“挖人”,境界不高,格局也不够。
不做OpenAI“第二”
问:您之前提到过打造“香港版OpenAI”的构想,目前进展如何?
郭毅可:正在推进中。
香港既没有OpenAI,也没有类似智源研究院这样的机构。我们需要一个这样的实体。事实上,我们已经行动了,成立了香港生成式人工智能研发中心。可以说,它正在扮演类似智源的角色,但我们的组织机制、创新文化和技术路径,与智源不会相同。
由于香港有大量的主体和应用场景,我们至少需要有一个自己的基础模型,才能进一步思考如何将大模型与金融、法律、艺术等具体领域结合落地。
问:对这个中心有哪些具体的设想?
郭毅可:中心由港科大牵头,联合港中文、港大、港理工和港城大,五所高校共同打造。目标是集中力量,为香港政府和市民服务。最终成果也会以开源方式发布。
从工业界的角度看,企业有自己的任务和目标,环境更商业化。架构不同,但我认为目前的学术联合体架构更适合我们。
中心主要做两件事:第一,打造一个香港的基础大模型;第二,基于这个基础模型开发应用系统。它既要达到国际水准,也要具备香港特色。这两项工作都在同步推进。
问:一个客观情况是,OpenAI有微软的强力支持,而国内非营利性研究多依靠高校科研立项和国家经费。这种模式差异会带来哪些影响?
郭毅可:在我看来,本质上没有太大差异,只是平台不同。
香港缺乏像微软这样能提供强力支持的私营产业巨头。但在内地,百度、阿里、腾讯等企业都设有庞大的研发部门,由企业提供研发支持。而从高校做科研的角度出发,可能更侧重于对创新性和探索性的要求。
当然,我们中心的不同之处在于,我们使用的是纳税人的资金,是为政府和市民在做这件事。因此,在模型开发上,我们更关注如何让香港大模型真正“用起来”,而不是一味追求某些人为设定的指标,比如在某个评测中比另一个模型精确度高零点几个百分点。我们追求的目标是,让人们觉得这个模型对他们的生活和工作有帮助,这一点至关重要。
问:您的思路非常务实。
郭毅可:我始终把自己定位为一个工程师。总结起来就是:少说,多做。
问:过去一段时间,很多人都在问:为什么大模型首先诞生在美国,而不是中国?
郭毅可:如果将自己定位成跟随者,总指望别人引路,那就只能永远慢半拍,充当创造者的解说员和模仿者。
中国从不缺乏创造者。从港科大走出的大疆,当初谁想过无人机能这样改变世界?它做成了。内容领域的抖音、快手,也走出了独特的模式。也许创新的类型和级别不同,但这绝不意味着中国没有创新。我并不认为中国的企业就一定比美国公司落后多少。但在做事情的心态上,或许需要一些调整和改变。
问:OpenAI的模式带来了哪些冲击和影响?
郭毅可:首先,我并不完全认同“OpenAI带来了新模式”这种说法。全身心投入技术创新研究,无论是谷歌的DeepMind,还是国内阿里的达摩院、百度的研究院,长期以来一直都在这么做。从这个意义上说,不存在根本的模式差异。差异可能在于,中国的经济发展阶段和生态有所不同。
一个成熟的经济体,必须有一批人专注于最尖端、最具探索性的工作。企业有钱就企业投入,企业投入不足,国家就投入支持。如今中国建立了许多国家实验室,我们相信它们能做出创新性的成果。
但重要的是要明白,科学研究是长期事业,不是两三年就能速成的。科学研究从失败中走来,需要不断试错,所以必须给予时间。
问:三月份的创业潮中,很多企业宣称要做“中国版OpenAI”,但近来这种声音似乎变少了。以您的观察,原因是什么?
郭毅可:事物的发展总有它的两面性。
我觉得王小川做得就不错,我也相信他能做出成绩。他有梦想,也获得了资金支持,过去的经历为他积累了深厚的知识和行业经验。他具备做成这件事的能力。事实上,中国在大模型研究和应用上的进展是值得自豪的,我们不必妄自菲薄。
有的人目光长远,有情怀,想打造出代表中国的拳头产品;有的人则更关注其背后的商业价值。目的和方向不同,最终的结果自然有成功也有失败,这很正常。
问:那么,如果今天真要打造一个“中国版OpenAI”,它需要具备哪些条件或特质?
郭毅可:首先,这个说法本身可能就错了。我们不应该去做“中国的OpenAI”,因为OpenAI已经存在,没必要再去复制一个。按照这个思路,如果明天美国或其他国家又出现了新的模式,我们是不是又要去做一个“中国版”的某某?这就完全失去了创新的意义。
我们要做的,应该是中国自己的生成式人工智能,做出自己的AI特色,而不是盲目崇拜OpenAI。有了OpenAI,谷歌就失去价值了吗?显然不是。
甚至,更值得佩服的或许是微软,而非OpenAI。微软率先以Copilot的模式,将技术深度集成到其全线产品中,真正把OpenAI的能力转化为了“嵌入式智能”。这才是技术真正伟大之处——它不仅仅是技术本身,更是聚焦于解决人类实际问题的能力。就像DeepMind用AI攻克蛋白质结构预测、经济学等难题一样。
OpenAI真正值得我们学习的,是它对科研的初心——在早期尚未成功时,就敢于将许多成果公开、开源,以及它对大模型技术路线的长期坚持。它存在的特殊性和这些精神是我们要学习的,而不是去照搬它的公司架构或商业模式。
问:也就是说,实现目标的过程和方法,比单纯达成相同的结果更重要。
郭毅可:是的。并不是说ChatGPT效果惊人,我们就要去追求一个一模一样的ChatGPT。坚持自己的方向和路线同样重要。正如前面提到的,一个能够主动提问、与人辩论、理解语言深层含义、具备价值观的机器,远比单纯复刻一个ChatGPT意义重大得多。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
南方电网携手百度智能云发布行业首个电力大模型
南方电网发布人工智能平台及电力大模型,提供模型即服务,已应用于智能创作、设备巡检及调度等核心场景。例如在调度中,模型可秒级生成处置方案并自动报告,提升应急效率。百度智能云提供全栈技术支持,双方通过生态共建与人才培养,推动AI与电力行业深度融合,助力新型电力系统建设。
阿里云开源通义千问14B大模型 周靖人详解开源战略
阿里云开源140亿参数模型Qwen-14B及其对话版,免费商用。该模型基于超3万亿Token数据训练,支持多语言与8K上下文,性能超越同规模模型。对话版在准确性、人性化与工具调用方面表现突出,大幅降低开发门槛。阿里云通过持续开源推动大模型生态繁荣,助力创新应用落地。
对话港科大郭毅可提问型AI比复刻ChatGPT更具价值
香港成立生成式人工智能研发中心,旨在打造本地开源基础大模型,聚焦实际应用而非技术排名。港科大率先部署校园ChatGPT以研究教育变革,强调培养批判性思维。人工智能应被视为工具,推动人机协作与职业演化。创新不应简单复制他人模式,而需立足自身特色与需求,务实推进技术发展。
Falcon 180B开源模型将如何改变行业竞争格局
阿联酋TII开源Falcon180B模型,评测表现超越Llama2等,但因推理成本高、中文能力不足且微调成本高,实际应用及对国内生态冲击有限。其开源行为引发行业对数据消耗与模型欠拟合的思考。未来开源与闭源模型将长期共存,竞争重点在工具链、生态及垂直领域能力。
AI大模型如何加速科学发现与科研创新
大模型技术正通过注入专业知识推动AIforScience发展,提升医疗、科研等领域的推理与决策能力,辅助诊断、预测蛋白质结构等。尽管面临语义理解、数据稀缺等挑战,但产学研结合正促进其从新药研发到量子计算等场景落地,不仅解决具体问题,更可能催生新科学发现与研究范式。
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

