首页
科技
100元4小时自制GPT!Karpathy亲授简易训练教程

100元4小时自制GPT!Karpathy亲授简易训练教程

热心网友
转载
2025-10-14
来源:https://36kr.com/p/3508416123657096

AI传奇人物、前特斯拉AI总监Karpathy重磅推出全新开源项目「nanoc h a t」,以不到8000行代码复现ChatGPT全流程,只需一台GPU、约4小时、成本仅百美元。该项目在GitHub上线不到12小时即获4.2k星标!

麻 将

AI传奇人物、前特斯拉AI总监Karpathy宣布发布全新项目nanoc h a t!

一个极简但完整的「从零构建ChatGPT」训练框架。

Karpathy说这是他写过的最疯狂的项目之一!

相当于每个人都可以自己拥有一个专属的ChatGPT。

项目刚放出还不到12个小时,GitHub星标就破4.2kStar!(还在持续疯涨中)

GitHub项目:https://github.com/karpathy/nanoc h a t

全是社区自来水流量,这就是Karpathy在AI领域的号召力!

与早期的nanoGPT不同,nanoc h a t不仅涵盖预训练,还囊括了从数据准备、预训练、中期训练(对话、多项选择题、工具使用)、SFT、RL微调到推理部署的全流程。

整个系统仅约8000行干净代码,启动一台GPU机器、运行一条脚本,4小时后你就能在网页界面与自己训练的「小ChatGPT」对话。

Karpathy将其称为LLM101n的「压轴之作」,同时也可能成为未来研究基线和开源社区的实验平台。

让我来仔细看看如何仅仅用8000行来「克隆」ChatGPT:

使用全新的Rust实现训练分词器

在FineWeb上对TransformerLLM进行预训练,评估多个指标下的CORE分数

在来自SmolTalk的用户-助手对话、多项选择题、工具使用数据上进行中期训练

进行SFT,在世界知识多项选择题(ARC-E/C、MMLU)、数学(GSM8K)、代码(HumanEval)上评估聊天模型

使用「GRPO」在GSM8K上对模型进行强化学习微调(RL)

在带有KV缓存的引擎中实现高效推理,简单的预填充/解码,工具使用(在轻量级沙箱中的Python解释器),通过CLI或类ChatGPT的网页界面与其交互。

撰写一份单一的Markdown成绩单,总结并将整个过程游戏化。

麻 将

项目全程花费低至约100美元(约在一台8XH100节点上训练4小时)。

可以训练、克隆一个可以对话的小型ChatGPT,它能创作故事/诗歌、回答简单问题。

只需要训练约12小时即可超过GPT-2的核心指标。

随着进一步扩展到约1000美元(约41.6小时训练),模型会迅速变得更连贯,能解决简单的数学/代码问题并做多项选择题。

训练24小时的模型(其FLOPs大致相当于GPT-3Small125M,约为GPT-3的1/1000)在MMLU上能进入40分段,在ARC-Easy上进入70分段,在GSM8K上进入20分段等。

总结一下就是:

100美元→可训练出一个能写诗、回答基础问题的OpenAI同款「小型ChatGPT」;

1000美元→达到近GPT-2以上的表现,可做基础推理与代码生成。

麻 将

这个项目体现出他的核心理念:

「降低 LLM 研究与复现门槛,让每个人都能亲手训练自己的模型。」

这种民主化路线,与他在nanoGPT时期倡导的「从零实现Transformer」如出一辙。

项目地址:https://github.com/karpathy/nanoGPT

Karpathy说他的目标是把完整的「强基线」栈整合到一个连贯、极简、可读、可修改、可最大化派生的仓库中。

nanoc h a t将成为LLM101n(仍在开发中)的压轴项目。

Karpathy认为nanoc h a t也有可能发展成一个研究工具或基准,就像之前的nanoGPT一样。

nanoGPT教你造大脑,nanoc h a t教你造ChatGPT。

麻 将

如果说nanoGPT是「Transformer源码教学项目」。

那么,nanoc h a t则是「LLM生态系统微缩版」、OpenAI同款、你的专属AI。

二者关系可理解为「从神经网络基础到产品级对话系统」的两步闭环。

从Vibe Coding到nanoGPT,再到如今的nanoc h a t,Karpathy不愧是「AI教育者」的最佳代言人。

这一「疯狂之作」并非狂想,而是Karpathy对AI开放、可学习、可复现理想的又一次践行。

小型ChatGPT效果展示

Karpathy在WebUI部署了nanoc h a t项目。

他还给出了「与价格为100美元、运行4小时的」nanoc h a t的示例对话。

很……有趣!

下面这张图展示的是Karpathy在nanoc h a t「$100速度跑」实验(即只用一台GPU、约4小时训练出的ChatGPT 小模型)中生成的「成绩单」部分内容,说明模型规模、训练耗时、以及在各类标准评测上的性能。

Characters:333989 —— 代码总字符数。

Lines:8304 —— 大约 8300 行干净、注释良好的代码。

Files:44 —— 工程文件数量。

Tokens:约83,497 —— 代码中的token数(大致对应8万词)。

Dependencies:2004行uv.lock依赖清单 —— 表明依赖极少、项目结构轻。

这些数字展示了nanoc h a t的「极简」精神:完整实现了 ChatGPT 的训练、微调与推理,却仍保持在8000行代码以内。

参考资料:

https://x.com/karpathy/status/1977755427569111362

https://github.com/karpathy/nanoc h a t

免责声明

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

同类文章

MIT新框架实现AI自主微调:无需人工生成数据,自动完成权重升级

大模型终于学会更新自己了! MIT提出一种新的强化学习框架,让模型生成微调数据和自我更新指令,实现模型权重的更新。 无需人工参与,模型就可以自动进行梯度更新,自主学习获取新知识或适应新任务。

2025-10-14.

x86生态全面升级:Intel联手AMD推进四大核心技术FRED/AVX10/ChkTag/ACE

2025年10月14日,Intel与AMD联合宣布,x86生态系统咨询小组成立一周年。该组织于2024年10月正式成立,致力于通过协同决策、功能标准化以及面向开发者的创新举措,推动x86计算架构的持

2025-10-14.

英伟达DGX Spark桌面AI超算10月15日开售

英伟达于当地时间10月13日宣布,搭载GB10 Grace Blackwell超级芯片的DGX Spark桌面级AI超算将于10月15日正式发售。其中,由英伟达推出的首发版本定价为3999美元,按当

2025-10-14.

京东11.11手机秒杀,大牌五折起抽全天免单

2025京东11 11全球好物节重磅来袭,作为京东新锐代言人及11 11惊喜大使,刘宇宁在手机超级秒杀日为用户带来“玩所未玩”的超值购机体验。本次超级秒杀日汇集小米、vivo、iQOO等七大热门手机

2025-10-14.

Rare资深开发者格雷格·梅尔斯离职,永恒荒野项目宣告取消

永恒荒野最早于2019年11月对外公布,并在次年7月发布过一段预告片。尽管最新仅通过少量宣传影像展示了游戏的艺术风格与氛围,但其具体玩法机制和界面布局始终未正式披露。该项目自启动以来经历了多次重大调

2025-10-14.

热门教程

更多
  • 游戏攻略
  • 安卓教程
  • 苹果教程
  • 电脑教程

最新下载

更多
命运战歌vivo
命运战歌vivo 棋牌策略 2025-10-14更新
查看
花千骨小米
花千骨小米 角色扮演 2025-10-14更新
查看
永暮幻想
永暮幻想 卡牌桌游 2025-10-14更新
查看
零号任务国际
零号任务国际 飞行射击 2025-10-14更新
查看
王者光辉百度
王者光辉百度 角色扮演 2025-10-14更新
查看
nejisimsara2
nejisimsara2 休闲益智 2025-10-14更新
查看
暴打魏蜀吴九游
暴打魏蜀吴九游 棋牌策略 2025-10-14更新
查看
魔天记3D变态
魔天记3D变态 角色扮演 2025-10-14更新
查看
同盟神探手游
同盟神探手游 角色扮演 2025-10-14更新
查看
精灵大夜战九游
精灵大夜战九游 休闲益智 2025-10-14更新
查看