又一AI利器!智谱发布全新推理大模型,速度快8倍,价格比DeepSeek-R1更低~
发布时间:2025-05-13 编辑:游乐网
如今的大模型层出不穷,如llama、qwen、bert等,学习起来难度不小,甚至有些“卷王”还在研究transformer的源码,这对于普通人来说,学习曲线实在太陡峭了。
如果你不是从事底层算法开发,只是想学习应用,我建议直接上手国产开源推理大模型,比如DeepSeek R1,以及智谱AI最近发布的全新开源模型GLM-Z1-Air。这款模型推理速度极快,超越了R1,接下来我会详细介绍。
由于R1的火爆,今年推理模型彻底占据了用户市场,创造了“哇哦”时刻。大家都知道,传统的对话模型缺乏深度思考,专业能力较差,而且非常依赖用户的提示语能力,而推理模型只需要简单的日常对话,就能输出逻辑严谨的专业回答,仿佛数十个不同领域的“专家”随时待命。
此外,推理模型还可以开发各种垂直应用,比如企业知识库、代码助手、医疗诊断、合同审查等,结合RAG、Agent、LangChain进行开发,趣味性极高。
全新开源推理模型GLM-Z1-AirX,速度惊人。在国内众多大模型厂商中,有一家企业稳扎稳打,不断推出新模型,我非常看好,那就是智谱AI。智谱AI拥有一个大模型开放平台BigModel,提供了GLM系列和多模态等几十种大模型,GLM-4经常在各种排行榜上名列前茅。
BigModel平台提供了稳定的API接口和详细的说明文档,可以通过Python SDK、HTTP请求进行调用,操作便捷,最重要的是稳定且速度快,对于企业应用至关重要。
就在最近几天,智谱开源了32B/9B系列的GLM模型,涵盖基座、推理、沉思模型,均遵循MIT许可协议。这些模型现已通过全新平台Z.ai免费开放体验,并已同步上线智谱BigModel开放平台。
其中,推理模型GLM-Z1-32B-0414性能媲美DeepSeek-R1等顶尖模型,实测推理速度可达200 Tokens/秒(bigmodel.cn),目前国内商业模型中速度最快。此外,其价格仅为DeepSeek-R1的1/30。
除了模型开源外,基座、推理两类模型也已同步上线智谱开放平台(bigmodel.cn),面向企业与开发者提供API服务。
上线的推理模型分为三个版本,分别满足不同场景需求:
GLM-Z1-AirX(极速版):定位国内最快推理模型,推理速度可达200 tokens/秒,比常规快8倍;GLM-Z1-Air(高性价比版):价格仅为DeepSeek-R1的1/30,适合高频调用场景;GLM-Z1-Flash(免费版):支持免费使用,旨在进一步降低模型使用门槛。
我们用常见的Python编程问题测试了GLM-Z1-AirX和DeepSeek-R1的推理速度和效果。
提示如下:
GLM-Z1-AirX推理时间约10秒,DeepSeek用了29秒。
两个模型都完成了设定的任务,输出了准确的Python代码,下面看看生成的可视化效果如何。
首先是GLM-Z1-AirX生成的可视化图表,清晰地展示了用户的分布情况。
接下来是DeepSeek生成的可视化图表,UI简洁,也同样展示了用户分布。
这说明GLM-Z1-AirX在保证性能的同时,在编程推理速度上有显著提升,非常难得。
利用GLM-Z1-AirX开发“SQL代码自动化审核和生成工具”
我在数据开发领域工作,经常会遇到业务部门提出的分析需求,因此小组里会有大量的SQL代码编写和审核工作,既费时又费力,还可能存在审核不规范、代码不准确的情况。
有了推理大模型,这一情况很快得到了改善,我们尝试基于GLM-Z1-AirX开发“SQL代码自动化审核和生成工具”,支持自动化审核SQL代码,并返回审核结果,以及根据用户自然语言生成SQL查询代码。
这个工具既可以在终端和web应用中使用,也能部署到企业内网中,实现SQL提交、生成、审核、共享等服务。
大致的工作设计流程如下:
接下来开始进行API准备和代码开发工作。
注册Bigmodel平台,接入GLM-Z1-AirX API
首先注册并登录Bigmodel平台,然后找到key界面,生成专属的key,后面接入API需要用到,可以点击阅读原文注册。
接下来在模型中心里找到GLM-Z1-AirX模型,点开文档,里面有详细的API接口说明,包括接口信息、请求参数、响应参数等。
然后找到Python的SDK示例代码,智谱有专门的第三方库zhipuai,负责调用模型,你可以参照示例代码来设计接口模块。
有几个重要参数需要说明,model要填写GLM-Z1-AirX,max_tokens根据需求自定义,temperature可以设置为0.5,因为是代码推理任务,不需要太具有创造性。
我的接口模块设计如下:
SQL代码审查模块设计
这个功能是整个应用的核心功能,方便用户提交SQL代码后,触发审查逻辑并调用GLM-Z1-AirX API分析SQL代码的语法问题、注入风险、性能问题等,最后解析返回结果。
因此prompt的设计非常关键,我是这样写的:
代码审核的功能函数如下:
SQL自然语言生成模块设计
该应用支持的另一个核心功能是根据用户输入的自然语言自动生成SQL代码,而且支持用户提交表结构。
这样就能方便公司里那些对SQL不熟悉的同事,也能自己跑数据分析。
这个prompt相对简单:
代码生成的功能函数如下:
Web应用搭建
设计好接口模块、代码审核模块、代码生成模块后,接下来就是使用flask将其封装为Web应用,并设计简洁的交互式界面和接口,方便可视化直接使用。
这里涉及到网页请求、响应、表单处理、UI设计等任务,就不一一讲解了。
最终实现的效果如下:
打开web应用,出现SQL代码审查、SQL代码生成两个功能选项。
点击代码审查,会出现代码审核窗口,支持提交SQL代码。
点击审查,该应用会将代码提交给GLM-Z1-AirX API接口,模型推理完成返回审查结果。
前面是推理思考的过程,你可以看到SQL代码审查的细节,最后会有结构化的审查结果。
该结果包括了问题总结,以及报警等级和改进建议。
可以看到这个审查的结果还是比较准确可信的,能减少人工审核的时间。
接下来再测试下SQL代码生成功能效果如何,你只需要根据查询需求自然语言提问即可,如果想更精准的话,需附上表结构。
该应用返回的结果如下:
按照我们提的查询需求,GLM-Z1-AirX返回的代码是完全可用的,而且响应速度极快。
总结
如果你想学习开源大模型,可以尝试用GLM-Z1-AirX这类的推理模型开发一些小应用,既能解决业务中的痛点,又能挖掘大模型更多的可能性。GLM-Z1-AirX兼具性能、速度、成本等优势,适合个人开发者和中小公司,或者是免费版GLM-Z1-Flash也很不错,能无限制调用,赶紧试试。
智谱现在的AI研发和产品能力不可小觑,看新闻说OpenAl在刚刚发布的GPT-4.1系列模型中评测其函数调用能力时采用了智谱提出的ComplexFuncBench,这是专用于评估大模型复杂函数调用能力的测试基准,说明智谱的研究成果受到国际认可,十分难得。
相关阅读
MORE
+- 又一AI利器!智谱发布全新推理大模型,速度快8倍,价格比DeepSeek-R1更低~ 05-13 python怎么更新修改后的Python模块?python更新修改后Python模块的具体方法 05-13
- 一加13Pro无线充电断连?移除金属保护壳 05-13 深入理解Python生成器:原理、用法与优势 05-11
- Python怎么清屏?Python清屏的操作步骤 05-10 Pycharm如何创建文件模板?Pycharm创建文件模板的方法 05-09
- 掌握Python生成器基本用法,轻松迭代海量数据 05-09 影视特效软件排名前十推荐 2025影视特效制作软件免费排行榜 05-09
- 华为Pura80Ultra无线充电速度慢?改用官方充电器 05-09 Python是32位还是64位:详细解析与区别 05-08
- 逆向工程基础:IDAPro分析恶意样本 05-08 在夸克上怎么搜资源 夸克资源精准搜索技巧 05-07
- 黑神话悟空像素版分身术全收集攻略:3 分钟速通隐藏神技 05-06 foxmail怎么设置yandex邮箱 邮件客户端配置指南 05-06
- yandex ru是什么邮箱 俄罗斯邮箱服务特性说明 05-03 推荐一些视频p图软件 05-03
- yandex账号怎么登录邮箱 账户授权与登录流程详解 05-01 pdf怎么删除空白页?6类实用方法全解析! 04-30
热门合集
MORE
+热门资讯
MORE
+- 1 福运异宝即将开启《魔域口袋版》大奖免费送
- 2 Mac上玩《Movie Adventure 电影工作室》攻略,苹果电脑运行iOS游戏指南
- 3 Mac玩《同一个世界》攻略,如何在苹果电脑上运行《同一个世界》
- 4 Mac上玩《葫芦娃》攻略,如何在苹果电脑运行《葫芦娃》?
- 5 开放共创 荣耀全面打造AI PC创新中心
- 6 Mac电脑上玩《洪恩爱运动》教程,轻松在苹果电脑运行《洪恩爱运动》!
- 7 Mac上玩《清洗大脑!》攻略,如何在苹果电脑上享受这款iOS游戏?
- 8 Mac电脑上玩《天天连线》攻略,苹果电脑运行iOS游戏《天天连线》详细指南
- 9 Mac电脑玩《军团》攻略,如何在苹果电脑上运行《军团》游戏?
- 10 Mac玩《女神擦黑板》攻略,如何在苹果电脑上运行《女神擦黑板》