LIC2022-知识对话任务基线系统
该教程介绍使用基于PaddlePaddle 2.2的Knover框架,在LIC2024多技能对话比赛数据集上训练和测试的流程。包括配置环境(获取代码、设Python路径等)、准备数据(预处理)、下载预训练及微调模型,还有模型训练、预测的命令及GPU配置,以及评估需提交预测结果到正式等内容,可助参赛者快速跑通流程。

LIC2024: 知识对话baseline
本教程介绍使用基于paddlepaddle2.2的大规模对话预训练框架Knover,及其提供的预训练模型,在"LIC2024多技能对话"比赛数据集上训练和测试。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
赛题介绍直播回顾:
0. 配置环境
获取github代码:
git clone -b dygraph https://github.com/PaddlePaddle/Knover登录后复制
设置Python环境
export PYTHONPATH=/home/aistudio/work/Knover:$PYTHONPATH登录后复制
基线模型需要的配置路径为:
projects/lic2024登录后复制
创建数据和模型存在的目录,本教程中默认训练和预测使用的数据和模型均存放以下目录:
mkdir -p projects/lic2024/model_zoomkdir -p projects/lic2024/preprocess_data登录后复制
1. 准备数据
模型训练和预测之前,都需要准备好所需的数据。首先,将比赛正式获取的数据放到当前环境中,具体目录可自行选择。数据获取可通过2024语言与智能技术竞赛:知识对话获取。
# 运行数据预处理脚本,将原始数据处理为Knover训练、预测所需格式python ./tools/data_preprocess.py登录后复制
2. 下载模型
本基线提供"大规模数据预训练模型"和"对话比赛数据微调模型"两个模型。
大规模数据预训练模型:采用包含20M对话session/60M对话utterance的大规模中文对话数据训练得到对话比赛数据微调模型:上述预训练模型,继续在LIC2024知识对话比赛的对话数据上进行微调得到,包括Query生成与对话生成两个模型下载方式如下:
# 大规模数据预训练模型wget "https://dialogue.bj.bcebos.com/Knover/projects/lic2024/12L.pretrain.pdparams"# 对话比赛数据微调模型# Query生成wget "https://dialogue.bj.bcebos.com/Knover/projects/lic2024/query_finetune.pdparams"# 对话生成wget "https://dialogue.bj.bcebos.com/Knover/projects/lic2024/dial_finetune.pdparams"登录后复制
将上述模型保存在./projects/lic2024/model_zoo/目录下(也可以放在其它目录下),并在模型训练和测试的时候,保证模型路径与config目录下配置文件中,对应模型配置路径一致(必须).
3. 模型训练
模型训练命令如下:
# 模型训练,一定要确保GPU环境和模型参数配置正确,具体见下文示例# Query生成 训练./scripts/local/job.sh ./projects/lic2024/conf/query_train.conf# 对话生成 训练./scripts/local/job.sh ./projects/lic2024/conf/dial_train.conf登录后复制
训练之前,检查启动脚本与配置文件,确保配置正确:
配置GPU,位置:./scripts/local/job.sh# 单GPU卡训练,以使用0号GPU卡为例export CUDA_VISIBLE_DEVICES=0# 多GPU卡训练,以使用0,1号GPU卡为例export CUDA_VISIBLE_DEVICES=0,1登录后复制登录后复制
4. 模型预测
模型预测命令如下:
# 模型预测,一定要确保GPU环境和模型参数配置正确,具体见下文示例# Query生成预测./scripts/local/job.sh ./projects/lic2024/conf/query_infer.conf#对话生成预测./scripts/local/job.sh ./projects/lic2024/conf/dial_infer.conf登录后复制
预测之前,检查启动脚本与配置文件,确保配置正确:
配置GPU,位置:./scripts/local/job.sh# 单GPU卡训练,以使用0号GPU卡为例export CUDA_VISIBLE_DEVICES=0# 多GPU卡训练,以使用0,1号GPU卡为例export CUDA_VISIBLE_DEVICES=0,1登录后复制登录后复制
5. 模型评估
模型评估需要将预测结果提交到正式进行评测:
Query生成预测结果与对话生成预测结果拼接为一个文本,提交到正式评估,可参考数据集中的submit_file.txt
6. 其它
本教程提供了"大规模数据预训练模型"和"对话比赛数据微调模型"两个模型,可作为一个基础baseline,帮助参赛者快速跑通整个参赛流程。 参赛者可以针对赛题进行其他改进,例如修改数据预处理方法,修改网络结构,修改训练方式,修改预测结果的后处理等。
In [ ]登录后复制
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话
新智元报道编辑:元宇【新智元导读】一个让AI像原始人一样说话的插件,在HN上一夜爆火,冲破2w星。它的核心只是一条简单粗暴的prompt:删掉冠词、客套和一切废话,号称能省下75%的输出token。
季度利润翻 8 倍,最赚钱的「卖铲人」财报背后,内存涨价狂潮如何收场?
AI 时代最赚钱的公司,可能从来不是做 AI 的那个。作者|张勇毅编辑|靖宇淘金热里最稳赚的人,从来不是淘金的,是卖铲子的。这句老话在 2026 年的科技行业又应验了一次。只不过这次卖铲子的不是英伟
Claude Code Harness+龙虾科研团来了!金字塔分层架构+多智能体
Claw AI Lab团队量子位 | 公众号 QbitAI你还在一个人做科研吗?科研最难的,从来不是问题本身,而是一个想法从文献到实验再到写作,只能靠自己一点点往前推。一个人方向偏了没人提醒,遇到歧
让离线强化学习从「局部描摹」变「全局布局」丨ICLR'26
面对复杂连续任务的长程规划,现有的生成式离线强化学习方法往往会暴露短板。它们生成的轨迹经常陷入局部合理但全局偏航的窘境。它们太关注眼前的每一步,却忘了最终的目的地。针对这一痛点,厦门大学和香港科技大
美国犹他州启动新试点项目:AI为患者开具精神类药物处方
IT之家 4 月 5 日消息,据外媒 PC Mag 当地时间 4 月 4 日报道,美国医疗机构 Legion Health 在犹他州获得监管批准,启动一项试点项目,允许 AI 系统为患者开具精神类药
- 日榜
- 周榜
- 月榜
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

