如何高效将 JSON 数据批量导入 Django 模型(SQL 数据库)
如何高效将 JSON 数据批量导入 Django 模型(SQL 数据库)
本文详解 Django 中将 JSON 文件数据批量写入数据库的正确方法,重点解决单次循环中仅保存最后一条记录的问题,并推荐使用 bulk_create() 实现高性能、低开销的一次性批量插入。
在 Django 开发中,从外部 JSON 文件导入数据到数据库,是个高频操作。但不少新手容易踩一个坑:在循环里创建了模型实例,却把保存操作放错了位置,结果数据库里只孤零零躺着最后一条记录,前面的数据全丢了。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
比如下面这段典型的“问题代码”:
for item in data:
my_model_instance = MyModel(...) # 每次覆盖引用
my_model_instance.sa ve() # ❌ 只保存最后一次迭代的对象
问题出在哪?关键在于,.sa ve() 必须放在循环内部,每创建一个实例就立刻保存。但更优的方案是:先把所有实例“攒”起来,然后一次性入库。这正是 Django ORM 的 bulk_create() 方法大显身手的地方。
这个方法会把成百上千条记录,打包成一条或极少数几条 SQL INSERT 语句发送给数据库。比起在循环里调用 N 次 .sa ve()(意味着 N 次数据库连接和事务),性能提升可不是一星半点,尤其是在处理大量数据时,效率差异能达到数十倍。
那么,具体该怎么写呢?下面是一个优化后的、可直接使用的视图函数示例:
from django.shortcuts import render
import json
from .models import MyModel
import os
def display(request):
# 构建 JSON 文件绝对路径(注意:建议使用 settings.BASE_DIR 更健壮)
json_file_path = os.path.join(
os.path.dirname(__file__), '..', '..', 'jsondata.json'
)
try:
with open(json_file_path, 'r', encoding='utf-8') as f:
data = json.load(f)
# ✅ 使用列表推导式批量构建模型实例
model_instances = [
MyModel(
end_year=item.get('end_year'),
intensity=item.get('intensity'),
sector=item.get('sector'),
topic=item.get('topic'),
insight=item.get('insight'),
url=item.get('url'),
region=item.get('region'),
start_year=item.get('start_year'),
impact=item.get('impact'),
added=item.get('added'),
published=item.get('published'),
country=item.get('country'),
relevance=item.get('relevance'),
pestle=item.get('pestle'),
source=item.get('source'),
title=item.get('title'),
likelihood=item.get('likelihood'),
)
for item in data
]
# ✅ 批量写入数据库(自动跳过空列表,支持 batch_size 参数分批)
MyModel.objects.bulk_create(model_instances, batch_size=1000)
except FileNotFoundError:
data = []
# 可选:记录日志或抛出自定义异常
# import logging; logging.error("JSON file not found: %s", json_file_path)
except json.JSONDecodeError as e:
data = []
# 处理 JSON 格式错误
raise ValueError(f"Invalid JSON format: {e}") from e
except Exception as e:
# 建议捕获更具体的异常(如 IntegrityError),便于调试
raise
return render(request, 'display.html', {'data': data})
代码写好了,但魔鬼藏在细节里。想让这段代码足够健壮,能上生产环境,有几个关键点必须注意:
- ✅ 使用 .get(key) 替代直接 item[‘key’]:这能有效避免因为 JSON 里某个字段意外缺失而导致的
KeyError崩溃,让程序更从容。 - ✅ 指定 encoding=‘utf-8’:处理包含中文或其他非 ASCII 字符的数据时,这行代码能救命,确保不会出现乱码。
- ✅ 善用 batch_size 参数:当数据量极大(比如超过一万条)时,设置
batch_size=1000可以分批插入,既能避免单条 SQL 语句过长导致数据库报错,也能防止内存被瞬间吃光。 - ⚠️ bulk_create() 不触发 sa ve() 方法和信号:这是个重要的限制。如果你在模型的
sa ve()方法里写了自定义逻辑,或者依赖pre_sa ve/post_sa ve信号来做点事情(比如自动更新某个时间戳),那么bulk_create()会绕过它们。这种情况下,就需要考虑其他方案,比如使用model_to_dict()配合表单保存,或者手动在批量创建后触发相关逻辑。 - ⚠️ 留意主键与默认值:对于自增主键(
AutoField),bulk_create()会自动处理好。但是,对于模型中字段定义的default值(例如default=timezone.now),bulk_create()不会自动计算并填充。你需要在创建实例时,就显式地传入这些值。 - ✅ 路径安全是底线:示例中使用了相对路径来定位 JSON 文件,这在开发中或许方便,但在生产环境是隐患。最佳实践是,通过
settings.BASE_DIR来构建绝对路径,将数据文件放在项目结构内明确的位置进行管理。
把这些要点都做到位,你的 JSON 数据导入流程就不仅仅是“能用”,而是具备了生产环境所需的健壮性、可维护性与高性能。从源头避免数据丢失,让批量操作真正快起来,这才是高效开发该有的样子。

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
inotify在开发中如何使用
inotify:Linux开发者的文件系统“监视哨” 在Linux开发中,你是否遇到过这样的需求:配置文件一改,服务就得立刻感知并重新加载;或者某个目录下的文件一旦变动,就需要自动触发同步任务?这时候,内核提供的inotify机制就该登场了。它就像一位不知疲倦的“监视哨”,能实时监控文件或目录的打开
inotify如何实现日志记录
inotify:Linux文件系统实时监控与日志记录的核心方案 在Linux系统管理中,如何高效追踪目录与文件的动态变化?传统的手动检查方式不仅繁琐,更无法满足实时性需求。幸运的是,Linux内核内置了一套强大的文件系统事件监控机制——inotify。它如同一位全天候的智能哨兵,能够实时侦测文件或目
Linux中Node.js如何进行代码调试
在Linux中调试Node js代码的几种实用方法 调试是开发过程中不可或缺的一环,尤其是在Linux环境下进行Node js开发时,掌握几种高效的调试方法,能让你事半功倍。下面就来聊聊几种主流的调试方案,你可以根据自己的工作流和习惯来选择。 1 使用内置的调试器(node inspect) No
Node.js在Linux上如何进行单元测试
在Linux上对Node js应用程序进行单元测试 给Node js应用做单元测试,这事儿在Linux环境下其实挺顺畅的。市面上有几个相当成熟的Ja vaScript测试框架和库,用起来效率很高。下面咱们就按步骤走一遍,看看具体怎么操作。 1 选择一个测试框架 第一步,得挑个顺手的测试框架。Moc
Linux环境中Node.js如何进行性能监控
Linux 环境下 Node js 性能监控实操指南 一 监控分层与核心指标 构建一个有效的监控体系,建议从四个层面入手,层层递进,确保没有盲区: 系统层:这是基础。需要紧盯 CPU 使用率、内存占用、磁盘 I O 吞吐以及网络流量这些基础资源。目标是第一时间识别出资源瓶颈和任何异常波动,毕竟应用跑
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

