Redis如何批量删除特定前缀的Key_使用Lua脚本避免阻塞主线程
生产环境禁用 KEYS+DEL,因其会阻塞 Redis 主线程;应使用带游标和分批的 SCAN+DEL Lua 脚本或 Ja va 中通过 RedisConnection 执行 SCAN 迭代删除,避免连接泄漏。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
直接使用 KEYS 配合 DEL 来批量删除特定前缀的 Key,听起来很直接,对吧?但在高并发或数据量大的生产环境里,这恰恰是引发服务阻塞的典型操作。真正安全可靠的做法,是采用 Lua 脚本封装 SCAN 和 DEL 命令,既能保证原子性,又不会阻塞主线程服务。
为什么不能直接用 KEYS + DEL
问题的根源在于 KEYS 命令本身。它是一个全库扫描命令,会一次性把所有匹配的 key 加载到内存,并且在这个过程中会锁住 Redis 的主线程。这意味着,在它执行期间,所有的读写请求都只能排队等待。一旦匹配的 key 数量达到几万甚至更多,Redis 很可能卡顿数秒,极端情况下甚至会触发客户端的超时熔断。线上就曾出现过这样的真实事故:有人执行 redis-cli KEYS "user:*" | xargs redis-cli DEL,直接导致依赖 Redis 的订单接口平均延迟飙升到 2 秒以上。
常见的错误现象包括:
- 脚本报错:
ERR Error running script (call to f_...): @user_script:1: @user_script: 1: user_script:1: Lua script attempted to access a non-existent key(尤其在集群模式下,脚本内误用KEYS会导致此错误) - 监控指标异常:
redis_blocked_clients(被阻塞的客户端数)突然增加,redis_latency_ms(延迟毫秒数)持续高于 100ms。 - 应用层抛出大量
RedisCommandTimeoutException(Redis 命令超时异常)。
EVAL 执行单次 Lua 脚本的隐患
那么,把 KEYS 和 DEL 包进 Lua 脚本里,用一条 EVAL 命令执行,是不是就安全了?比如这种写法:EVAL "return redis.call('del', unpack(redis.call('keys', ARGV[1])))" 0 "cache:*"。看起来很简洁,但遗憾的是,它只是把问题包装了一下。脚本内部依然调用了阻塞式的 KEYS 命令,在 Redis 单线程模型下,其阻塞效应和直接执行 KEYS 没有本质区别。
这种写法还存在几个更具体的问题:
- 不支持 Redis 集群:
KEYS命令无法跨 slot 执行,在集群环境下直接运行就会报错。 - 缺乏分批控制:如果匹配出 50 万个 key,
unpack()函数会尝试一次性将所有 key 传入DEL命令,这可能触发 Lua 栈溢出或命令执行超时。 - 没有游标中断机制:一旦执行过程中因网络闪断等原因失败,整个操作会完全中断,无法从断点继续,也无法得知删除了多少。
推荐方案:带游标和分批的 SCAN + DEL Lua 脚本
所以,什么才是正确的姿势?核心思路是用非阻塞的 SCAN 命令替代 KEYS。SCAN 通过游标迭代,每次只取一小批 key(例如 1000 个),然后再分更小的批次调用 DEL。整个过程是增量式的,完全不会阻塞主线程。下面是一个可以直接投入使用的 Lua 脚本示例:
local pattern = ARGV[1]
local count = tonumber(ARGV[2]) or 1000
local batch_size = tonumber(ARGV[3]) or 100
local cursor = "0"
local total = 0
repeat
local result = redis.call("SCAN", cursor, "MATCH", pattern, "COUNT", count)
cursor = result[1]
local keys = result[2]
if #keys > 0 then
for i = 1, #keys, batch_size do
local batch = {}
for j = i, math.min(i + batch_size - 1, #keys) do
table.insert(batch, keys[j])
end
redis.call("DEL", unpack(batch))
total = total + #batch
end
end
until cursor == "0"
return total
这个脚本的使用方式很灵活:
- 可以通过命令行调用:
redis-cli --eval del_by_scan.lua , "user:session:*" 1000 50(注意脚本路径后的逗号分隔)。 ARGV[1]是匹配模式,必须包含通配符,例如"user:session:*"。ARGV[2]控制每次SCAN命令返回的 key 数量上限,建议在 100 到 1000 之间。ARGV[3]控制每批DEL操作的 key 数量,建议小于等于 100,以避免单次命令体量过大。- 该脚本兼容 Redis 4.0 及以上版本,在单机模式和集群模式下均可使用,集群环境下会自动路由到正确的 slot。
Ja va 中用 RedisTemplate 调用 SCAN + DEL 脚本
对于 Spring Boot 项目,同样要避免使用 redisTemplate.keys(pattern) 方法,因为它底层可能使用了阻塞操作。正确的做法是获取原生连接,通过游标进行迭代。
这里有几个关键点需要把握:
- 必须使用
RedisConnection:而不是高级封装的RedisTemplate,因为后者通常不暴露底层的游标控制能力。 - 合理设置 ScanOptions:
ScanOptions.count()建议设为 100 到 500。设置太小会增加迭代次数,设置太大则可能增加单次网络往返的数据压力。 - 即扫即删,避免堆积:每次迭代拿到一批 key 后,应立即调用
connection.del(key)进行删除,不要将所有 key 收集到一个大集合中再一次性删除。 - 注意游标资源管理:这是一个容易被忽略但至关重要的细节。务必使用 try-with-resources 语法或显式调用
cursor.close()来关闭游标,否则会导致连接泄漏。在高频调用场景下,连接池可能因此被快速耗尽。
下面是一个示例代码片段:
redisTemplate.execute((RedisCallback) connection -> { long deleted = 0; Cursor cursor = connection.scan( ScanOptions.scanOptions() .match("order:*") .count(200) .build() ); try { while (cursor.hasNext()) { byte[] key = cursor.next(); connection.del(key); deleted++; } } finally { cursor.close(); } return deleted; });
说到底,批量删除操作的安全性,就藏在游标管理和分批处理的细节里。忽略它们,就等于给系统埋下了潜在的稳定性隐患。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
mysql执行sql语句时内存溢出_如何设置排序区buffer优化内存使用
MySQL排序内存溢出?别慌,先搞懂sort_buffer_size怎么调 sort_buffer_size并非越大越好,盲目调高易引发OOM;它按需分配、每连接独占,建议会话级设为4MB而非全局调整,并优先优化索引避免filesort。 MySQL排序内存不足报 Out of memory 怎么调
mysql如何清理过大的binlog日志_设置expire_logs_days自动删除
MySQL Binlog清理:为什么设置了过期天数,日志文件却纹丝不动? 不少DBA都遇到过这个令人困惑的场景:明明在配置文件里白纸黑字地设置了expire_logs_days = 7,重启后检查变量也确认生效了。可一周过去,磁盘空间告急,一查发现那些本该被自动清理的旧binlog文件,居然还老老实
mysql主从同步报错1062怎么解决_使用set global sql_slave_skip_counter跳过错误
MySQL主从同步报错1062:从应急跳转到根治数据冲突的完整指南 遇到主从同步卡在1062错误,很多DBA的第一反应就是“跳过它”。但跳过之后呢?问题往往卷土重来。今天,我们就来彻底拆解这个经典的“Duplicate entry”冲突,把应急操作和根治方案一次讲清楚。 MySQL主从同步报错106
MySQL生产环境误操作drop表_通过Binlog闪回恢复数据
MySQL生产环境误删表数据?别急,利用Binlog日志实现精准闪回恢复 在MySQL数据库运维中,最令人紧张的场景莫过于生产环境误执行了DROP TABLE命令。面对突发状况,保持冷静是关键。只要数据库满足两个核心条件,被删除的数据就有极高的恢复可能性。这两个必要条件是什么?即MySQL的二进制日
mysql如何解决由于外键导致的更新死锁_在高性能场景下拆除外键
MySQL外键:高性能场景下的隐形死锁制造者与安全拆除指南 先明确一个核心结论:在高并发写入的场景下,数据库外键约束极易成为性能瓶颈和死锁的源头。简单来说,外键的UPDATE操作会因校验参照完整性而对关联记录加共享锁(S锁);若要安全拆除,则需遵循确认依赖、手动校验、在线删除三步走;拆除后,必须通过
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

