mysql如何处理慢查询日志_slow_query_log开启与pt工具分析
慢查询日志:从开启到分析,避开那些“开了等于没开”的坑

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
想优化数据库性能,慢查询日志是绕不开的起点。但这里有个常见的误区:你以为开启了全局日志就万事大吉?如果关键的阈值没设对,很可能跑上一天也抓不到一条有效记录。而在分析工具的选择上,pt-query-digest凭借其SQL归一化、细粒度指标分析和灵活的时间切片能力,已经全面超越了老牌的mysqldumpslow,成为更精准、更实用的选择。
如何确认并正确开启 slow_query_log
动手之前,先别凭感觉,务必确认当前状态。否则,你可能在对着一个空的日志文件做无用功。
- 用
SHOW VARIABLES LIKE 'slow_query_log';看一眼,如果返回OFF,那就说明根本没开。 - 再看
SHOW VARIABLES LIKE 'long_query_time';,默认值10.000000意味着只记录执行超过10秒的查询——这在生产环境里,几乎等于什么都抓不到。 - 临时开启(注意,必须在全局级别设置):执行
SET GLOBAL slow_query_log = ON;,同时把SET GLOBAL long_query_time = 0.5;(建议值在0.5到2秒之间,支持小数)。 - 如果不指定路径,日志文件默认会放在MySQL的数据目录下,名字类似
hostname-slow.log,记得确保MySQL进程对这个路径有写入权限。 - 如果想一网打尽那些“没走索引”的语句,可以再加一条:
SET GLOBAL log_queries_not_using_indexes = ON;。
配置文件里怎么写才不会重启失败
临时生效的配置重启就没了,所以必须写入配置文件。修改 /etc/my.cnf 或 /etc/mysql/my.cnf 的 [mysqld] 段落时,有几个细节容易踩坑:
- 别写
slow_query_log = ON,尤其是在MySQL 8.0+版本,要求写成slow_query_log = 1,否则服务可能启动失败。 slow_query_log_file指定的路径必须真实存在且MySQL用户可写。比如设成/var/log/mysql/slow.log,就得提前执行mkdir -p /var/log/mysql && chown mysql:mysql /var/log/mysql。- 把
long_query_time设为0.1能捕获到毫秒级的毛刺,但日志体积会爆炸式增长,不适合长期开启。 - 加上
log_output = FILE明确输出到文件。这是为了避免某些版本默认把日志写进mysql.slow_log系统表,导致后续用pt工具分析时不便。 - 还有个可选但很实用的参数:
min_examined_row_limit = 100。它能过滤掉那些虽然执行慢、但只扫描了几行数据的干扰项(比如纯粹在等锁的查询)。
为什么不用 mysqldumpslow,而选 pt-query-digest
很多人习惯用自带的 mysqldumpslow,但它功能实在有些简陋。它不做SQL归一化,遇到带不同IN列表或LIMIT值的同构语句,就会傻傻地拆成多条统计,导致结果失真。相比之下,pt-query-digest 的优势就明显多了:
- 自动参数化SQL:像
SELECT * FROM user WHERE id = 123和id = 456这样的语句,会被智能地归为同一类,统计更准确。 - 支持按时间范围切片:你可以用
--since '2026-04-10 22:00:00'这样的参数,只分析特定时间段内的日志,排查问题更高效。 - 关键指标一目了然:报告能直接识别并标出锁等待时间、扫描行数(
Rows_examined)、返回行数等核心指标,帮你快速定位问题SQL。 - 生态衔接好:输出报告里的“Query ID”,可以直接给
pt-query-advisor等工具使用,进一步获取优化建议。 - 安装简单:主流系统基本都有包,Debian系用
apt install percona-toolkit,CentOS用yum install percona-toolkit,装完即用。
分析时最容易被忽略的三个细节
跑完 pt-query-digest,很多人直奔“最慢的Top 10”语句,但往往优化了半天效果不彰。问题出在哪儿?真正值得关注的,往往是这些细节:
Rows_examined远大于Rows_sent:这几乎是索引问题的“铁证”。说明SQL为了返回少量数据,扫描了大量无关行,大概率是缺索引,或者索引因为对字段用了函数等原因失效了。- 报告里大量出现
Using temporary; Using filesort:这通常不是单条SQL能轻易优化的。它暗示了更深层的设计问题,比如分页逻辑不合理,可能需要考虑用覆盖索引来规避临时表和文件排序。 - 同一类Query ID的
Count极高,但平均Exec time很短:比如某类查询被执行了10万次,平均耗时却只有几毫秒。这时候,瓶颈很可能不在SQL本身,而是连接池配置、网络往返延迟或应用层频繁创建连接等问题。
说到底,日志分析的核心目标,不是找到“最慢的一条”SQL,而是定位“对系统影响面最大的一类”问题。把握住这个原则,优化才能事半功倍。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
mysql8.0索引跳跃扫描如何使用_优化联合索引非首列查询
MySQL 8 0 索引跳跃扫描:一个被误解的“优化捷径” 提到MySQL 8 0的索引跳跃扫描(Index Skip Scan),很多人的第一反应是:“终于可以不用管联合索引最左前缀原则了!” 但事实果真如此吗?先泼一盆冷水:它并非一个可以随意开关的“万能钥匙”,而是优化器在特定场景下才会动用的“
怎样在SQL查询中同时展示明细与合计行_使用UNION ALL连接聚合结果
怎样在SQL查询中同时展示明细与合计行?使用UNION ALL连接聚合结果 先说一个核心判断:直接用GROUP BY是无法同时显示明细和合计的,因为它会折叠原始行、丢失明细。必须用UNION ALL将明细查询与单行聚合查询拼接,并且要求字段数、类型、顺序严格一致,最后通过ORDER BY或辅助排序字
PHP 8环境下怎么处理SQL注入_使用原生预处理配合强类型声明
PHP 8 防 SQL 注入:strict_types=1 + 真实预处理 + 类型校验 在PHP 8环境下防范SQL注入,如果还停留在“用了PDO::prepare就万事大吉”的认知,那风险可就大了。真实情况是,必须将强类型声明、严格绑定逻辑与预处理语句三者结合,形成一个完整的防御链条。否则,数字
SQL中如何实现按比例抽样数据 ROW_NUMBER与百分比筛选
SQL中如何实现按比例抽样数据:ROW_NUMBER与百分比筛选 用 ROW_NUMBER() 做比例抽样为什么容易出错 很多朋友一上来就想用 ROW_NUMBER() OVER (ORDER BY NEWID()) 给全表编号,然后取前百分之几。这个思路听起来挺顺,但实际一跑就发现不对劲。问题出在
mysql为什么RC级别在高并发下更受欢迎_分析其对死锁与并发的优化
RC降低死锁概率的根本原因是默认不使用间隙锁,仅对命中行加记录锁,锁范围更小、冲突更少;而RR对范围条件自动加Next-Key锁,易引发循环等待死锁。 RC 隔离级别为什么能降低死锁概率 说到底,RC级别降低死锁概率的核心秘诀,就在于它“不轻易动用”间隙锁(Gap Lock)——除了检查唯一键或外键
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

