优秀的编程知识分享平台

网站首页 > 技术文章 正文

详解MySQL慢查询分析工具--pt-query-digest

nanyue 2024-08-16 00:37:33 技术文章 7 ℃

概述

今天主要介绍一个很好用的工具--pt-query-digest,如果大家对mysql有兴趣的话,这个命令是不得不了解的,而且建议重点掌握。


一、简介

pt-query-digest是用于分析mysql慢查询的一个工具,它可以分析binlog、General log、slowlog,也可以通过SHOWPROCESSLIST或者通过tcpdump抓取的MySQL协议数据来进行分析。可以把分析结果输出到文件中,分析过程是先对查询语句的条件进行参数化,然后对参数化以后的查询进行分组统计,统计出各查询的执行时间、次数、占比等,可以借助分析结果找出问题进行优化。


二、安装pt-query-digest

1.下载页面

https://www.percona.com/doc/percona-toolkit/2.2/installation.html

2.perl的模块

rpm -ivh perl-DBD-MySQL-4.023-5.el7.x86_64.rpm

3、安装percona-toolkit

wget https://www.percona.com/downloads/percona-toolkit/3.0.13/binary/redhat/7/x86_64/percona-toolkit-3.0.13-re85ce15-el7-x86_64-bundle.tar
rpm -ivh percona-toolkit-3.0.13-1.el7.x86_64.rpm

缺啥直接yum list|grep XX然后yum install就可以了

例如:

[root@ZL-FSL-CAS-TEST-DB opt]# rpm -ivh percona-toolkit-3.0.13-1.el7.x86_64.rpm
warning: percona-toolkit-3.0.13-1.el7.x86_64.rpm: Header V4 RSA/SHA256 Signature, key ID 8507efa5: NOKEY
error: Failed dependencies:
 perl(Term::ReadKey) is needed by percona-toolkit-3.0.13-1.el7.x86_64
[root@ZL-FSL-CAS-TEST-DB opt]# yum list |grep Term
perl-Term-UI.noarch 0.36-2.el7 @anaconda 
perl-TermReadKey.x86_64 2.30-20.el7 InstallMedia
[root@ZL-FSL-CAS-TEST-DB opt]# yum install -y perl-TermReadKey.x86_64

三、各工具用法简介

1、慢查询日志分析统计

pt-query-digest slow.log

2、服务器摘要

pt-summary 

3、服务器磁盘监测

pt-diskstats 

4、mysql服务状态摘要

pt-mysql-summary -- --user=root --password=xxx

四、pt-query-digest语法及重要选项

pt-query-digest [OPTIONS] [FILES] [DSN] 

说明:

--create-review-table 当使用--review参数把分析结果输出到表中时,如果没有表就自动创建。
--create-history-table 当使用--history参数把分析结果输出到表中时,如果没有表就自动创建。
--filter 对输入的慢查询按指定的字符串进行匹配过滤后再进行分析
--limit 限制输出结果百分比或数量,默认值是20,即将最慢的20条语句输出,如果是50%则按总响应时间占比从大到小排序,输出到总和达到50%位置截止。
--host mysql服务器地址
--user mysql用户名
--password mysql用户密码
--history 将分析结果保存到表中,分析结果比较详细,下次再使用--history时,如果存在相同的语句,且查询所在的时间区间和历史表中的不同,则会记录到数据表中,可以通过查询同一CHECKSUM来比较某类型查询的历史变化。
--review 将分析结果保存到表中,这个分析只是对查询条件进行参数化,一个类型的查询一条记录,比较简单。当下次使用--review时,如果存在相同的语句分析,就不会记录到数据表中。
--output 分析结果输出类型,值可以是report(标准分析报告)、slowlog(Mysql slow log)、json、json-anon,一般使用report,以便于阅读。
--since 从什么时间开始分析,值为字符串,可以是指定的某个”yyyy-mm-dd [hh:mm:ss]”格式的时间点,也可以是简单的一个时间值:s(秒)、h(小时)、m(分钟)、d(天),如12h就表示从12小时前开始统计。
--until 截止时间,配合—since可以分析一段时间内的慢查询。

五、用法示例

1.直接分析慢查询文件:

pt-query-digest slow.log > slow_report.log

2.分析最近36小时内的查询:

pt-query-digest --since=36h slow.log > slow_report2.log

3.分析指定时间范围内的查询:

pt-query-digest slow.log --since '2019-08-30 09:30:00' --until '2019-08-31 18:00:00' > slow_report3.log

4.分析指含有select语句的慢查询

pt-query-digest --filter '$event->{fingerprint} =~ m/^select/i' slow.log> slow_report4.log

5.针对某个用户的慢查询

pt-query-digest --filter '($event->{user} || "") =~ m/^root/i' slow.log> slow_report5.log

6.查询所有所有的全表扫描或full join的慢查询

pt-query-digest --filter '(($event->{Full_scan} || "") eq "yes") ||(($event->{Full_join} || "") eq "yes")' slow.log> slow_report6.log

7.把查询保存到query_review表

 pt-query-digest --user=root --password=xxx --review h=localhost,D=test,t=query_review --create-review-table slow.log

8.把查询保存到query_history表

pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_history--create-review-table slow.log_0001
pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_history--create-review-table slow.log_0002

9.通过tcpdump抓取mysql的tcp协议数据,然后再分析

tcpdump -s 65535 -x -nn -q -tttt -i any -c 1000 port 3306 > mysql.tcp.txt
pt-query-digest --type tcpdump mysql.tcp.txt> slow_report9.log

10.分析binlog

mysqlbinlog mysql-bin.000093 > mysql-bin000093.sql
pt-query-digest --type=binlog mysql-bin000093.sql > slow_report10.log

篇幅有限,这块就介绍到这了,后面会分享更多devops和DBA方面的内容,感兴趣的朋友可以关注下!

最近发表
标签列表