mysql数据库学习之SQL优化(八)
文章目录
- 1.1 插入数据优化
- 1.2 主键优化
- 1.3 order by优化
- 1.4 group by优化
- 1.5 limit优化
- 1.6 count优化
- 1.7 update优化(避免行锁升级为表锁)
1.1 插入数据优化
-
普通插入
1. 采用批量插入(每次插入100-1000条) INSERT INTO users (id, name, email) VALUES (1, '张三', 'zhang@example.com'), (2, '李四', 'li@example.com'), (3, '王五', 'wang@example.com'); -- ... 更多数据2. 手动提交事务,减少提交次数 START TRANSACTION; INSERT INTO users (id, name, email) VALUES (1, '张三', 'zhang@example.com'); INSERT INTO users (id, name, email) VALUES (2, '李四', 'li@example.com'); INSERT INTO users (id, name, email) VALUES (3, '王五', 'wang@example.com'); COMMIT;3. 主键顺序插入
-
大批量插入
-- 如果一次性需要插入大批量数据,使用insert语句插入性能较低,此时可以使用MySQL数据库提供的load指令插入 -- 客户端连接服务端时,加上参数 --local-infile(这一行在bash/cmd界面输入) mysql --local-infile -u root -p-- 设置全局参数local_infile为1,开启从本地加载文件导入数据的开关 set global local_infile = 1; select @@local_infile;-- 执行load指令将准备好的数据,加载到表结构中 load data local infile '/root/sql1.log' into table 'users' fields terminated by ',' lines terminated by '\n';
1.2 主键优化
-
数据组织方式:在InnoDB存储引擎中,表数据都是根据主键顺序组织存放的,这种存储方式的表称为索引组织表(Index organized table, IOT)
-
页分裂:页可以为空,也可以填充一般,也可以填充100%,每个页包含了2-N行数据(如果一行数据过大,会行溢出),根据主 键排列。
-
页合并:当删除一行记录时,实际上记录并没有被物理删除,只是记录被标记(flaged)为删除并且它的空间变得允许被其他记录声明使用。当页中删除的记录到达 MERGE_THRESHOLD(默认为页的50%),InnoDB会开始寻找最靠近的页(前后)看看是否可以将这两个页合并以优化空间使用。
-
MERGE_THRESHOLD:合并页的阈值,可以自己设置,在创建表或创建索引时指定
-
演示过程:https://www.bilibili.com/video/BV1Kr4y1i7ru?p=90
-
主键设计原则:
1) 满足业务需求的情况下,尽量降低主键的长度 2) 插入数据时,尽量选择顺序插入,选择使用 AUTO_INCREMENT 自增主键 3) 尽量不要使用 UUID 做主键或者是其他的自然主键,如身份证号 4) 业务操作时,避免对主键的修改
1.3 order by优化
-
Using filesort:通过表的索引或全表扫描,读取满足条件的数据行,然后在排序缓冲区 sort buffer 中完成排序操作,所有不是通过索引直接返回排序结果的排序都叫 FileSort 排序-
-
Using index:通过有序索引顺序扫描直接返回有序数据,这种情况即为 using index,不需要额外排序,操作效率高
-
注意:如果order by字段全部使用升序排序或者降序排序,则都会走索引,但是如果一个字段升序排序,另一个字段降序排序,则不会走索引,explain的extra信息显示的是
Using index, Using filesort
,如果要优化掉Using filesort,则需要另外再创建一个索引,如:create index idx_user_age_phone_ad on tb_user(age asc, phone desc);
,此时使用select id, age, phone from tb_user order by age asc, phone desc;
会全部走索引 -
总结:
1) 根据排序字段建立合适的索引,多字段排序时,也遵循最左前缀法则 2) 尽量使用覆盖索引 3) 多字段排序,一个升序一个降序,此时需要注意联合索引在创建时的规则(ASC/DESC) 4) 如果不可避免出现filesort,大数据量排序时,可以适当增大排序缓冲区大小 sort_buffer_size(默认256k)
1.4 group by优化
-
分组操作
1) 在分组操作时,可以通过索引来提高效率 2) 分组操作时,索引的使用也是满足最左前缀法则的 3) 注意:如索引为`idx_user_pro_age_stat`,则句式可以是`select ... where profession order by age`,这样也符合最左前 缀法则
1.5 limit优化
-
常见的问题:如
limit 2000000, 10
,此时需要 MySQL 排序前2000000条记录,但仅仅返回2000000 ~2000010的记录,其他记录丢 弃,查询排序的代价非常大。 -
优化方案:一般分页查询时,通过创建覆盖索引能够比较好地提高性能,可以通过覆盖索引加子查询形式进行优化,比如
-- 此语句耗时很长 select * from tb_sku limit 9000000, 10;-- 通过覆盖索引加快速度,直接通过主键索引进行排序及查询 select id from tb_sku order by id limit 9000000, 10;-- 下面的语句是错误的,因为 MySQL 不支持 in 里面使用 limit select * from tb_sku where id in (select id from tb_sku order by id limit 9000000, 10);-- 通过连表查询即可实现第一句的效果,并且能达到第二句的速度 select * from tb_sku as s, (select id from tb_sku order by id limit 9000000, 10) as a where s.id = a.id;
1.6 count优化
-
count
1)MyISAM 引擎把一个表的总行数存在了磁盘上,因此执行 count(*) 的时候会直接返回这个数,效率很高(前提是不适用where); 2)InnoDB 在执行 count(*) 时,需要把数据一行一行地从引擎里面读出来,然后累计计数。
-
优化方案:自己计数,如创建key-value表存储在内存或硬盘,或者是用redis
-
注意:如果count函数的参数(count里面写的那个字段)不是NULL(字段值不为NULL),累计值就加一,最后返回累计值
-
count的几种用法:count(*)、count(主键)、count(字段)、count(1)
-
count(主键)跟count(*)一样,因为主键不能为空
-
*count(字段)只计算字段值不为NULL的行
-
count(1)引擎会为每行添加一个1,然后就count统计这个1,返回结果也跟count()一样
-
count(null)返回0
-
-
各种用法的性能
-
count(主键):InnoDB引擎会遍历整张表,把每行的主键id值都取出来,返回给服务层,服务层拿到主键后,直接按行进行累加(主键不可能为空)
-
count(字段):没有not null约束的话,InnoDB引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,服务层判断是否为null,不为null,计数累加;有not null约束的话,InnoDB引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,直接按行进行累加
-
count(1):InnoDB 引擎遍历整张表,但不取值。服务层对于返回的每一层,放一个数字 1 进去,直接按行进行累加
-
count(*):InnoDB 引擎并不会把全部字段取出来,而是专门做了优化,不取值,服务层直接按行进行累加
-
-
按效率排序:count(字段) < count(主键) < count(1) < count(),所以尽量使用 count()
1.7 update优化(避免行锁升级为表锁)
-
说明:InnoDB 的行锁是针对索引加的锁,不是针对记录加的锁,并且该索引不能失效,否则会从行锁升级为表锁
以下两条语句: update student set no = '123' where id = 1;,这句由于id有主键索引,所以只会锁这一行;update student set no = '123' where name = 'test';,这句由于name没有索引,所以会把整张表都锁住进行数据更新,解决方法是给name字段添加索引