mysql5.7单表500万_mysql 5.7单表300万数据,性能严重下降,如何破?

  • Post author:
  • Post category:mysql


环境:

DB: mysql 5.7.xx

OS: windows server 2012 r2

CPU: E3 1220-V5

内存: 4G。

数据库配置(基本上是默认配置):

join_buffer_size = 128M

sort_buffer_size = 2M

read_rnd_buffer_size = 2M

innodb_buffer_pool_size = 128M

表现:

有个表service_log,

其中有ID, DIAL_NUMBER, contact_name, contact_result, remark, CREATE_TIME等20多个常规字段。ID是PK,在contact_name,create_time等列上建有单独索引。

此表每日产生的新数据大概在1万左右,目前有数据近300万。

有一个查询,查询字段较多:

select id, dial_number, contact_name ….

from service_log

where create_time between ‘2016-10-01’ and ‘2016-10-02’

从300万数据中,查询出近8000条数据,耗时大概在40秒左右。

查看执行计划,已经用了create_time上的索引。

显然这个效率很难接受,但是索引已经用上,实在想不出其他办法了。

请问除了分区,还有什么好办法吗?

innodb_buffer_pool_size 这个太小了改成2G先试试,

磁盘和内存的性能差了几十倍,128M让你的数据操作对磁盘进行了IO, innodb_buffer_pool_size这个加大应该就好好多了

这个和索引已经没有关系了,是磁盘io造成的问题,你看看任务管理器的磁盘性能,随着buffer加大,磁盘负载会下降,这个就和系统内存小会卡一样,给mysql的内存小也会卡。别的也会造成卡,应该没有innodb_buffer_pool_size这个明显

一次性取到太大的结果集不一定就是好。

除了加大对应的配置参数之外,可以考虑把一条sql查分为N条sql,这个可以具体的自己测试,比如每次取三个小时四个小时这样试试看得到一个平衡。

并发高吗,重复查询的概率高不高,可以尝试打开或者关闭查询缓存。

你要看时间花在哪里,是查找上,还是传输上。。。查找的话就说明优化没做好

建立组合索引,最频繁使用的列放在左边;查看列的选择性(即该列的索引值数量与记录数量的比值),比值越高,效果越好。



版权声明:本文为weixin_39724287原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。