1
changdy 320 天前 3
https://juejin.cn/post/7207410405786484796
https://juejin.cn/post/7323570678690185242 我自己做过一个订单查询的优化 ..场景复杂得多 . 不知道楼主是已经有了具体的场景,还是只是猜想将来的维护情况 |
2
Pythoner666666 320 天前 1
瓶颈在你这个 count(*),下面一条走索引不会慢,所以解决办法就是跟 PM 沟通下,要么把时间筛选加上,要么就加缓存允许一定的延迟。
|
3
vacuitym 320 天前
不然做一张表单纯存数据的 count ,然后去定时刷新
|
4
nice2cu 320 天前
limit 页数大了也会慢的, 试试业务上能不能处理下,比如必填条件数增多,分页量大时不然看 1000 页之后的
|
5
tonghuashuai 320 天前
数据量大以后使用 limit offset, size 会有性能问题,可以使用 id 作为 cursor 。
|
6
june4 320 天前
先确定有没有准确实时的大数据集总数这个需求吧
|
7
opengps 320 天前 1
我们这里要求的是分两步走:先执行第二句,有信息返回再执行第一句,否则第一句直接就用返回值 0 代替
|
8
JackCh3ng 320 天前
如果你的查询条件不复杂,数据量基本固定不会再增加,可以用缓存计数的方式,否则就乖乖上 es 吧,而且就算上 es 也还是解决不了深度分页的问题( es 只能查询一万条数据,也就是说 10 条一页,只能 1000 页,后面的也查不出来了)。如果觉得 es 成本太高,在没有复杂查询条件的情况下也可以尝试列式存储,但具体效率要看数据量和查询字段,使用列式存储仍然需要一个事务数据库,同样是需要数据同步的方案,或者在代码里进行双写。
|
9
silentsky 320 天前
如果是内部使用 换 olap 数据库,否则不要 count
|
10
zhuoyue100 320 天前
数据量比较大的时候,这类查询一般不走业务表,可以异步写一份到分析型数据库来实现
|
11
ShuA1 320 天前 4
别用 count 用 EXPLAIN ,快很多,测试一下吧
|
12
iyiluo 320 天前
最好和业务商量一下,看看能不能限制一下查询范围,例如对外展示的数据限制前面 100 页
|
13
FreeEx 320 天前
1. 非要有总数量的话就得加上一个时间范围的选择。
2. 不要总数量的话就可以用游标分页,这种需要数据结构中有一个字段是带顺序且唯一。 第二种可以参考 https://bojithapiyathilake.medium.com/pagination-offset-vs-cursor-in-mysql-92cbf1a02cfa |
14
realNewBee 320 天前
如果想通过技术手段来解决,那就不能使用 MySQL ,得使用其他的数据库。否则只能通过业务方案来解决。
数据量超过百万,count 和 limit 都有性能问题。所以肯定不能用。在不改变数据库的情况下,我能想到的就是用 ID 来做滚动分页+索引搜索的业务方案来解决。 |
15
coderzhangsan 320 天前 7
上亿数据分页查询,楼上已经说明了存在的问题,我帮你简单汇总下:
1. innodb 引擎,count 查询会很慢,优化的重点将是这里。 a. 统计精度不精准的前提下,可以使用 explain select count(*) from tablename where columnName = 'xx' . b. 统计精度要求精准的话,由于存在各类场景的查询,innodb 引擎不适合去做这类聚合统计查询的业务,冗余一张 myisam 引擎的表去查询或者更换数据库 2.分页语句,limit 偏移量越大,查询愈慢,可以使用唯一索引做偏移量查询,常见的就是自增 id ,示例 SELECT id FROM tablename WHERE id > 10000 order by id desc limit 10. |
16
me1onsoda 320 天前
游标?
|
17
encro 320 天前
我们就是默认只差最近 3 天的,时间建立一个索引。
|
18
catamaran 320 天前
列数据库性能是真的快,比如 clickhouse ,但是对于数据的修改很不友好,不知道 oceanbase 怎么样,正在了解中。
|
19
Features OP @ShuA1 用 explain 确实快很多,但是返回的 rows 应该是有问题的
我这里测试,mysql5.7 ,设置 WHERE 条件以后,这个 rows 最大只能到 52618055 不知道是索引问题还是什么情况 |
20
Pastsong 320 天前
用 cursor
|
21
sch1111878 320 天前
最近也遇到了这个问题, mysql 已经分表, 单表 2000 万数据, 聚合查询要 20 多分钟, 中间改用过 es, 但是不熟, 其他同事写的也乱, 实在不行就准备换 clickhouse 了,
上面也有说业务表和聚合查询应该要分开的, 不然锁表或者慢 sql 都会业务影响比较大 |
22
thinkershare 320 天前
@Features explain 完全不能用来统计行数量,高频更新下返回的数据属于基本不可用垃圾数据。如果需要精确的分页。而且有复杂的查询,我的使用经验是 2000W+后就需要分表(如果是机械硬盘 500w ,有高频写入就需要分表了).
如果数据库是只读的(包括软删除)模式,使用自增 id 是一个解。其它模式我也没找到好办法再 mysql 中实现靠谱的分页。 |
23
sampeng 320 天前 1
1.cursor 法,上亿的数据,就算你 20 一页吧,产品经理麻烦你来给我翻到第 1234567 页谢谢。。。其实都这么多数据了。total 返回一个固定值估计都没人发现。。哈哈哈哈哈
2.分区。哦。不好意思。。窜台了。mysql 没分区。那就只能分表了。 3.外置表。也就是其他的解决方案,这就可以随意脑洞大开的想方案了。问题是很容易成另一坨屎山。任何新技术的引进都会导致复杂度的上升,我相信绝大多数用 mysql 到几亿了才想到分页怎么搞的 team ,玩 clickhouse 好,玩 es 也罢,都是会踩你没踩过的其他的雷的。 |
24
sampeng 320 天前
如果是可以迁移库。。有一说一,迁移 pg 保平安。。最少一个分区下去就能解决你大部分问题。。
|
26
NickX 320 天前
如果数据量大,第一条 count 做实时其实没太大必要(目测只是展示作用,可以接受一段时间的延迟),可以缓存起来定时查询。第二条,columnName 字段加索引一下子能查出来。
|
27
fiveStarLaoliang 320 天前
可以 count 上缓存,再上分表,旧数据分表存储,还可以加个冗余表,存储对应时间范围的主键,尽量降低表数据量,尽量走主键索引
|
28
ninjashixuan 320 天前
百万以上大 offset 就很慢了吧
|
29
edk24 320 天前
用 es 查询关联索引,分页结果拿到后再取数据库结果补充完整信息
用 es 的话, 会存在 count 不准确的情况 好像是超过 10w 条还是多少就不准确, 但这个不重要 提高搜索精度比如手机号,身份证类似的减少这种情况的发生 数据量大一点的系统都没有去搞 count 这个事情,都是直接偏移游标查下一个位置的数据, 那玩意太耗时了 |
31
egqpwU3F2beQ8V77 320 天前
@ShuA1 可以啊 这骚操作学会了
|
32
heliotrope 320 天前
我是先执行第二条 SQL 分页前端异步查
场景是 亿级别的数据量 自用的 有各种筛选条件要过滤 目前是查列表 第一页几乎无感 count 要 16 秒左右 用户能接受 先显示出列表 主要是看列表总数用户愿意等 主要是他不愿意花钱上 ES 业务不允许切割的情况下几乎无解 缓存之类的 用户输入的搜索词每次都不一样根本就没办法缓存 EXPLAIN 完全不准 不加任何条件都不准 能差出一个数量级 |
33
illbehere 320 天前
搞个 mpp 数据库做从库吧
|
34
dzdh 320 天前
zincsearch 、manticoresearch 、sphinx 、solr 、es 、opensearch
|
35
akinoowari 320 天前
@edk24 "track_total_hits":true 用这个不会不准,不然默认最大 10000
|
36
MineDog 320 天前
记得大学时候还是用 mysql SQL_CALC_FOUND_ROWS 返回总计行,当时理解查一遍开销应该更小才对,后来在工作中就好像都是查两遍了 。 看了文档,原来 8.0 都废弃了 https://dev.mysql.com/worklog/task/?id=12615
|
37
edk24 320 天前
@akinoowari 学到了大佬
|
38
jowan 320 天前
这个问题很简单 你搜索淘宝和京东的时候看看最多给你多少数据就知道了 业务端可以显示 1W+ 10W
上亿条数据 一页一页的去分页 可以重新考虑一下这个业务是否合理 |
39
zoharSoul 320 天前
无需
|