
情况说明:目前使用 MySQL, 四个字段,低频短时间大量写入百万到千万,中等更新需求两分钟左右一次几十条数据,正常的范围查询需求
分库分表 ,但范围查询会有些不方便
或使用别的啥数据库更适合这种场景
1 ebony0319 2020-04-03 08:15:31 +08:00 via Android hbase,但是灵活性下降一点。 |
2 MiaRunis 2020-04-03 08:18:15 +08:00 via iPhone 钱多要省事直接上 aws aurora/polardb,疼逊云的 cynosdb 没人用过不知道啥情况。这几个都读写分离,阿里直接上了 rdma,操作层面不改靠性能硬撑,大多数情况不需要再分表 |
3 aec4d 2020-04-03 09:07:35 +08:00 via iPhone 如果查询语句很简单,没有事务要求可以上 ES, clickhouse 这些 |
4 virusdefender 2020-04-03 09:32:02 +08:00 tidb 加队列异步写入 |
5 opengps 2020-04-03 09:33:40 +08:00 如果必须用关系型,看下我的这篇分享: https://www.opengps.cn/Blog/View.aspx?id=284&from=v2ex 线上业务实际承载到过每秒 1500 写入,表分区单表总行数 15 亿。没到瓶颈不过后来改 nosql 了 |
6 dalibaxiaoliba 2020-04-03 09:42:36 +08:00 支持一下 TiDB,兼容 Mysql,加上最新的 Tiflash,速度可以的 |
7 xyjincan 2020-04-03 10:16:04 +08:00 via Android 现在有啥存在的问题 |
8 idblife 2020-04-03 10:24:41 +08:00 oracle 分区表 这数据量太小了 |
9 xsm1890 2020-04-03 11:00:29 +08:00 千万级别 mysql 压力应该也不算特别大吧。按时间分区,索引合理的话应该不会很慢 |
10 fancy111 2020-04-03 11:04:37 +08:00 亿级再说吧 |
11 gz911122 2020-04-03 11:04:56 +08:00 千万级别 mysql 也没太大压力 正常用就行了 |
12 optional 2020-04-03 11:12:54 +08:00 放队列慢慢写呗。 或者来个 cssandra hbase |
13 tairan2006 2020-04-03 11:14:05 +08:00 你这写的啥,时序数据的话,可以用时序数据库 |
14 bnm965321 2020-04-03 12:39:04 +08:00 放队列,然后 batch insert/batch update |
17 hbolive 2020-04-03 14:05:54 +08:00 确实,千万级别 mysql 其实没啥压力的。。 |
18 zclzhangcl 2020-04-03 14:12:23 +08:00 千万?没有复杂查询,到 5 亿也没问题 |
19 cnbattle OP |
20 meeop 2020-04-03 14:45:15 +08:00 千万级别 mysql 都不用分表 我司规范是 mysql 单表最大 10 亿 另外 tidb 是最多快好省的方法 |
22 qq976739120 2020-04-03 14:58:45 +08:00 @meeop 单表 10 亿????? |
24 hooopo 2020-04-04 00:56:30 +08:00 千万就不用什么特别的方法了,升级下硬件就行 |
25 noparking188 2020-04-04 07:46:38 +08:00 我们公司是 mysql 操作全部走 Kafka 队列,数据量很大的表,数据产品会研究垂直拆表,一般表通过独有的业务 ID 做水平分库分表,以上前提是数据库操作全部走接口,压力丢给中间件,这样各业务方不用关心底层数据库,调接口请求资源就行 |
26 zclzhangcl 2020-04-07 10:07:17 +08:00 你这个场景是多写少读。先上 mysql 单表再说,等数据量到了上索引也慢(预估单表数据量不小于 5 亿)的情况下, 再考虑分库分表 |