【中间件】如何设计主分片
有,而且业内已经跑出 4 条完全不同的路线。下面把“主分片"的**设计维度**拆成 3 个问题,再给出对应实现,你一眼就能看出差别。
------------------------------------------------
① "主"的身份要不要持久化?
② 谁有资格当主?选举规则是什么?
③ 主角色什么时候会飘移?漂移动作由谁触发?
------------------------------------------------
一、持久化静态主(HDFS 模式)
- 身份落盘:NameNode 把“主节点地址”写进 **fsimage + edits**,集群重启后仍读这份地址。
- 谁可当主:人工配置列表(dfs.namenode.*.rpc-address),只能在这几台里挑。
- 何时漂移:管理员执行 failover 命令或 ZKFC 检测到心跳丢失才换主;**正常工况永不漂移**。
→ 好处:实现简单,没有多副本一致性难题;代价:高可用依赖外部 ZKFC,换主要人工介入或至少秒级停顿。
------------------------------------------------
二、元数据注册动态主(Kafka / ES / HBase Region 模式)
- 身份落盘:主记录只写在 **ZK 或 KRaft / ES-cluster-state / hbase:meta**,本地磁盘文件里**不带“主”标记**。
- 谁可当主:所有副本都在候选池(ISR / allocation-id / meta 表),按“最新完整”规则投票。
- 何时漂移:任一副本宕机、网络抖动、Leader lease 超时立即重选,**毫秒-秒级自动完成**。
→ 好处:故障自愈,对客户端透明;代价:必须实现一套“副本一致性 + 选举协议”。
------------------------------------------------
三、Quorum 写选主(ZooKeeper / etcd / Consul)
- 身份落盘:选举结果写进 **自身事务日志**(zxid / raft-index),**多数派提交即持久**。
- 谁可当主:拿到**多数投票**且日志最完整的节点;系统规模通常 2n+1。
- 何时漂移:Leader lease 超时或失去多数 ACK 立即发起新选举,**保证集群总有一个主**(CP 系统)。
→ 好处:强一致性;代价:写操作必须走 Quorum,延迟较高,不适合高吞吐数据面。
------------------------------------------------
四、无 Leader / 最终一致(Dynamo / Cassandra / Riak)
- 身份落盘:**没有全局主**,每条数据用一致性哈希落到 N 个副本,写时指定“协调者”即可。
- 谁可当主:任何副本都能接受写(**多活**),用向量时钟 / LWW 解决冲突。
- 何时漂移:不需要漂移——客户端可随机挑节点,**“主”只是本次写的协调者**,下次可以换。
→ 好处:高可用、低延迟、水平扩展最好;代价:一致性弱(可调级别),需要冲突合并逻辑。
------------------------------------------------
五、混合模式(Amazon Aurora、PolarDB-X、TiDB)
- 计算层无状态,**持久化日志**(Redo / Binlog)到共享存储或 Raft Group;
- 日志层用 **Quorum 选主**(类似 etcd),但**数据分片本身不选举**,只是追着同一份日志回放;
- 主挂掉 → 日志层重新选主 → 新计算节点挂载同一块日志继续服务,**“主”身份在日志层而非数据分片层**。
→ 兼顾强一致和高吞吐,是目前云原生数据库的主流做法。
------------------------------------------------
小结
“主分片”设计空间其实就 3 句话:
1. **持久化静态主** —— 简单、换主慢(HDFS);
2. **注册动态主** —— 自动漂移、实现复杂(Kafka/ES/HBase);
3. **干脆不要主** —— 多活合并冲突(Dynamo/Cassandra);
再往下就是各种混合、分层、日志即主等变种。选哪条路线,取决于你想要**强一致**还是**高吞吐**,以及**能不能接受选举复杂度**。
