Raft 中的 IO 执行顺序:内存状态与持久化状态的陷阱

前言
在 Raft 实现中,处理 appendEntries 请求时需要持久化两类数据:term 和 log entries。Raft 论文要求"在响应 RPC 之前必须更新持久化状态",但并未明确说明这两类数据的持久化顺序。这个看似无关紧要的细节,却可能导致已提交数据的丢失。
问题的根源在于:Raft 论文描述的是一个简单的抽象模型(只有磁盘状态),而实际实现为了性能会分离内存状态和持久化状态。这种状态分离引入了论文中未定义的行为,当 IO 操作允许重排序时,就可能破坏 Raft 的安全性保证。
本文将深入分析这个问题是如何产生的,以及主流实现(TiKV、HashiCorp Raft、SOFAJRaft)如何避免这个陷阱。
内存状态与持久化状态的陷阱
在实际的 Raft 实现中,为了提升性能,通常会分离内存状态(current_term
)和磁盘状态(persisted_term
)。处理 appendEntries 请求的典型流程是:
收到 appendEntries,如果
req.term > current_term
,立即更新current_term
异步提交 save-term IO
IO 完成后更新
persisted_term
(有些实现中可能没有显式的persisted_term
)
这种状态分离引入了 Raft 论文中没有定义的行为(Raft 论文只关注磁盘状态):
上面描述的流程是常见的 Raft 实现的流程, 在没有 IO-reorder 时, 它是正确的。但当 IO 操作可以重排序时,就会出现严重的安全问题。
问题场景
用一个具体的时间线来展示 IO-reorder 如何导致数据丢失:
t1-t4: 两次选举,N1(term=1)和 N5(term=5)先后成为 leader
t5: L5 复制 E5-1 到 N3(N3 的
current_term=1 < req.term=5
)N3 需要执行两个 IO:持久化 term=5 和 E5-1
等待两个 IO 完成才返回成功
t6: L5 复制 E5-2 到 N3(关键时刻)
N3 可能还在处理 t5 的 IO
这时是否存在 IO-reorder 至关重要
t7: L1 尝试复制 E1-1(term=1, index=1)
关键在于 t6 时刻的第二个 AppendEntries 请求。让我们看看 N3 的内部状态变化。
t5 时刻:第一个 AppendEntries
N3 收到 appendEntries(term=5, entries=[E5-1])
:
N3 的状态:
current_term = 5
(内存已更新)persisted_term = 1
(磁盘还未更新,IO 进行中)IO 队列:
save_term(5)
,save_entries(E5-1)
这个请求本身是正确的,问题出现在下一个时刻。
t6 时刻:第二个 AppendEntries
N3 还没完成 t5 的 IO,就收到了 appendEntries(term=5, entries=[E5-2])
。
如果代码只检查内存 current_term
(大多数实现的做法), 并提交 save-entries IO:
问题出现:在允许 IO-reorder 的时候,
save_entries(E5-2)
完成但
save_term(5)
可能还没完成(如果存在 IO 重排序)N3 向 Leader 返回成功
如果 N3 此时崩溃重启,磁盘状态可能是:
persisted_term = 1
(save_term(5) 未完成)entries = [E5-1, E5-2]
(都完成了)Leader L5 认为 E5-2 已提交
t7 时刻:数据丢失
重启后 N3 的磁盘状态:term=1, entries=[E5-1, E5-2]
当 L1 发送 appendEntries(term=1, entries=[E1-1])
:
N3 检查:RPC term (1) == 本地 term (1),接受
E1-1 覆盖 index=1
已向 L5 确认提交的 E5-1 和 E5-2 被覆盖
注意, 如果不允许 IO-reorder, 那么 t6 的 save_entries(E5-2)
的完成就暗示了save_term(5)
的完成, 满足了 appendEntries 成功的条件, 不会出现问题.
问题的本质
如果允许 IO-reorder,必须检查 persisted_term
来判断是否下发 save-term IO;如果不允许 IO-reorder,检查 current_term
即可。
Raft 论文不区分内存状态和持久化状态,这是实现相关的陷阱。论文要求 "Before responding to RPCs, a server must update its persistent state",在实现中需要更精确的表述: 必须等待所有使 persisted_term >= req.term
的 IO 完成后,才能返回成功。
正确的做法
检查持久化的 term 而不是内存 term:
注意:这种实现可能多次提交 save-term IO,需要在实现中谨慎优化。
主流实现的方案
主流实现(TiKV、HashiCorp Raft、SOFAJRaft)通过限制 save-term 和 save-entries 不能 reorder,因此只检查 current_term
也是安全的:
原子批处理(TiKV):将 save-term 和 save-entries 放到一个 IO 请求里,一次性提交。这样根本不存在"第二个 appendEntries 只提交 save_entries"的情况。
有序分离(HashiCorp Raft):save-term 和 save-entries 顺序执行,不会重排序。先完成 term 的 fsync(失败则 panic),再写 log。
混合顺序(SOFAJRaft):term 同步写入(阻塞等待 fsync),log 异步批处理。保证了 save_term 完成后才会入队 save_entries。
总结
Raft 论文的抽象模型(只关注持久化状态)和实际实现(内存状态 + 持久化状态)之间存在微妙的映射关系。
关键不变式:log entry (term=T) 在磁盘 → persisted_term ≥ T 也必须在磁盘
维护此不变式的两种方式:
消除 IO-reorder:原子批处理、有序执行或混合方式(主流实现)
处理 IO-reorder:检查持久化状态,等待必要的 IO 完成
相关资源
关于 Databend
Databend 是一款开源、弹性、低成本,基于对象存储也可以做实时分析的新式湖仓。期待您的关注,一起探索云原生数仓解决方案,打造新一代开源 Data Cloud。
👨💻 Databend Cloud:databend.cn
📖 Databend 文档:docs.databend.cn
💻 Wechat:Databend
✨ GitHub:github.com/databendlab…
版权声明: 本文为 InfoQ 作者【Databend】的原创文章。
原文链接:【http://xie.infoq.cn/article/f7b7dd40f3489912e51b9ee6f】。文章转载请联系作者。
评论