PostgreSQL数据闪回工具Pg_Dirtyread使用实践
作者 | 吴守阳
审校 | 重楼
目录
1、概述
2、恢复机制
3、优缺点
4、安装
5、操作实例
1)基于表数据Delete闪回
2)基于表字段数据闪回
3)基于时间点闪回
6、支持查询被删除列的历史数据
7、注意事项
8、总结
概述
pg_dirtyread 是一个PostgreSQL 扩展,它利用了PostgreSQL 的多版本并发控制(MVCC)机制来读取未提交的事务所影响的数据。此插件可以用于在开发和测试环境中快速查看事务对数据的即时影响,当关键表中的数据被意外删除后,业务系统可能会出现服务中断、数据丢失、数据不一致等问题,影响用户服务。通过使用pg_dirtyread,你可以快速查看未提交的删除或更新事务,恢复数据,从而恢复正常服务、确保数据完整、数据一致。
恢复机制
在 PostgreSQL 中,事务提交后,如果数据尚未被 VACUUM 清理,仍有可能通过某些方式恢复这些数据。这是因为 PostgreSQL 采用了多版本并发控制(MVCC)机制,允许旧的元组(称为 Dead 元组)在事务提交后继续保留在系统中,直到被 VACUUM 清除。具体来说:
MVCC 机制:即使事务已提交,删除或更新的行仍作为旧版本存在,允许在 VACUUM 运行之前进行恢复。VACUUM 的作用:VACUUM 操作会清理表中的 Dead 元组,回收存储空间并重置行标识符(TID),以便新行可以重用这些空间。一旦执行了 VACUUM,Dead 元组被清除,数据就无法再通过常规手段恢复。优缺点
pg_dirtyread 插件非常方便,它可以通过安装来找回数据。该插件会返回所有数据,包括那些未被删除的数据。由于 PostgreSQL 的 MVCC 机制,pg_dirtyread 只能用于找回 DML 操作的数据。基于时间点恢复要配置参数track_commit_timestamp = on 支持PostgreSQL16及以前版本安装
数据恢复前置条件
操作示例
1)基于表数据Delete闪回指定列的规则:使用dropped_N来访问第N列,从1开始计数。局限性:
由于 PostgreSQL 删除操作会移除原始列的元数据信息,因此在使用 pg_dirtyread 时,需要在表列名中显式指定正确的数据类型。这包括类型长度、对齐方式和类型修饰符,并且数据是按值传递的。
1.显式指定类型:
在读取 Dead 元组时,需要明确指定列的数据类型,包括长度和其他修饰符。
2.完整性检查:
为了进行有效的数据恢复和完整性检查,必须确保类型信息的准确性。
3)基于时间点闪回如果你想恢复到某个特定时间点的数据,可以通过 pg_xact_commit_timestamp 系统函数来获取每个事务的提交时间。
具体步骤如下:
1.获取提交时间:
使用 pg_xact_commit_timestamp 函数来获取每个事务的提交时间。这包括写入事务的提交时间(xmin)和删除或更新事务的提交时间(xmax)。
2.基于时间点的闪回查询:
有了这些提交时间,你可以根据需要恢复到的具体时间点来过滤数据,从而实现基于时间点的数据恢复。
支持查询被删除列的历史数据
注意事项
适用范围: pg_dirtyread 主要适用于 MVCC 机制下的 DML 操作(如 DELETE 和 UPDATE),对于 DDL 操作(如 DROP TABLE)导致的数据丢失则无能为力。事务提交后: 一旦事务提交,数据恢复变得更加困难。如果 VACUUM 没有运行,未提交的事务产生的 Dead 元组仍然存在,可以通过 pg_dirtyread 查看这些数据。但是一旦 VACUUM 清除了 Dead 元组,数据就无法通过 pg_dirtyread 恢复。安全性问题:使用 pg_dirtyread 读取未提交的数据可能会带来数据一致性和安全性问题。因此,在生产环境中应谨慎使用,并确保数据安全。总结
pg_dirtyread 是一个 PostgreSQL 扩展,它主要用于开发和测试环境中快速查看和恢复由于误操作导致的数据丢失。它利用 MVCC 机制来读取未提交的数据,适用于 DML 操作。在事务提交前,pg_dirtyread 提供了一种便捷的数据恢复方法。然而,在事务提交后,如果没有及时运行 VACUUM,仍然有机会恢复数据,但一旦 VACUUM 清除了 Dead 元组,数据恢复将变得不可行。因此,在生产环境中应谨慎使用 pg_dirtyread,并依赖备份和 WAL 日志归档等更为可靠的恢复机制。
作者介绍
吴守阳,51CTO社区编辑,拥有8年DBA工作经验,熟练管理MySQL、Redis、MongoDB等开源数据库。精通性能优化、备份恢复和高可用性架构设计。善于故障排除和自动化运维,保障系统稳定可靠。具备良好的团队合作和沟通能力,致力于为企业提供高效可靠的数据库解决方案。