在生产时,我们的数据库大小只有几百GB.对于开发和测试,我们需要创建此数据库的功能相同的快照,但其大小只有10或20个.
挑战在于我们的业务实体的数据分散在许多表中.我们想要创建某种过滤的快照,以便只有一些实体包含在转储中.这样我们就可以每个月左右为开发和测试获取新的快照.
例如,假设我们拥有具有这些多对多关系的实体:
可能有1000家公司,2500个部门,175000名员工和数千万的出勤记录.我们想要一种可复制的方式来拉动前100家公司及其所有组成部门,员工和出勤记录.
我们当前使用pg_dump作为模式,然后使用--disable-triggers和--data-only运行pg_dump以从较小的表中获取所有数据.我们不希望编写自定义脚本来提取部分数据,因为我们有一个快速的开发周期,并且担心自定义脚本会很脆弱并且可能过时.
我们应该怎么做?是否有第三方工具可以帮助从数据库中提取逻辑分区?这些工具叫什么?
任何一般建议也赞赏!
Ben*_*Ben 101
在较大的表上,您可以使用COPY命令拉出子集...
COPY (SELECT * FROM mytable WHERE ...) TO '/tmp/myfile.tsv'
COPY mytable FROM 'myfile.tsv'
Run Code Online (Sandbox Code Playgroud)
https://www.postgresql.org/docs/current/static/sql-copy.html
您应该考虑维护一组开发数据,而不仅仅是拉动一部分生产.如果您正在编写单元测试,则可以使用测试所需的相同数据,尝试查看所有可能的用例.
我不知道已经有软件可以做到这一点,但是我可以想到3种替代解决方案。不幸的是,它们都需要一些自定义编码。
在单独的架构中重新创建所有表,然后使用INSERT INTO copy.tablename SELECT * FROM tablename WHERE ...和转储仅将要转储的数据子集复制到那些表中。
编写自己的脚本以将数据作为SQL语句转储。我过去使用过这种方法,只用了20到30行PHP。
修改pg_dump,以便在转储单个表时它与-t开关一起接受条件。
http://jailer.sourceforge.net/执行此操作。
| 归档时间: |
|
| 查看次数: |
34140 次 |
| 最近记录: |