Bua*_*aXD 4 sql-server migration
我想将一个相当大的 SQL Server 实例(100 GB+)迁移到云机器上。我认为附加/分离方法不是一个好主意。因为通过互联网发送大文件需要很长时间(可能超过 1 个晚上),所以我考虑配置从源到云实例的快照/事务复制。
这个想法是让复制在几天内完成,然后在数据库更新后简单地停止复制并将应用程序定向到订阅者数据库。
是否可以?你还有其他建议吗?也许 AlwaysOn(我猜它需要企业版而不是标准版)?
您使用的是什么版本的 SQL Server?从 SQL Server 2008 开始,备份压缩可以提供极好的压缩率。我见过备份压缩到原始大小的 10%,所以你的 100GB+ 可能更像是 10GB。当然,这实际上取决于您存储的数据类型;例如,XML 不能很好地压缩。
您还可以选择将备份分成多个文件,这样您就可以并行复制多个文件,而不是一个大的备份文件。但是,如果您通往云的“管道”很窄,这将无济于事。
查看您的压缩备份大小,然后计算出您可以通过现有管道(ftp、WAN 等?)每秒传输多少兆字节,例如通过传输示例 1GB 文件来获得一个粗略的想法。
最后一个选项,我现在正在考虑的是 SQL Server 2014 Clustered Columnstore with full Archival Compression ( DATA_COMPRESSION = COLUMNSTORE_ARCHIVE
)。用于“冷”,很少访问的数据,这确实有所不同,但我已经看到高达 30 倍的压缩。天啊。因此,我正在考虑一个选项:1) 删除所有索引,2) 添加具有归档压缩的聚集列存储,3) 备份并移动到云 4) 重新创建较早的索引或保持原样。我目前正在调查这个以及聚集列存储压缩和备份大小之间的关系。
祝你好运!
归档时间: |
|
查看次数: |
210 次 |
最近记录: |