我有很多文件位于 Amazon Glacier(S3 之前的版本,多年来一直使用FastGlacier上传文件。)我现在想将这些文件移动到 S3 Glacier Deep Archive 存储类,以利用更好的定价,并且正在尝试找出最好的方法。(据我所知,S3 之前的 Glacier 不提供深度存档存储类,但我很高兴我错了。)
有没有什么方法可以将我的文件从 Glacier 直接恢复到 S3 帐户/存储桶/其他任何内容,这样我就可以避免将所有内容下载到我家而只是将其重新上传到云相关的带宽使用?或者这是我唯一的选择?
我有一个大小约为 4.5GB(未压缩)的 PostgreSQL 文本转储文件,我试图恢复它,但由于内存不足而总是失败。
有趣的是,无论我尝试什么,它总是在转储文件的完全相同的行号处失败,这让我相信我尝试的更改没有效果。(我确实查看了文件中的这个行号,它只是另一行数据,文件中的那个点没有发生任何重要的事情。)
我正在使用带有 -f 选项的 psql,因为我读到它比标准输入更好。然而,这两种方法都失败了。
我尝试了以下方法:
使用 Top 和 PG_Top 我可以看到(我相信显示)当 psql 失败时,操作系统和数据库仍然有可用的内存。我并不怀疑某个地方的内存不足,我只是希望我有一种更好的方式来说明那到底是什么。
其他可能有用的信息:
我正在尝试创建一个相当简单的脚本来处理SQL Server代理作业.它执行2个任务:
1)如果存在给定作业,则将其删除2)创建作业
(由于业务要求我无法修改现有作业,脚本必须删除并重新创建它.)
第一次运行脚本正常工作(创建作业).之后的任何时间运行都会产生错误14274"无法添加,更新或删除源自MSX服务器的作业."
我已经对此进行了大量搜索,大多数解决方案都围绕着正在更改的服务器名称.我的服务器名称没有改变,也没有改变.
这就是我所拥有的:
USE [msdb];
SET NOCOUNT ON;
DECLARE @JobName NVARCHAR(128);
DECLARE @ReturnCode INT;
declare @errCode INT;
SET @JobName = 'AJob';
BEGIN TRANSACTION;
DECLARE @jobId uniqueidentifier;
SET @jobId = (SELECT job_id from msdb.dbo.sysjobs where name = @JobName);
IF(@jobId IS NOT NULL) -- delete if it already exists
begin
EXEC @ReturnCode = msdb.dbo.sp_delete_job @job_id=@jobId
IF(@@ERROR <> 0 OR @ReturnCode <> 0)
begin
set @errCode = @@ERROR;
GOTO QuitWithRollback;
end
print 'deleted job';
end
-- create the job …
Run Code Online (Sandbox Code Playgroud)