标签: fsck

git提交破碎的时区

> git fsck
error in commit %hash%: invalid author/committer line - bad time zone

> git show %hash%
Date: Mon Mar 18 23:57:14 2201 -5274361
Run Code Online (Sandbox Code Playgroud)

如何解决这个问题?使用git rebasemaster分支和delete\update提交信息,或在项目.git目录中做一些魔术,或者其他什么?

git rebase fsck

9
推荐指数
1
解决办法
613
查看次数

WSL(适用于 Linux 的 Windows 子系统)中的 fsck(文件系统检查)

如何检查根文件系统的完整性?

/etc/fstab 说它是 ext4,而 /etc/mtab 说它是 lxfs。

是否有 fsck 让 lxfs 从外部在未挂载的根目录上运行?

还是 Windows 中的 chkdsk 足以容纳 WSL 文件?

fsck windows-subsystem-for-linux

9
推荐指数
0
解决办法
977
查看次数

Hadoop fsck显示丢失的副本

我正在运行带有两个datanode和一个namenode的Hadoop 2.2.0集群.当我尝试在namenode或任何datanode上使用hadoop fsck命令检查系统时,我得到以下内容:

Target Replicas is 3 but found 2 replica(s). 
Run Code Online (Sandbox Code Playgroud)

我尝试将配置更改为hdfs-site.xml(dfs.replication为2)并重新启动群集服务.在运行时hadoop fsck /它仍然显示相同的状态:

Target Replicas is 3 but found 2 replica(s).
Run Code Online (Sandbox Code Playgroud)

请澄清,这是一个缓存问题还是一个错误?

hadoop hdfs fsck

5
推荐指数
1
解决办法
2626
查看次数

Hadoop HDFS - 缺少副本和未复制块之间的区别

我知道,由于复制因子集的数据节点数较少,因此发生了重复不足的块和错误复制的块.

但它们之间有什么区别?

在将可用数据节点为1的情况下将复制因子重新设置为1时,将清除未复制块和丢失副本错误.通过执行命令hdfs fsck /确保这一点 FSCK报告

hadoop hdfs fsck

5
推荐指数
1
解决办法
5120
查看次数

我在哪里可以获得fsck代码?

我一直试图找出fsck代码.我在Ubuntu的coreutils包中找不到它.有人可以让我知道,我可以在哪里看看fsck代码?

linux ubuntu fsck

4
推荐指数
1
解决办法
1225
查看次数

HBase集群与HDFS上的损坏区域文件

我们有这个HBase集群:30多个节点,48个表,HDFS级别40 + TB,复制因子2.由于两个节点上的磁盘故障,我们在HDFS上有一个损坏的文件.

当前的HDFS状态

hdfs fsck /输出摘录,显示损坏的HBase区域文件:

/user/hbase/table_foo_bar/295cff9c67379c1204a6ddd15808af0b/n/ae0fdf7d0fa24ad1914ca934d3493e56: 
 CORRUPT blockpool BP-323062689-192.168.12.45-1357244568924 block blk_9209554458788732793
/user/hbase/table_foo_bar/295cff9c67379c1204a6ddd15808af0b/n/ae0fdf7d0fa24ad1914ca934d3493e56:
 MISSING 1 blocks of total size 134217728 B

  CORRUPT FILES:        1
  MISSING BLOCKS:       1
  MISSING SIZE:         134217728 B
  CORRUPT BLOCKS:       1

The filesystem under path '/' is CORRUPT
Run Code Online (Sandbox Code Playgroud)

丢失的数据无法恢复(磁盘已损坏).

目前的HBase状态

据HBase说,一切都很好,花花公子

hbase hbck 说:

Version: 0.94.6-cdh4.4.0
...
 table_foo_bar is okay.
   Number of regions: 1425
   Deployed on:  ....
...
0 inconsistencies detected.
Status: OK   
Run Code Online (Sandbox Code Playgroud)

此外,似乎我们仍然可以查询来自损坏区域文件的非丢失块的数据(据我所知,我能够根据该区域的开始和结束行键进行检查).

下一步

  • 由于文件块数据不可恢复,似乎唯一的选择是删除完整的损坏文件(使用hadoop fs -rmhadoop fsck -delete /).这将"修复"HDFS级别的损坏. …

hadoop hbase corruption hdfs fsck

3
推荐指数
2
解决办法
9248
查看次数

目标副本为10但发现3副本

我该如何解决这个问题?

/tmp/hadoop-yarn/staging/ubuntu/.staging/job_1450038005671_0025/job.jar: Under replicated BP-938294433-10.0.1.190-1450037861153:blk_1073744219_3398. Target Replicas is 10 but found 3 replica(s).
Run Code Online (Sandbox Code Playgroud)

当我hadoop fsck /在主节点中运行时,我得到了这个.我假设我应该.xml在conf或类似的东西中更改文件我只是不知道要更改哪个文件.

请注意,dfs.replicationin hdfs-site.xml已设置为3. dfs.replication.max我的hdfs-site.xml文件中没有.

filesystems hadoop hdfs hadoop-yarn fsck

2
推荐指数
1
解决办法
1296
查看次数

HDFS fsck命令输出

我在输出中得到了这个,所以我只想知道什么是BP,Blk?你能解释一下这个输出中每个东西的含义吗?我知道

 BP-929597290-192.0.0.2-1439573305237:blk_1074084574_344316 len=2 repl=3 [DatanodeInfoWithStorage[192.0.0.9:1000,DS-730a75d3-046c-4254-990a-4eee9520424f,DISK], DatanodeInfoWithStorage[192.0.0.1:1000,DS-fc6ee5c7-e76b-4faa-b663-58a60240de4c,DISK], DatanodeInfoWithStorage[192.0.0.3:1000,DS-8ab81b26-309e-42d6-ae14-26eb88387cad,DISK]]
Run Code Online (Sandbox Code Playgroud)

我猜192.0.0.9:1000这是第一次复制数据的IP

hadoop namespaces hdfs hadoop-yarn fsck

2
推荐指数
1
解决办法
1616
查看次数