标签: partition

无法调整 ec2 ebs 根卷的大小

我遵循了许多教程,这些教程几乎都说了同样的事情,基本上是:

  1. 停止实例
  2. 分离卷
  3. 创建卷的快照
  4. 从快照创建更大的卷
  5. 将新卷附加到实例
  6. 启动实例备份
  7. resize2fs /dev/xxx

但是,第 7 步是问题开始发生的地方。在任何情况下,运行resize2fs总是告诉我它已经是 xxxxx 块大并且什么都不做,即使-f通过了。所以我开始继续教程,这些教程基本上都在说同样的事情,那就是:

  1. 删除所有分区
  2. 将它们重新创建回原来的样子,除了更大的尺寸
  3. 重启实例并运行 resize2fs

(我已经从实时实例中以及通过将卷附加到另一个实例并在那里运行命令来尝试这些步骤)主要问题是该实例不会再次启动并且 AWS 控制台中提供的系统错误日志没有'不提供任何错误。(然而,它确实停在 grub 引导加载程序上,这对我来说表明它不喜欢分区(是的,引导标志在分区上切换没有影响))无论我对分区做了什么更改,都会发生的另一件事partitions 是该卷附加到的实例表示该分区具有无效的幻数并且超级块已损坏。但是,如果我不进行任何更改并重新附加卷,则实例运行不会出现问题。

任何人都可以阐明我可能做错了什么吗?


编辑

在我带有 6GB 图像的 20GB 新卷上,df -h说:

已使用的文件系统大小 Avail Use% Mounted on
/dev/xvde1 5.8G 877M 4.7G 16% /
tmpfs 836M 0 836M 0% /dev/shm 

fdisk -l /dev/xvde说:

磁盘 /dev/xvde:21.5 GB,21474836480 字节
255 个磁头,63 个扇区/磁道,2610 个柱面
单位 = 16065 * 512 = 8225280 字节的柱面
扇区大小(逻辑/物理):512 字节 / …

linux partition amazon-ec2

5
推荐指数
1
解决办法
5955
查看次数

Linux 软件 RAID - 先分区?

为了数据安全,我打算镜像两个相同的驱动器。这些是纯数据驱动器,而不是主操作系统驱动器。

在这样的系统中,Linux raid auto: type 0xfd在每个驱动器上创建单个分区 ( ) 并将每个驱动器的分区 (例如/dev/sdb1/dev/sdc1)一起突袭是否更好?或者我应该直接创建未分区驱动器的镜像阵列(例如/dev/sdb/dev/sdc)?

最终我打算从结果数组创建一个 LVM 容器来存储实际数据。是否有任何考虑可能会使一个或另一个选择更安全或更可取?

linux partition software-raid

5
推荐指数
1
解决办法
729
查看次数

通过 UUID 而不是通过路径安装 LV 有什么优势吗?

我知道我可以fstab通过放置它们的路径(如/dev/sda1/dev/mapper/myvg-logicalVolume1)或通过 fs 标签 ( LABEL=root) 或 UUID ( UUID=1234-5678-...)来指定挂载。

我看到使用 UUID 的“经典”分区在可靠性方面有明显优势,例如/dev/sda1,因为如果您重新分区驱动器/更多分区/添加更多磁盘,那么您的某些分区现在可能会被识别为另一个名称,尽管通过 UUID 挂载更难分辨您的数据存储在哪个分区/LV。

但是使用LVM,我的胆量告诉我 LVM 系统本身管理他们的磁盘/分区的发现,如果某些 PV(在使用分区/磁盘之后)现在命名不同并不重要。因此,通过 UUID 或使用类似的路径安装不会有任何区别(说到可靠性)/dev/mapper/vg-lv,后者更清晰。

这样对吗?

unix partition lvm mount uuid

5
推荐指数
1
解决办法
9230
查看次数

在 linux gparted 上扩展分区但在 vm 中没有更多空间

我有一个运行构建服务器的 linux 的 vm 测试安装。不幸的是,我在添加磁盘时只是按了确定,最终得到了一个 8GB 的​​驱动器。当然,在测试阶段,构建会消耗越来越多的空间。

vm 驱动器被调整为 21gb 并使用 gparted 我扩展了驱动器分区并且一切正常但是当我回到控制台并执行 df 时仍然只有 8gb 可用。

我如何声明我添加的其他 13GB?

fdisk -l

Disk /dev/sda: 21.0 GB, 20971520000 bytes
255 heads, 63 sectors/track, 2549 cylinders, total 40960000 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0006d284

Device    Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048      499711      248832   83  Linux
/dev/sda2 …
Run Code Online (Sandbox Code Playgroud)

ubuntu partition gparted

5
推荐指数
1
解决办法
1万
查看次数

如何在重新安装一个节点后修复缺少块的 Hadoop HDFS 集群?

我有一个 5 从站 Hadoop 集群(使用 CDH4)---从站是运行 DataNode 和 TaskNode 的地方。每个从站有 4 个专用于 HDFS 存储的分区。其中一个从站需要重新安装,这导致其中一个 HDFS 分区丢失。此时,HDFS 抱怨丢失了 35K 块。

几天后,重新安装完成,我将节点重新联机到 Hadoop。HDFS 仍处于安全模式,并且新服务器没有注册接近其他节点的块数量。例如,在 DFS Admin 下,新节点显示它有 6K 块,而其他节点有大约 400K 块。

目前,新节点的 DataNode 日志显示它正在对各种块进行一些验证(或复制?),其中一些由于已经存在而失败。我相信这是 HDFS 只是将现有数据复制到新节点。验证示例:

2013-08-09 17:05:02,113 INFO org.apache.hadoop.hdfs.server.datanode.BlockPoolSliceScanner: Verification succeeded for BP-143510735-141.212.113.141-1343417513962:blk_6568189110100209829_1733272
Run Code Online (Sandbox Code Playgroud)

失败示例:

2013-08-09 17:04:48,100 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: meez02.eecs.umich.edu:50010:DataXceiver error processing REPLACE_BLOCK operation  src: /141.212.113.141:52192 dest: /141.212.113.65:50010
org.apache.hadoop.hdfs.server.datanode.ReplicaAlreadyExistsException: Block BP-143510735-141.212.113.141-1343417513962:blk_-4515068373845130948_756319 already exists in state FINALIZED and thus cannot be created.
    at org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl.createTemporary(FsDatasetImpl.java:813)
    at org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl.createTemporary(FsDatasetImpl.java:92)
    at org.apache.hadoop.hdfs.server.datanode.BlockReceiver.<init>(BlockReceiver.java:155)
    at org.apache.hadoop.hdfs.server.datanode.DataXceiver.replaceBlock(DataXceiver.java:846)
    at org.apache.hadoop.hdfs.protocol.datatransfer.Receiver.opReplaceBlock(Receiver.java:137)
    at …
Run Code Online (Sandbox Code Playgroud)

partition hadoop hdfs reinstall

5
推荐指数
1
解决办法
2万
查看次数

将写入密集型分区放在 SSD 上(在 SSD+HDD 系统中)是否安全?

我正在为 Linux 上的软件开发工作设置一个(某种)功能强大的工作站。它是一个具有多核、32GB 内存、一个大硬盘和一个 120GB SSD(三星 MZ7WD120HAFV 又名 SM843T)的 Xeon 系统。

我必须决定将哪些分区放在 HDD 上,哪些放在 SSD 上。关于这个问题,我收到了相互矛盾的建议:

  • “不要在 SSD 上放置频繁写入的分区,你会显着缩短它的使用寿命,它可能会在几个月内失败。” (类似于这个答案
  • “如果您有第二代或第三代 SSD(这意味着任何带有 TRIM 的驱动器),那么您不必将其与常规 HDD 区别对待:您可以在其上放置写入密集型文件、日志和交换。” (来自网站上的这个答案

性能和稳定性对我来说都很重要,尽管这不是关键任务服务器。所以我该怎么做?

笔记:

  • 当然,我会为我的关键数据制定某种备份方案,问题不在于那个。

partition hard-drive ssd drive-failure

5
推荐指数
1
解决办法
836
查看次数

修复 graid 迷你磁盘上损坏的 GPT 分区

我正在尝试修复 graid mini 1TB 外置硬盘上的 GPT 损坏的分区表。以下是来自 gdisk 的报告:

root@philippe-desktop:/home/philippe/thomasdisk# gdisk /dev/sdb
GPT fdisk (gdisk) version 0.8.8

Caution: invalid main GPT header, but valid backup; regenerating main header
from backup!

Partition table scan:
  MBR: protective
  BSD: not present
  APM: not present
  GPT: damaged

****************************************************************************
Caution: Found protective or hybrid MBR and corrupt GPT. Using GPT, but disk
verification and recovery are STRONGLY recommended.
****************************************************************************

Command (? for help): ?
b   back up GPT data to a file
c   change a …
Run Code Online (Sandbox Code Playgroud)

linux partition gpt

5
推荐指数
1
解决办法
9446
查看次数

尽管分区不是 100%,但设备上没有剩余空间

我正在尝试在我的 Linux 机器 CentOS 5.8 版上执行以下操作

 cd /var/APPstoreldap/Home
 touch test
 touch: cannot touch `test': No space left on device
Run Code Online (Sandbox Code Playgroud)

所以我验证了分区磁盘空间容量以了解 /var/APPstoreldap/Home 分区是否达到 100%

但我得到的是分区只有 51%

 df -h | grep APPstoreldap

 /dev/mapper/vg07-var  5.0G  2.7G  2.0G  51% /var/APPstoreldap/Home
Run Code Online (Sandbox Code Playgroud)

所以请建议我为什么得到

 No space left on device
Run Code Online (Sandbox Code Playgroud)

这里可能有什么问题?

.

其他测试:

df -i| grep APPstoreldap

/dev/mapper/vg07-var  655360  655360       0  100% /var/APPstoreldap/Home
Run Code Online (Sandbox Code Playgroud)

linux partition centos disk-space-utilization device

5
推荐指数
1
解决办法
4018
查看次数

合并逻辑卷组

我想增加根 LVM 卷空间。是否可以将 LogVol01 合并到 LogVol00?我的 LVM 设置如下所示:

   [root@server~]# lvs
     LV       VG         Attr   LSize  Origin Snap%  Move Log Copy%  Convert
     LogVol00 VolGroup00 -wi-ao 34.84G
     LogVol01 VolGroup00 -wi-ao 33.38G
   [root@server~]# pvs
     PV                VG         Fmt  Attr PSize  PFree
     /dev/cciss/c0d0p2 VolGroup00 lvm2 a-   68.22G    0
   [root@server~]# vgs
     VG         #PV #LV #SN Attr   VSize  VFree
     VolGroup00   1   2   0 wz--n- 68.22G    0
   [root@server~]# df -h
   Filesystem            Size  Used Avail Use% Mounted on
   /dev/mapper/VolGroup00-LogVol00
                          34G  1.3G   31G   4% /
   /dev/cciss/c0d0p1      99M   13M   81M  14% /boot …
Run Code Online (Sandbox Code Playgroud)

linux partition lvm fdisk

5
推荐指数
1
解决办法
6860
查看次数

如何将LVM PV扩展到磁盘的开头?

我有一个 2TB 磁盘的服务器,有人最初这样分区:

  • 操作系统文件的 300GB 标准主分区(CentOS 7)。
  • 1.7TB LVM 和一些相当大的逻辑卷 - 用于其他需求。

由于操作系统文件的实际大小原来只有400GB左右,后来它被移到了LVM上自己的逻辑卷,所以磁盘开头的这个300GB分区就没有使用了。

所以,我删除了这个分区,现在想以某种方式将 PV 的开始位置移动到磁盘的开头,这样它将利用整个磁盘空间。但是我找不到任何工具来这样做 -pvextend只能将 PV 扩展到磁盘的末尾,而不是开头。

是的,我知道我可以将旧分区作为另一个 PV 添加到 VG,但是在单个磁盘上拥有多个 PV 看起来很奇怪。

我也知道我可以将分区复制到一些外部设备或云存储,然后从头开始重新创建物理磁盘分区。但我不想要这个,因为服务器停机时间很长。

那么,有没有什么办法可以快速将 PV 扩展到磁盘的开头呢?

linux partition lvm

5
推荐指数
1
解决办法
1559
查看次数