[Linuxtrent] Re: Sostituzione disco RAID1+LVM e allargamento di una partizione: da DOS a GPT?
- From: Emanuele Olivetti <emanuele@xxxxxxxxxxxxxx>
- To: linuxtrent@xxxxxxxxxxxxx
- Date: Wed, 17 Apr 2019 14:35:21 +0200
On 17/04/19 11:15, Antonio Galea wrote:
[...]
L'unica maniera per saperlo è analizzare l'initramfs attuale e
verificare cosa contiene: se l'unico riferimento ai dischi è
attraverso il device mapper, non dovresti aver bisogno di ricreare
nulla.
In ogni caso, si suppone che rigenerare l'initramfs sia un'operazione
sicura - viene eseguita automaticamente ad ogni kernel upgrade, per
esempio.
Antonio
Grazie della risposta! Controllerò con attenzione appena possibile, perché nel
frattempo ho trovato qualcosa di decisamente problematico!
---
# mdadm --detail --scan
ARRAY /dev/md0 metadata=0.90 UUID=5ca5fd1f:8e13b9b7:9d4deba6:47ca997f
INACTIVE-ARRAY /dev/md1 metadata=0.90 UUID=18cce309:aded429c:9d4deba6:47ca997f
---
cioe /dev/md1, che contiene / e /home è indicato come INACTIVE. Devo aver
combinato qualche pasticcio...!
Inoltre:
---
# mdadm --detail /dev/md1
/dev/md1:
Version : 0.90
Raid Level : raid0
Total Devices : 1
Preferred Minor : 0
Persistence : Superblock is persistent
State : inactive
UUID : 18cce309:aded429c:9d4deba6:47ca997f
Events : 0.473593
Number Major Minor RaidDevice
- 8 18 - /dev/sdb2
---
Manca all'appello /dev/sda2, che è il disco che ho rifatto con GPT.
E infatti:
---
# cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4]
[raid10]
md1 : inactive sdb2[1](S)
966502464 blocks
md0 : active raid1 sda1[0] sdb1[1]
497856 blocks [2/2] [UU]
unused devices: <none>
---
Se avete suggerimenti su come procedere, sono molto bene accetti. Per il momento
ho questa strana situazione:
---
# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 5.5T 0 disk
├─sda1 8:1 0 487M 0 part
│ └─md0 9:0 0 486.2M 0 raid1 /boot
└─sda2 8:2 0 5.5T 0 part
├─vg00-root 253:0 0 4.7G 0 lvm /
├─vg00-swap 253:1 0 1.9G 0 lvm [SWAP]
└─vg00-home 253:2 0 915.2G 0 lvm /home
sdb 8:16 0 5.5T 0 disk
├─sdb1 8:17 0 486.3M 0 part
│ └─md0 9:0 0 486.2M 0 raid1 /boot
└─sdb2 8:18 0 921.7G 0 part
mtdblock0 31:0 0 512K 0 disk
mtdblock1 31:1 0 2M 0 disk
mtdblock2 31:2 0 9M 0 disk
mtdblock3 31:3 0 3M 0 disk
mtdblock4 31:4 0 256K 0 disk
mtdblock5 31:5 0 1.3M 0 disk
---
In sintesi, sembra che proprio /dev/sda2 venga utilizzato per root, swap e
home... mentre mi aspettavo fosse /dev/md1 che utilizza solo /dev/sdb2. Ma al
momento /dev/md1 è appunto inactive.
In /etc/mdadm.conf ho:
---
[...]
# definitions of existing MD arrays
ARRAY /dev/md0 UUID=5ca5fd1f:8e13b9b7:9d4deba6:47ca997f
ARRAY /dev/md1 UUID=18cce309:aded429c:9d4deba6:47ca997f
[...]
----
e questi UUID corrispondono rispettivamente a /dev/sda1 + /dev/sdb1 (ma non
/dev/md0 ?) e /dev/sdb2:
---
# blkid
/dev/sda1: UUID="5ca5fd1f-8e13-b9b7-9d4d-eba647ca997f" TYPE="linux_raid_member"
PARTLABEL="primary" PARTUUID="87c05a1e-9cae-4081-b696-8eb9a8f7271f"
/dev/sda2: UUID="PNovql-zFBI-NzTx-cFDk-bLxs-eBiy-KVExGn" TYPE="LVM2_member"
PARTLABEL="primary" PARTUUID="2de3f65c-d155-4ec6-8610-65ccb65fe1a6"
/dev/sdb1: UUID="5ca5fd1f-8e13-b9b7-9d4d-eba647ca997f" TYPE="linux_raid_member"
PARTUUID="000f0167-01"
/dev/sdb2: UUID="18cce309-aded-429c-9d4d-eba647ca997f" TYPE="linux_raid_member"
PARTUUID="000f0167-02"
/dev/md0: LABEL="boot" UUID="8ecca189-7483-4324-8de2-13f6a5ad7a8b" TYPE="ext2"
/dev/mapper/vg00-root: LABEL="root" UUID="4fb78d09-760b-420a-90cc-cb1ac9206aed"
TYPE="ext4"
/dev/mapper/vg00-swap: UUID="da55f07e-c089-4dee-824e-cdaed66c18cf" TYPE="swap"
/dev/mapper/vg00-home: LABEL="home" UUID="8ff04ba3-70a3-437b-b7d8-dcd03eb27b51"
TYPE="ext4"
/dev/mtdblock3: UUID="6f1eefaa-5ce8-4bb9-ba93-3b4bf7fba180" TYPE="ext2"
/dev/mtdblock5: UUID="c7ee67e2-b663-45a5-a41a-5bbbd9c64ae3" TYPE="ext2"
----
Non capisco...help!
Emanuele
--
Per iscriversi (o disiscriversi), basta spedire un messaggio con OGGETTO
"subscribe" (o "unsubscribe") a
mailto:linuxtrent-request@xxxxxxxxxxxxx
Other related posts: