Linux RAID MDADM - clean,degraded - Active Devices 1

Linux RAID MDADM - clean,degraded - Active Devices 1

Ahoj,

používám na mém domácím serveru s Linux Ubuntu RAID1 zrcadlení přes MDADM a vypadá to, že je něco špatně. Když zkouknu mdadm -D /dev/md0, tak tam vidím state clean a degraded. Co to proboha je? Ze slova clean bych u raidu čekal, že je to v pořádku, ale co tam dělá i degraded? Buď je to přece clean a nebo degraded. Z toho jsem trochu mimo. Avšak z údaje Raid Devices : 2 a Total Devices : 1 odhaduji, že je něco špatně. Další údaj md0 : active raid1 sdc1[1] taky nevěští nic dobrého, očekával bych, že tam uvidím i disk /dev/sdb1 + unused devices: none je také zvláštní. Poradíte prosím někdo co s tím?

user@server ~ $ sudo cat /proc/mdstat
[sudo] password for user:
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdc1[1]
976630464 blocks super 1.2 [2/1] [_U]
bitmap: 8/8 pages [32KB], 65536KB chunk

unused devices: none
user@server ~ $ sudo mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri Apr 28 09:50:22 2017
Raid Level : raid1
Array Size : 976630464 (931.39 GiB 1000.07 GB)
Used Dev Size : 976630464 (931.39 GiB 1000.07 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Thu Oct 5 09:04:41 2017
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0

Name : server:0 (local to host server)
UUID : a51d1c37:acdf77ae:8f6e9a2a:dfb781d7
Events : 107737

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 33 1 active sync /dev/sdc1
user@server ~ $ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 111,8G 0 disk
├─sda1 8:1 0 487M 0 part /boot
└─sda2 8:2 0 111,3G 0 part
└─sda2_crypt 252:0 0 111,3G 0 crypt /
sdb 8:16 0 931,5G 0 disk
└─sdb1 8:17 0 931,5G 0 part
sdc 8:32 0 931,5G 0 disk
└─sdc1 8:33 0 931,5G 0 part
└─md0 9:0 0 931,4G 0 raid1
└─raid1 252:1 0 931,4G 0 crypt /home/user/Desktop/raid1
user@server ~ $ sudo cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdc1[1]
976630464 blocks super 1.2 [2/1] [_U]
bitmap: 8/8 pages [32KB], 65536KB chunk

unused devices: none



ODPOVĚĎ


Ahoj,

oprava tohoto problému by měla být jednoduchá, zkus vrátit disk /dev/sdb1 zpět do RAIDu pomocí mdadm -a:

mdadm -a /dev/md0 /dev/sdb1

ODPOVĚĎ


Ahoj, děkuji za radu, po opětovném přidání /dev/sdb1 do raidu pomocí mdadm -a se raid začal rebuildit. Díky!

user@server ~ $ mdadm --zero-superblock /dev/sdb1
user@server ~ $ mdadm -a /dev/md0 /dev/sdb1
mdadm: added /dev/sdb1
user@server ~ $ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdb1[2] sdc1[1]
976630464 blocks super 1.2 [2/1] [_U]
[>....................] recovery = 0.0% (474816/976630464) finish=102.7min speed=158272K/sec
bitmap: 8/8 pages [32KB], 65536KB chunk

unused devices: none



ODPOVĚĎ


Tak mi RAID opět padl, disk byl skutečně vadný. Dal jsem tam jiný starší.

PS: Pro nový disk je třeba překlonovat rozložení oddílů 1:1, což znamená sudo sfdisk -d /dev/sdd | sudo sfdisk /dev/sdb - to překlonuje rozložení z /dev/sdd do /dev/sdb.


user@server ~ $ sudo mdadm -D /dev/md0
[sudo] password for user:
/dev/md0:
Version : 1.2
Creation Time : Fri Apr 28 09:50:22 2017
Raid Level : raid1
Array Size : 976630464 (931.39 GiB 1000.07 GB)
Used Dev Size : 976630464 (931.39 GiB 1000.07 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Wed Oct 11 06:52:02 2017
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0

Name : server:0 (local to host server)
UUID : a51d1c37:acdf77ae:8f6e9a2a:dfb781d7
Events : 111292

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 49 1 active sync /dev/sdd1
user@server ~ $ sudo sfdisk -d /dev/sdd | sudo sfdisk /dev/sdb
Checking that no-one is using this disk right now ... OK

Disk /dev/sdb: 931,5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 4036EC8E-B377-4CF7-8386-56697EF8AEA6

Old situation:

Device Start End Sectors Size Type
/dev/sdb1 2048 534527 532480 260M EFI System
/dev/sdb2 534528 567295 32768 16M Microsoft reserved
/dev/sdb3 567296 1858312191 1857744896 885,9G Microsoft basic data
/dev/sdb4 1858312192 1910740991 52428800 25G Microsoft basic data
/dev/sdb5 1910740992 1912788991 2048000 1000M Windows recovery environment
/dev/sdb6 1912788992 1951475711 38686720 18,5G Windows recovery environment
/dev/sdb7 1951475712 1953523711 2048000 1000M Lenovo boot partition

>>> Script header accepted.
>>> Script header accepted.
>>> Script header accepted.
>>> Script header accepted.
>>> Created a new DOS disklabel with disk identifier 0x84a3ba18.
Created a new partition 1 of type 'Linux raid autodetect' and of size 931,5 GiB.
/dev/sdb2:
New situation:

Device Boot Start End Sectors Size Id Type
/dev/sdb1 2048 1953525134 1953523087 931,5G fd Linux raid autodetect

The partition table has been altered.
Calling ioctl() to re-read partition table.
Syncing disks.
user@server ~ $ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 111,8G 0 disk
├─sda1 8:1 0 487M 0 part /boot
└─sda2 8:2 0 111,3G 0 part
└─sda2_crypt 252:0 0 111,3G 0 crypt /
sdb 8:16 0 931,5G 0 disk
└─sdb1 8:17 0 931,5G 0 part
sdc 8:32 0 465,8G 0 disk
├─sdc1 8:33 0 450M 0 part
├─sdc2 8:34 0 100M 0 part
├─sdc3 8:35 0 16M 0 part
├─sdc4 8:36 0 97,1G 0 part
└─sdc5 8:37 0 368,1G 0 part
└─backups 252:2 0 368,1G 0 crypt /mnt/backups
sdd 8:48 0 931,5G 0 disk
└─sdd1 8:49 0 931,5G 0 part
└─md0 9:0 0 931,4G 0 raid1
└─raid1 252:1 0 931,4G 0 crypt /home/user/Desktop/raid1
user@server ~ $ sudo mdadm -a /dev/md0 /dev/sdb1
mdadm: added /dev/sdb1
user@server ~ $ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdb1[2] sdd1[1]
976630464 blocks super 1.2 [2/1] [_U]
[>....................] recovery = 0.0% (948672/976630464) finish=137.1min speed=118584K/sec
bitmap: 5/8 pages [20KB], 65536KB chunk

unused devices: none

Související obsah

linux

bash

terminal

hdd

disk

raid

mdadm

Komentáře

Vaše reakce na Linux RAID MDADM - clean,degraded - Active Devices 1

Reference

Podívejte se na naše reference

Prohlédnout

Aplikace

Podívejte se na naše aplikace

Prohlédnout

Co umíme?

Podívejte se co umíme

Prohlédnout

Co umíme?

Vytváříme sofistikované aplikace pro náročné

Od webových aplikací přes android až po převodové můstky či složité informační systémy.

Podívejte se k nám

Máte ještě čas? Podívejte se na další rubriky

Tento web používá soubory cookie. Dalším procházením tohoto webu vyjadřujete souhlas s jejich používáním.. Více informací zde.