Results 1 to 3 of 3

Thread: Raid set los koppelen

  1. #1
    Join Date
    Mar 2018
    Location
    Zwolle Netherlands
    Posts
    65

    Default Raid set los koppelen

    Goedeavond allemaal!

    Ik wil graag een schijf los koppelen uit een raid set.

    De raid set ziet er als volgt uit:
    Code:
    beheerder@server50:~> cat /proc/mdstat 
    Personalities : [raid1] 
    md127 : active raid1 sdb1[1] sda1[0]
          976760640 blocks super 1.0 [2/2] [UU]
          bitmap: 2/8 pages [8KB], 65536KB chunk
    
    
    unused devices: <none>
    beheerder@server50:~>
    Deze raid 1 is gekoppeld aan / zie hier onder:
    Code:
    beheerder@server50:~> cat /etc/fstab 
    UUID=5270a95b-6083-4c58-9af9-e0197c384d7d /                    ext4       acl,user_xattr        1 1
    UUID=12bdd264-0f8a-42d3-836d-2413ba19df41 /backup              ext4       acl,user_xattr        1 2
    beheerder@server50:~>
    En ik wil dan de andere schijf die ik los gehaald heb van de raid weer aankoppelen op een ander mount point.

    Heeft iemand een idee hoe dit goed en veilig te doen is?

    Normaal zou ik zelf gaan stoeien maar aangezien dit mijn server is met al mijn data wil ik zeker weten dat het goed gaat zeg maar en dus niet een kapotte opstart schijf heb

    dus ik wil graag meningen horen hoe jullie het zouden doen

    Alvast bedankt

    Laters
    Wesley
    Hp 8570W Workstation I7 8GB 1TB SSD - openSUSE Tumbleweed
    HP
    ProLiant ML310e Gen8 8GB 4x 3 TB hdd Raid5 - openSUSE Tumbleweed
    Twitter: @_landaal

  2. #2
    Join Date
    Jun 2008
    Location
    Netherlands
    Posts
    24,890

    Default Re: Raid set los koppelen

    Quote Originally Posted by ComputerSmurf View Post
    Ik wil graag een schijf los koppelen uit een raid set.
    Ik ga er van uit dat je Linux Software RAID bedoelt (RAID is een algemene term en kan m.b.t. Linux slaan op hardware RAID apparaten, Linux Software RAID, Raid binnen LVM en misschien nog wel meer implementaties).

    Ik zou
    Code:
    man mdadm
    en waarschijnlijk ook
    Code:
    man md
    bestuderen (ik heb wel eens een Linux Software Raid gebouwd, maar nooit één van de devices verwijderd).
    Quote Originally Posted by ComputerSmurf View Post
    De raid set ziet er als volgt uit:
    Code:
    beheerder@server50:~> cat /proc/mdstat 
    Personalities : [raid1] 
    md127 : active raid1 sdb1[1] sda1[0]
          976760640 blocks super 1.0 [2/2] [UU]
          bitmap: 2/8 pages [8KB], 65536KB chunk
    
    
    unused devices: <none>
    beheerder@server50:~>
    Deze raid 1 is gekoppeld aan / zie hier onder:
    Code:
    beheerder@server50:~> cat /etc/fstab 
    UUID=5270a95b-6083-4c58-9af9-e0197c384d7d /                    ext4       acl,user_xattr        1 1
    UUID=12bdd264-0f8a-42d3-836d-2413ba19df41 /backup              ext4       acl,user_xattr        1 2
    beheerder@server50:~>
    Helaas is dat niet te zien. Met RAID maak je een niieuw mass storage device. Dat kan je eventueel weer partitioneren, maar uiteindelik moet je op het device of op de partitties file systemen aanmaken. En die kan je dan mounten. Wat we in de fstab zien is die file systemen (en waar ze gemount zouden moeten zijn). De file system zijn hier met
    Code:
    UUID=5270a95b-6083-4c58-9af9-e0197c384d7d
    enz. geïdentificeerd. Je moet dan eerst met
    Code:
    ls -l /dev/disk/by-uuid | grep '5270a95b-6083-4c58-9af9-e0197c384d7d'
    kijken welke device file dat is. Dat zou dus (één van de partities van) het RAID device kunnen zijn.
    Quote Originally Posted by ComputerSmurf View Post
    En ik wil dan de andere schijf die ik los gehaald heb van de raid weer aankoppelen op een ander mount point.
    Dan geldt wat voor iedere ongebruikte schijf geldt. Besluiten of je wilt partitioneren en zo ja hoe. Daqn besluiten welke types file systeme je daar op wilt zetten. Dan besluiten waar je e.e.a. wilt mounjten. Dan is het uitvoeren van dat plan natuurlijk een eitje.
    Quote Originally Posted by ComputerSmurf View Post
    Heeft iemand een idee hoe dit goed en veilig te doen is?

    Normaal zou ik zelf gaan stoeien maar aangezien dit mijn server is met al mijn data wil ik zeker weten dat het goed gaat zeg maar en dus niet een kapotte opstart schijf heb

    dus ik wil graag meningen horen hoe jullie het zouden doen
    Ik denk dat het probleem is of je het verwijderen van de schijf uit de RAID (die dan eigenlijk geen RAID meer is) kan doen als de RAID in gebruik is (lees: als het file system gemount is).
    Zo niet, dan moet je e.e.a. vanaf een life/rescue systeem doen.

    Nogmaals, bestuderen van de documentatie lijkt mij zeer belangrijk. Er is een paragraaf over RAID-DEVICES CHANGES, maar dat wijst er op dat devices dan all verwijderd of failed moeten zijn. Dat moet je dus eerst uitzoeken.
    Ook lijkt mij dat dat wat overblijft een beetje een vreemd zaakje is. Je kunt je afvragen of het opnieuw opbouwen van je / file systeem op de daarvoor bedoelde schijf niet beter is (nieuwe installatie of data vehuizen, maar in het laatste geval moet er ook e.e.a gebeuren aan de configuraties van Grub en fstab).
    Last edited by hcvv; 21-Jun-2018 at 03:27.
    Henk van Velden

  3. #3
    Join Date
    Mar 2018
    Location
    Zwolle Netherlands
    Posts
    65

    Default Re: Raid set los koppelen

    Quote Originally Posted by hcvv View Post
    Ik ga er van uit dat je Linux Software RAID bedoelt (RAID is een algemene term en kan m.b.t. Linux slaan op hardware RAID apparaten, Linux Software RAID, Raid binnen LVM en misschien nog wel meer implementaties).

    Ik zou
    Code:
    man mdadm
    en waarschijnlijk ook
    Code:
    man md
    bestuderen (ik heb wel eens een Linux Software Raid gebouwd, maar nooit één van de devices verwijderd).

    Helaas is dat niet te zien. Met RAID maak je een niieuw mass storage device. Dat kan je eventueel weer partitioneren, maar uiteindelik moet je op het device of op de partitties file systemen aanmaken. En die kan je dan mounten. Wat we in de fstab zien is die file systemen (en waar ze gemount zouden moeten zijn). De file system zijn hier met
    Code:
    UUID=5270a95b-6083-4c58-9af9-e0197c384d7d
    enz. geïdentificeerd. Je moet dan eerst met
    Code:
    ls -l /dev/disk/by-uuid | grep '5270a95b-6083-4c58-9af9-e0197c384d7d'
    kijken welke device file dat is. Dat zou dus (één van de partities van) het RAID device kunnen zijn.

    Dan geldt wat voor iedere ongebruikte schijf geldt. Besluiten of je wilt partitioneren en zo ja hoe. Daqn besluiten welke types file systeme je daar op wilt zetten. Dan besluiten waar je e.e.a. wilt mounjten. Dan is het uitvoeren van dat plan natuurlijk een eitje.

    Ik denk dat het probleem is of je het verwijderen van de schijf uit de RAID (die dan eigenlijk geen RAID meer is) kan doen als de RAID in gebruik is (lees: als het file system gemount is).
    Zo niet, dan moet je e.e.a. vanaf een life/rescue systeem doen.

    Nogmaals, bestuderen van de documentatie lijkt mij zeer belangrijk. Er is een paragraaf over RAID-DEVICES CHANGES, maar dat wijst er op dat devices dan all verwijderd of failed moeten zijn. Dat moet je dus eerst uitzoeken.
    Ook lijkt mij dat dat wat overblijft een beetje een vreemd zaakje is. Je kunt je afvragen of het opnieuw opbouwen van je / file systeem op de daarvoor bedoelde schijf niet beter is (nieuwe installatie of data vehuizen, maar in het laatste geval moet er ook e.e.a gebeuren aan de configuraties van Grub en fstab).
    Ja dat het geen eenvoudige klus is was ik al achter.
    Als het niet makkelijk te los te halen is dan doe ik het niet.
    Server is in bedrijf en opnieuw opbouwen ga ik dus niet doen kost te veel tijd en laat ik het lekker zo.

    Was gewoon benieuwd of er een simpele manier was.
    En die is er dus waarschijnlijk niet.

    Groetjes
    Wesley
    Hp 8570W Workstation I7 8GB 1TB SSD - openSUSE Tumbleweed
    HP
    ProLiant ML310e Gen8 8GB 4x 3 TB hdd Raid5 - openSUSE Tumbleweed
    Twitter: @_landaal

Tags for this Thread

Posting Permissions

  • You may not post new threads
  • You may not post replies
  • You may not post attachments
  • You may not edit your posts
  •