Gå til innhold

Sorgenfri

Medlemmer
  • Innlegg

    22
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av Sorgenfri

  1. Her er loggen i tilfelle den ikke kom med:

    mdadm --detail /dev/md0
    /dev/md0:
            Version : 01.00.03
      Creation Time : Fri Aug  5 11:29:51 2011
         Raid Level : raid6
         Array Size : 14643487680 (13965.12 GiB 14994.93 GB)
      Used Dev Size : 2928697536 (2793.02 GiB 2998.99 GB)
       Raid Devices : 7
      Total Devices : 8
    Preferred Minor : 0
        Persistence : Superblock is persistent

        Update Time : Sun Mar 13 14:16:23 2016
              State : clean
     Active Devices : 7
    Working Devices : 8
     Failed Devices : 0
      Spare Devices : 1

         Chunk Size : 64K

               Name : 0
               UUID : a0409715:3c6ac278:6b5cd07e:40c60991
             Events : 13456938

        Number   Major   Minor   RaidDevice State
           0       8        3        0      active sync   /dev/sda3
           1       8       19        1      active sync   /dev/sdb3
           2       8       35        2      active sync   /dev/sdc3
           3       8       51        3      active sync   /dev/sdd3
           4       8       67        4      active sync   /dev/sde3
           5       8       83        5      active sync   /dev/sdf3
           6       8       99        6      active sync   /dev/sdg3

           7       8      115        -      spare   /dev/sdh3
    [~] # mount /dev/md0 /share/MD0_DATA/
    mount: wrong fs type, bad option, bad superblock on /dev/md0,
           missing codepage or other error
           In some cases useful info is found in syslog - try
           dmesg | tail  or so

    [~] # dmesg
    >[  123.164657] ufsd: driver (lke_9.2.0 QNAP, build_host("BuildServer37"), acl, ioctl, bdi, sd2(0), fua, bz, rsrc) loaded at ffffffffa0194000
    [  123.164662] NTFS support included
    [  123.164665] Hfs+/HfsJ support included
    [  123.164667] optimized: speed
    [  123.164668] Build_for__QNAP_Atom_x86_64_k3.4.6_2014-09-17_lke_9.2.0_r245986_b9
    [  123.164671]
    [  123.222145] fnotify: Load file notify kernel module.
    [  124.296462] usbcore: registered new interface driver snd-usb-audio
    [  124.305527] usbcore: registered new interface driver snd-usb-caiaq
    [  124.317161] Linux video capture interface: v2.00
    [  124.340393] usbcore: registered new interface driver uvcvideo
    [  124.346324] USB Video Class driver (1.1.1)
    [  124.502088] 8021q: 802.1Q VLAN Support v1.8
    [  125.910956] 8021q: adding VLAN 0 to HW filter on device eth0
    [  125.997994] 8021q: adding VLAN 0 to HW filter on device eth1
    [  127.564055] e1000e: eth0 NIC Link is Up 100 Mbps Full Duplex, Flow Control: None
    [  127.568458] e1000e 0000:03:00.0: eth0: 10/100 speed: disabling TSO
    [  128.889040] e1000e: eth1 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx
    [  137.467001] kjournald starting.  Commit interval 5 seconds
    [  137.474246] EXT3-fs (md9): using internal journal
    [  137.478213] EXT3-fs (md9): mounted filesystem with ordered data mode
    [  142.024063] md: bind<sda2>
    [  142.029409] md/raid1:md8: active with 1 out of 1 mirrors
    [  142.033390] md8: detected capacity change from 0 to 542851072
    [  143.042915]  md8: unknown partition table
    [  145.088406] Adding 530124k swap on /dev/md8.  Priority:-1 extents:1 across:530124k
    [  149.298039] md: bind<sdb2>
    [  149.329519] RAID1 conf printout:
    [  149.329529]  --- wd:1 rd:2
    [  149.329537]  disk 0, wo:0, o:1, dev:sda2
    [  149.329544]  disk 1, wo:1, o:1, dev:sdb2
    [  149.329669] md: recovery of RAID array md8
    [  149.333677] md: minimum _guaranteed_ speed: 5000 KB/sec/disk.
    [  149.337808] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.
    [  149.341995] md: using 128k window, over a total of 530128k.
    [  151.447496] md: bind<sdc2>
    [  153.618603] md: bind<sdd2>
    [  155.795127] md: bind<sde2>
    [  158.035808] md: bind<sdf2>
    [  159.365966] md: md8: recovery done.
    [  159.421233] RAID1 conf printout:
    [  159.421244]  --- wd:2 rd:2
    [  159.421252]  disk 0, wo:0, o:1, dev:sda2
    [  159.421259]  disk 1, wo:0, o:1, dev:sdb2
    [  159.434063] RAID1 conf printout:
    [  159.434072]  --- wd:2 rd:2
    [  159.434078]  disk 0, wo:0, o:1, dev:sda2
    [  159.434083]  disk 1, wo:0, o:1, dev:sdb2
    [  159.434087] RAID1 conf printout:
    [  159.434091]  --- wd:2 rd:2
    [  159.434095]  disk 0, wo:0, o:1, dev:sda2
    [  159.434100]  disk 1, wo:0, o:1, dev:sdb2
    [  159.434104] RAID1 conf printout:
    [  159.434107]  --- wd:2 rd:2
    [  159.434112]  disk 0, wo:0, o:1, dev:sda2
    [  159.434117]  disk 1, wo:0, o:1, dev:sdb2
    [  159.434120] RAID1 conf printout:
    [  159.434124]  --- wd:2 rd:2
    [  159.434128]  disk 0, wo:0, o:1, dev:sda2
    [  159.434133]  disk 1, wo:0, o:1, dev:sdb2
    [  160.155538] md: bind<sdg2>
    [  160.182950] RAID1 conf printout:
    [  160.182957]  --- wd:2 rd:2
    [  160.182963]  disk 0, wo:0, o:1, dev:sda2
    [  160.182968]  disk 1, wo:0, o:1, dev:sdb2
    [  160.182972] RAID1 conf printout:
    [  160.182976]  --- wd:2 rd:2
    [  160.182980]  disk 0, wo:0, o:1, dev:sda2
    [  160.182985]  disk 1, wo:0, o:1, dev:sdb2
    [  160.182989] RAID1 conf printout:
    [  160.182993]  --- wd:2 rd:2
    [  160.182998]  disk 0, wo:0, o:1, dev:sda2
    [  160.183019]  disk 1, wo:0, o:1, dev:sdb2
    [  160.183023] RAID1 conf printout:
    [  160.183026]  --- wd:2 rd:2
    [  160.183031]  disk 0, wo:0, o:1, dev:sda2
    [  160.183036]  disk 1, wo:0, o:1, dev:sdb2
    [  160.183040] RAID1 conf printout:
    [  160.183043]  --- wd:2 rd:2
    [  160.183048]  disk 0, wo:0, o:1, dev:sda2
    [  160.183053]  disk 1, wo:0, o:1, dev:sdb2
    [  162.146493] md: md0 stopped.
    [  162.162975] md: md0 stopped.
    [  162.232608] md: bind<sdh2>
    [  162.269275] RAID1 conf printout:
    [  162.269285]  --- wd:2 rd:2
    [  162.269292]  disk 0, wo:0, o:1, dev:sda2
    [  162.269300]  disk 1, wo:0, o:1, dev:sdb2
    [  162.269305] RAID1 conf printout:
    [  162.269310]  --- wd:2 rd:2
    [  162.269316]  disk 0, wo:0, o:1, dev:sda2
    [  162.269323]  disk 1, wo:0, o:1, dev:sdb2
    [  162.269328] RAID1 conf printout:
    [  162.269332]  --- wd:2 rd:2
    [  162.269338]  disk 0, wo:0, o:1, dev:sda2
    [  162.269344]  disk 1, wo:0, o:1, dev:sdb2
    [  162.269349] RAID1 conf printout:
    [  162.269354]  --- wd:2 rd:2
    [  162.269360]  disk 0, wo:0, o:1, dev:sda2
    [  162.269367]  disk 1, wo:0, o:1, dev:sdb2
    [  162.269372] RAID1 conf printout:
    [  162.269376]  --- wd:2 rd:2
    [  162.269382]  disk 0, wo:0, o:1, dev:sda2
    [  162.269389]  disk 1, wo:0, o:1, dev:sdb2
    [  162.269394] RAID1 conf printout:
    [  162.269398]  --- wd:2 rd:2
    [  162.269407]  disk 0, wo:0, o:1, dev:sda2
    [  162.269413]  disk 1, wo:0, o:1, dev:sdb2
    [  162.335299] md: bind<sdb3>
    [  162.339123] md: bind<sdc3>
    [  162.342855] md: bind<sdd3>
    [  162.346507] md: bind<sde3>
    [  162.350055] md: bind<sdf3>
    [  162.353697] md: bind<sdg3>
    [  162.357088] md: bind<sdh3>
    [  162.360370] md: bind<sda3>
    [  162.364535] md/raid:md0: device sda3 operational as raid disk 0
    [  162.367444] md/raid:md0: device sdg3 operational as raid disk 6
    [  162.370302] md/raid:md0: device sdf3 operational as raid disk 5
    [  162.373132] md/raid:md0: device sde3 operational as raid disk 4
    [  162.375868] md/raid:md0: device sdd3 operational as raid disk 3
    [  162.378520] md/raid:md0: device sdc3 operational as raid disk 2
    [  162.381119] md/raid:md0: device sdb3 operational as raid disk 1
    [  162.402093] md/raid:md0: allocated 119488kB
    [  162.404744] md/raid:md0: raid level 6 active with 7 out of 7 devices, algorithm 2
    [  162.407341] RAID conf printout:
    [  162.407346]  --- level:6 rd:7 wd:7
    [  162.407352]  disk 0, o:1, dev:sda3
    [  162.407357]  disk 1, o:1, dev:sdb3
    [  162.407363]  disk 2, o:1, dev:sdc3
    [  162.407367]  disk 3, o:1, dev:sdd3
    [  162.407372]  disk 4, o:1, dev:sde3
    [  162.407377]  disk 5, o:1, dev:sdf3
    [  162.407382]  disk 6, o:1, dev:sdg3
    [  162.407461] md0: detected capacity change from 0 to 14994931384320
    [  162.410309] RAID conf printout:
    [  162.410317]  --- level:6 rd:7 wd:7
    [  162.410323]  disk 0, o:1, dev:sda3
    [  162.410329]  disk 1, o:1, dev:sdb3
    [  162.410336]  disk 2, o:1, dev:sdc3
    [  162.410343]  disk 3, o:1, dev:sdd3
    [  162.410349]  disk 4, o:1, dev:sde3
    [  162.410356]  disk 5, o:1, dev:sdf3
    [  162.410362]  disk 6, o:1, dev:sdg3
    [  163.584402]  md0: unknown partition table
    [  165.688169] EXT4-fs (md0): Mount option "noacl" will be removed by 3.5
    [  165.688174] Contact [email protected] if you think we should keep it.
    [  165.688177]
    [  165.855566] EXT4-fs (md0): ext4_check_descriptors: Checksum for group 6400 failed (9196!=65175)
    [  165.858397] EXT4-fs (md0): group descriptors corrupted!
    [  192.074049] e1000e: eth0 NIC Link is Up 100 Mbps Full Duplex, Flow Control: None
    [  192.076980] e1000e 0000:03:00.0: eth0: 10/100 speed: disabling TSO
    [  194.190062] e1000e: eth1 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx
    [  216.859851] warning: `proftpd' uses 32-bit capabilities (legacy support in use)
    [  237.898791] rule type=2, num=0
    [  238.025212] Loading iSCSI transport class v2.0-871.
    [  238.057555] iscsi: registered transport (tcp)
    [  238.079615] iscsid (8057): /proc/8057/oom_adj is deprecated, please use /proc/8057/oom_score_adj instead.
    [  305.033435] sysRequest.cgi[12329]: segfault at 18 ip 00000000f6f77c2e sp 00000000fff90a04 error 6 in libc-2.6.1.so[f6eee000+12d000]
    [  513.205896] sysRequest.cgi[14629]: segfault at 18 ip 00000000f7007c2e sp 00000000ffa894c4 error 6 in libc-2.6.1.so[f6f7e000+12d000]
    [ 1169.749862] EXT3-fs (md0): error: couldn't mount because of unsupported optional features (240)
     

  2. Hei!

    Har en aldri så liten nøtt med at et raid har blitt unmounted på vår kjære nas. Skjedde under en kopieringsoperasjon så er noen filer som det er litt upraktisk om må slettes. Nasen ellers fungerer...

     

    Er satt opp i RAID 6 med åtte disker hvor den åttende er hot-spare. Det jeg lurer på er om jeg kan kjøre denne kommandoen her på alle åtte diskene, eller om jeg må kjøre bare på de syv diskene som er i selve raidet. Lurer også på om jeg skal kjøre e2fsck_64 eller bare e2fsck.

     

    swapoff /dev/md8
    mdadm -S /dev/md8
    mkswap /dev/sda2
    mkswap /dev/sdb2
    mkswap /dev/sdc2
    mkswap /dev/sdd2
    mkswap /dev/sde2
    mkswap /dev/sdf2
    mkswap /dev/sdg2
    mkswap /dev/sdh2
    swapon /dev/sda2
    swapon /dev/sdb2
    swapon /dev/sdc2
    swapon /dev/sdd2
    swapon /dev/sde2
    swapon /dev/sdf2
    swapon /dev/sdg2
    swapon /dev/sdh2
    e2fsck_64 -f /dev/md0
    mount /dev/md0 /share/MD0_DATA/ -t ext4
    reboot

     

    I henhold til løsningen her :

    http://forum.qnap.com/viewtopic.php?p=224731

     

    Har lagt ved loggen som jeg mener hinter om at jeg er på riktig spor.

     

    Dette er stort sett gresk for meg så hvis noen kunne gi et lite "go" på dette hadde jeg (og mine kolleger) vært evig takknemlige :) Hvis det trengs noe mer informasjon om systemet så bidrar jeg gjerne med det!

  3. Tror det var 7200.11 jeg tenker på de som bricket disken grunnet en feil i firmwaren.

    Har 6 av disse og de har en del skadete sektorer som har blitt flyttet, men ikke noe alarmerende høyt enda.

    Uansett, har RAID 6 for å være på den sikre siden og så langt har det gått greit.

     

    Går det an å oppdatere firmwaren på diskene før jeg begynner å bruke de? Dette er det qnapen sier om mine:

     

    Hard Disk Model

    Seagate ST33000650NS 0001

    Model Number

    ST33000650NS

    Serial Number

    Z2908KLB

    Disk Capacity

    2794.52 GB

    Firmware Version

    0001

    ATA Version

    ATA-8

    ATA Standard

    Not recognized. Minor revision code: 0x29

  4. Hei,

    har gått til innkjøp av en QNAP TS-859+

    http://www.qnap.com/pro_detail_feature.asp?p_id=185

    og installert 8 Seagate ST33000650NS 3TB disker. KJøpte denne mye fordi den kunne settes opp med Raid 6, som jeg forstod var bedre enn raid 5. Kom over en del artikler (denne blandt annet: http://www.zdnet.com/blog/storage/why-raid-5-stops-working-in-2009/162) som var ganske så kritiske til raid 5. Sånn som jeg forstod det var det at ved store datamengder vil du ha en relativt høy risiko for å få en unrecoverable read error når raiden skal gjennopprettes etter at en av diskene har feilet. Men samme forfatter er heller ikke overbevist om at raid 6 er best:

    http://www.zdnet.com/blog/storage/why-raid-6-stops-working-in-2019/805?tag=rbxccnbzd1

     

    Jeg prøvde først og sette opp alle disken i raid 6 men det funket ikke. Formateringen stoppet opp. Så nå har jeg satt opp to raid 6 partisjoner. Med 5.5 TB lagring på hver. Så jeg har totalt 11 TB med lagringsplass igjen fra de 24 jeg har satt inn.

     

    Med tanke på datamengden og tid til å bygge opp partisjoner/fare for ure; er dette den beste løsningen mtp maks datasikkerhet?

  5. Undersøkte dette litt nærmere for deg og fant ut dette:

     

    http://www.tomshardware.com/forum/272899-28-different-processors-dual-socket-motherboard

    The answer is that particular combination won't work together. Page 25 and 26 of the Intel Xeon 5000 Series Datasheet Volume 1 discuss mixing processor types. A brief rundown on what's supported and not:

     

    1. CPUs must have the same QPI and RAM speed to work together.

    2. CPUs must have the same thermal profile (TDP) to work together.

    3. The CPUs must have the same number of physical cores to work together.

    4. The CPUs must have the same number of logical cores to work together.

    5. Stepping does not matter.

    6. Clock speed does not matter.

     

    If all of those are met, then you can run the CPUs together. The CPUs run at the speed of the slowest CPU. The current mix and match list:

     

    1. Xeon E5502- can only work with another E5502 since it's the only dual-core Xeon 5500 (#4.)

    2. Xeon E5504 can work with the E5506, both CPUs run at 2.00 GHz.

    3. Xeon E5520 can work with the E5530 or E5540, both CPUs run at 2.26 GHz in either case.

    4. Xeon E5530 can work with the E5520 (CPUs run at 2.26 GHz) or E5540 (CPUs run at 2.40 GHz)

    5. Xeon X5550 can work with the X5560 or X5570, both CPUs run at 2.67 GHz in either case.

    6. Xeon X5560 can work with the X5550 (CPUs run at 2.67 GHz) or X5570 (CPUs run at 2.80 GHz)

    7. Xeon W5580 can work with the W5590, both CPUs run at 3.20 GHz)

    8. Xeon L5506- can only work with other L5506s since it's the only L-series Xeon 5500 without HyperThreading.

    9. Xeon L5518 can work with the L5520 or L5530, both CPUs run at 2.13 GHz in either case.

    10. Xeon L5520 can work with the L5518 (CPUs run at 2.13 GHz) or L5530 (CPUs run at 2.26 GHz.)

    11. Xeon L5508- can only work with other L5508s since it's the only 38-watt TDP Xeon 5500.

     

     

    Jøss,det var jo akkurat det jeg trengte. Mange takk igjen. Da gjelder det bare å finne et sted som har en av de til salgs. Skulle gjerne hatt en med vifte på, så blir vel installasjonen litt enklere? Hvor får man kjøpt det da? Var ikke så mye utvalg på komplett og amentio...

  6. Hei,

    skal sette inn en ekstra prosessor i min HP Z600. Den gamle er Intel Xeon E5520. Må den nye være lik, eller kan jeg velge mellom alle disse?;

     

    http://h10010.www1.hp.com/wwpc/no/no/sm/WF13a/12454-12454-296719-4270225-4270225-3718663.html?lang=no&cc=no&jumpid=in_r2515_no/no/smb/psg/smartfinder-ba-xx-pu-Arbeidsstasjoner_hpz600arbeidsstasjon/chev/

     

    Ellers; er det lett og sette inn en ekstra prosessor? Noe jeg må passe på?

  7. Tenkte jeg skulle kjøpe en NETGEAR ReadyNAS 1100

    http://amentio.no/Avdelinger/datautstyr/Ha...EUS-917068.aspx uten noen disker og sette inn 4 2 tb. Noen som vet om det går an eller er det noe slags begrensing på hvor store disker man kan ha i? Hvis jeg kjøper en 2100 med 8 tb ferdig installert så koster den betraktelig mer enn utgiftene til ekstra disker. Ser at 2100

    http://amentio.no/Avdelinger/datautstyr/Ha...EUS-917052.aspx

    har sata 300 i stedet for 150 . Kan sata 150 kobles til sata 300 disker? Så spørsmålet mitt er egentlig; kan jeg kjøpe en 1100 og sette inn disse:

     

    http://amentio.no/Avdelinger/datautstyr/Ha...330-918741.aspx

     

    Setter pris på all tilbakemelding!

     

     

    Da har jeg funnet det ut, så hvis noen mot formodning lurer på hvilke disker som passer så står det her;

     

    http://www.readynas.com/?page_id=82

     

    :)

  8. Tenkte jeg skulle kjøpe en NETGEAR ReadyNAS 1100

    http://amentio.no/Avdelinger/datautstyr/Ha...EUS-917068.aspx uten noen disker og sette inn 4 2 tb. Noen som vet om det går an eller er det noe slags begrensing på hvor store disker man kan ha i? Hvis jeg kjøper en 2100 med 8 tb ferdig installert så koster den betraktelig mer enn utgiftene til ekstra disker. Ser at 2100

    http://amentio.no/Avdelinger/datautstyr/Ha...EUS-917052.aspx

    har sata 300 i stedet for 150 . Kan sata 150 kobles til sata 300 disker? Så spørsmålet mitt er egentlig; kan jeg kjøpe en 1100 og sette inn disse:

     

    http://amentio.no/Avdelinger/datautstyr/Ha...330-918741.aspx

     

    Setter pris på all tilbakemelding!

  9. Vel du kan bruke raidreconstructor fra runtime software for å sette sammen et raid. Du må da ha en disk på 500GB som du kan lagre det nye image på. Ingenting blir forandret på de orginale diskene.

    Når du har laget det imaget, kan du slette de gamle diskene og bruke GetDatBack eller diskexplorer for å hente ut filer. alle disse programmene finner du her.

     

    Mange takk!! Fulgte rådet ditt og nå kopierer jeg alt hva jeg måtte ønske med Captain Nemo. Imaget var imidlertid bare på 1 kb, men når jeg åpnet det i Captain Nemo kunne jeg browse raidene som en hvilken som helst annen disk og velge hva jeg ville lagre :new_woot:

     

    Tusen tusen takk igjen for tipset, dette var en bør av mine skuldre og JA jeg skal være flinkere til å ta backup i fremtiden! :innocent:

     

    Skylder deg en øl eller ti!

  10. Hadde to 250 GB harddisker som var i RAID 0 (tror jeg) på min Dell Dimension 8400. De var iallefall èn disk på 500gb (c:). Ble noe krøll med grafikkkortet så jeg tenkte jeg skulle ta en formatering og renska opp litt. Men før det vile jeg gjerne ta ut det jeg ville ha fra c:. Ting av uerstattelig art for å si det sånn. Siden jeg ikke kom inn i xp i noen moduser, tok jeg ut raid diskene. Jeg satte de så i to icy-boxer som jeg koblet til en annen pc med USB.

     

    I min uendelige visdom (ser at det kan ha vært litt dumt nå) så initialiserte jeg den ene disken i diskmanager. Den andre gjorde jeg ikke noe med. Nå har jeg funnet ut at RAID ikke er noe og kimse av. Har prøvd å lage virtual raid ved hjelp av R-STUDIO (http://www.r-studio.com/) men kommer til kort på å sette den opp riktig. Jeg har sannsynligvis føkka opp noe på den ene disken når jeg initialiserte den også....

     

    Så...

     

    Kan jeg sette de inn igjen i Dell maskinen? Vil de funke da? Og så kan jeg prøve å få ut dataene sånn? Fins det noen andre programmer som jeg kan bruke? Er de mulig å rekonstruere partisjoninformasjon hvis den ikke er skrevet over? Noen som har tips om hvordan jeg kan få tak i mine kjære data? Siste utvei er å betale Ibas 10-12000 for det og det venter jeg litt med for å si det sånn... Håper noen kan hjelpe meg!

×
×
  • Opprett ny...