.:CyberMan:. Skrevet 13. november 2006 Skrevet 13. november 2006 (endret) Jeg har et A8N-SLI Premium (soket 939) hoved kort, der jeg kjører XP og har satt opp 3 identiske WD 320GB disker, i et et Raid-5 oppsett, (via Biosen), på Silicon Image 3114R RAID controller som er intregert på hoved kortet. Tok ny windows instalasjon, å har nå hatt dette for første gang nå, i en måneds tid, å bruker det som sikker lagring, itilfelle en HD skulle ta natta, eller noe.. Som eneste status "overvåking", så kjører jeg "Java" programmet: SAM (Sil Arry Manager, som orginalt fulgte med HK/RAID driverne.. Alt har fungert tilsynelatende perfekt, hvis man ser bort i fra noen "furstrerte" "status" meldinger.. 1: Til tider så skifter plutselig "Sil Arry Manager" statusen på hver HD (Som er en del av Raid-5 oppsettet), i fra Grønn til Gult, der det videre under status info, står: Reduced.. (Forså, å gå tilbake til grønt og "normalt", etter 3-4 restarter senere..) 2: Noen ganger under oppstart/BOT, så kommer bare 2 av 3 av diskene opp, som om dem er koblet opp til Raid-5 oppsettet. (Dvs. det virker ut som om den ene har falt ut av Raid-5 løsningen..) Dette blir også videre bekreftet, hvis jeg går inn i Raid oppsettet under "biosen", da det da kommer opp at 2 disker er koblet opp i et "uguldig" Raid oppset, å den siste står "ledig".. I windows, så er det samme status infoen under Sil Arry Manager, som i "feil" 1, men at bare 2 av dem 3 diskene er farget gul, mens den siste står som "orphan", å klar til å settes opp i en ny raid løsning?? (Samme her å, me at det går tilbake til normalt, etter 3-4 restarter..) ------------------------------------------------------------------- *Med 3-4 restarter, så mener jeg der jeg bruker pcen som normalt, å at det er mange timer i mellom hver restart.. *Både under "feil" 1 og 2, så fungerer alle partisjonene som er på Raid-5 oppsettet som normalt, både med lesing og skriving.. Jeg personlig tolker dette som om at den ene fysiske disken i Raid-5 oppsettet faller ut, for så under bot og noen restarter senere, blir "koblet til" igjen.. Men igjen så kan ikke det stemme, siden den kommer opp som en "HD" i RAID BIOSen, under oppstart/bot.. --------------------------------------------------------------------- Noen forslag på hva dette kan komme av? Og eventuelle løsninger? (Da høys sansynlig så vil all data gå taft, hvis en HD tar natta samtidlig som "feil" 2 er tilstede.. Ps. Alle drivere osv, er oppdaterte og nyeste utgave i fra HK leverandøren selv.. .:CyberMan:. Endret 13. november 2006 av .:CyberMan:.
etoel Skrevet 17. november 2006 Skrevet 17. november 2006 Jeg har et A8N-SLI Premium (soket 939) hoved kort, der jeg kjører XP og har satt opp 3 identiske WD 320GB disker, i et et Raid-5 oppsett, (via Biosen), på Silicon Image 3114R RAID controller som er intregert på hoved kortet. Tok ny windows instalasjon, å har nå hatt dette for første gang nå, i en måneds tid, å bruker det som sikker lagring, itilfelle en HD skulle ta natta, eller noe.. Som eneste status "overvåking", så kjører jeg "Java" programmet: SAM (Sil Arry Manager, som orginalt fulgte med HK/RAID driverne.. Alt har fungert tilsynelatende perfekt, hvis man ser bort i fra noen "furstrerte" "status" meldinger.. 1: Til tider så skifter plutselig "Sil Arry Manager" statusen på hver HD (Som er en del av Raid-5 oppsettet), i fra Grønn til Gult, der det videre under status info, står: Reduced.. (Forså, å gå tilbake til grønt og "normalt", etter 3-4 restarter senere..) 2: Noen ganger under oppstart/BOT, så kommer bare 2 av 3 av diskene opp, som om dem er koblet opp til Raid-5 oppsettet. (Dvs. det virker ut som om den ene har falt ut av Raid-5 løsningen..) Dette blir også videre bekreftet, hvis jeg går inn i Raid oppsettet under "biosen", da det da kommer opp at 2 disker er koblet opp i et "uguldig" Raid oppset, å den siste står "ledig".. I windows, så er det samme status infoen under Sil Arry Manager, som i "feil" 1, men at bare 2 av dem 3 diskene er farget gul, mens den siste står som "orphan", å klar til å settes opp i en ny raid løsning?? (Samme her å, me at det går tilbake til normalt, etter 3-4 restarter..) ------------------------------------------------------------------- *Med 3-4 restarter, så mener jeg der jeg bruker pcen som normalt, å at det er mange timer i mellom hver restart.. *Både under "feil" 1 og 2, så fungerer alle partisjonene som er på Raid-5 oppsettet som normalt, både med lesing og skriving.. Jeg personlig tolker dette som om at den ene fysiske disken i Raid-5 oppsettet faller ut, for så under bot og noen restarter senere, blir "koblet til" igjen.. Men igjen så kan ikke det stemme, siden den kommer opp som en "HD" i RAID BIOSen, under oppstart/bot.. --------------------------------------------------------------------- Noen forslag på hva dette kan komme av? Og eventuelle løsninger? (Da høys sansynlig så vil all data gå taft, hvis en HD tar natta samtidlig som "feil" 2 er tilstede.. Ps. Alle drivere osv, er oppdaterte og nyeste utgave i fra HK leverandøren selv.. .:CyberMan:. 7273337[/snapback] Hadde lignende problemer med det kortet - ga opp hele Sil kontrolleren. Har hørt andre har oppgradert driverene, men da ikke fra Asus - husker ikke helt hvor de fikk de. Er vel 3114R du har tror jeg. Har du forresten mange PCI kort i bruk? Denne kontrolleren bruker jo PCI bussen og med alle de diskene swamper den sikkert PCI bussen. Dette kan trigge feil/timeout som gjør at raidkontrolleren safer og går i vedlikeholdsmodus (gult) og bygger opp raidet igjen. Jeg fant vel egentlig ut at jeg ikke stolte på denne kontrolleren - og det blir jo helt meningsløst å ha et raid på en kontroller man ikke stoler på Hva med en egen raidkontroller på PCIe?
HeltNils Skrevet 17. november 2006 Skrevet 17. november 2006 Hadde også mye problemer med at RAIDet "falt ut" og måtte regenereres på SiL. Har byttet til XPs RAID5 på nForce-kontrolleren, og det har vært både raskere og mer stabilt. Med SiLs RAID5 tror jeg dataene er mer utrygge enn om man bare bruker diskene hver for seg.
.:CyberMan:. Skrevet 17. november 2006 Forfatter Skrevet 17. november 2006 Hadde lignende problemer med det kortet - ga opp hele Sil kontrolleren. Har hørt andre har oppgradert driverene, men da ikke fra Asus - husker ikke helt hvor de fikk de. Er vel 3114R du har tror jeg. Har du forresten mange PCI kort i bruk? Denne kontrolleren bruker jo PCI bussen og med alle de diskene swamper den sikkert PCI bussen. Dette kan trigge feil/timeout som gjør at raidkontrolleren safer og går i vedlikeholdsmodus (gult) og bygger opp raidet igjen. Jeg fant vel egentlig ut at jeg ikke stolte på denne kontrolleren - og det blir jo helt meningsløst å ha et raid på en kontroller man ikke stoler på Hva med en egen raidkontroller på PCIe? 7302071[/snapback] Ja, det er en "Silicon Image 3114R RAID controller", ja.. Å jeg har bare "oppdaterte" drivera i fra Asus.. Har ingen ekstra PCI kort, for uten to GForce 7800GTX 256 GFX kort i SLI.. .:CyberMan:. ******************************************************************** ******************************************************************** Hadde også mye problemer med at RAIDet "falt ut" og måtte regenereres på SiL. Har byttet til XPs RAID5 på nForce-kontrolleren, og det har vært både raskere og mer stabilt. Med SiLs RAID5 tror jeg dataene er mer utrygge enn om man bare bruker diskene hver for seg. 7302288[/snapback] Ja, har sjøl den oppfatningen, men kjører "Desverre" et raid0 oppsett og noen singel SATA disker på nForce kontrolleren, så der er ikke et anternativ.. XPs Soft Raid har nå så klart vært en løsning.. Men når man førsten har en HK RAID kontroller, så har jeg lyst til å bruke den.. .:CyberMan:.
.:CyberMan:. Skrevet 17. november 2006 Forfatter Skrevet 17. november 2006 Nå virker det som om "problemet" blir bare, værre og værre.. Siden denne posten har blitt opprettet, så har det ikke gått en "restart" uten at "statusen" på Raiden har blitt forandret.. Eks. I går, under siste restart, så ble Raid 5en rebildet, å alt ble grømt og fint. :-) Men etter at jeg slo den på igjen i dag, så datt/falt den ene "enheten" bort igjen.. (Det er også bestandig samme enhet som faller ut..) Her er log infoen, i fra styrings programmet: log.doc (Se vedlegg..) .:CyberMan:.
.:CyberMan:. Skrevet 19. november 2006 Forfatter Skrevet 19. november 2006 Kom på at den disken som heletiden "faller" ut, er den eneste av dem, som er koblet til en Molly te sata strøm kontakt, mens dem to andre er koblet direkte til PSUen, med egen SATA strøm kontakt.. Etter mere tenking, så kom jeg også på at den kontakten som moly te sata strøm kontakten var koblet til, hadde ein go del andre ting koblet til.. Som videre bar tankene inn på at det enkelt å greit, kunne være et "strøm" problem.. Tok derfor å hivde på en ny moly kontakt til PSUen, å koblet den direkte til moly til sata kontakten.. Slik at HDen fikk "ren" strøm.. Men.. Etter 3-4 restarter, så ser det ut som at det hadde lite virkning.. :-| Før forgje restart, så hadde den ene HDen falt ut igjen (Device 0), å her er logen etter det.. (Nå er alle koblet inn igjen, med gul status..) Dok2.doc
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå