Gå til innhold

BSD/UnixNybegynner trenger hjelp til å partisjonere disk i solaris


Anbefalte innlegg

Hei, først av alt, så må jeg bare påpeke at min erfaring utover windows er heller liten, og at jeg har mest erfaring fra GUI-baserte måter å gjøre ting. SÅ det er sikkert endel litt tåplige spørsmål, og sikkert feil bruk av ord også, men jeg prøver meg allikvel på et spørsmål;

 

Forhistorie: jeg skal teste solaris på en boks som fra før hadde XP og Ubuntu i dual-boot, etter en lang dag med stress, så er endelig Solaris oppe og kjøre. Grunnen til at jeg vil teste solaris er såklart ZFS. Men jeg har ikke så mange harddisker til over liggende rundt, dermed vil jeg gjerne lage storage-pools av slices, istedet for hele disker, for å teste ymse scenarioer. Såvidt jeg har forstått, så fungerer ikke en soalrispartisjon slike jeg er vant til å tenke om partisjoner, istedet har man en stor solarispartisjon, som igjen deles opp i mindre slices. Partisjonsoppsettet mitt ser slik ut:

Partition	Status	Type		Start	End	Length	%
1			IFS: NTFS	0	2676	2677	18
2			Solaris		6501	6998	498	3
3			Linux Native	2677	6500	3824	26
4		Active	Solaris2	6999	9915	2917	20

Når jeg i Fdisk prøver å lage en ny partisjon, så får jeg beskejd om å måtte slette en eksisterende, og etter å ha lest litt rundt, så virker det som to solarispartisjoner er vansklig å gjennomføre, og ditto med å resize en ekstra partisjon. Men jeg har litt ledig plass på selve solarispartisjonen, for om jeg går inn på fdisk->partition, får jeg fram dette:

Total disk cylinders available 496+2

Part	Tag	Flag	Cylinders	Size		
0	root	wm	265-1309	8.01GB	
1	swap	wu	3-264		2.01GB
2	backup	wn	0-2914		22.33GB
3 unassigned	wm	0		0
4 unassigned	wm	1310-1440	1.00GB
5 unassigned	wm	0		0
6 unassigned	wm	0		0
7 	home	wm	2355-2914	4.29GB
8 	boot	wu	0-0		7.84MB
9 alternates	wu	1-2		15.69MB

Partisjon 4 dekket tidligere helt fram til sylinder 2354, men jeg resizet den til 1 GB. Så langt så godt. Jeg tenker dermed "jeg bruker del 3-6 og 10-15 som slices som jeg kan legge i en zfs-pool.". Håper min tankegang er sånn noenlunde forståelig. Så jeg skrider til verket og forsøker å modifisere part 3. Mitt håp er jo da at den kan ta fra cylinder 1441 og 1GB utover, men om når jeg skal velge start clinder, så er default-valget 0, og om jeg skriver 1441 får jeg følgende beskjed: "1441 is out of range". Og så langt har jeg kommet, jeg fårstår ikke helt hvorfor dette ikke fungerer.

 

AtW

Endret av ATWindsor
Lenke til kommentar
Videoannonse
Annonse

Kan nok ikke direkte svare deg, bruker selv Solaris, men bruker ZFS med hele disker.

 

En av grunnene til at ZFS kom var forenklet administrasjon, og en av tingene man kan være glad man slipper er nettopp oppsett av slices..

 

Det er godt mulig at problemet ditt bunner i at den ikke vil lage en ny slice "midt" i partisjonen, det enkleste ville nok være å installere på nytt, og kjøre alt oppsett av slices i installasjonen.

 

Eventuelt ville jeg vurdert å sette opp Solaris i en virtuell maskin. Der kan du emulere så mange disker du har lyst til, noe som gjør det litt mer fleksibelt, hvis formålet likevel kun er å teste/leke litt.

Lenke til kommentar

Man slipper oppsett av ZFS med slices såfremt diksene er like store ja, men hva skjer hvis ikke? Og det enkleste er sikkert å reinstllare. Men skal jeg bruke systemt til noe fornuftig må jeg skjønne hvordan man kan manipulere disker. Om diskverktøyet i solaris virkelig er så primitivt at det ikke klarer såpass enkle ting, så er jeg litt skuffet, hverken å resize en partisjon, eller å lage nye slices midt blant andre burde være noe teknisk problem slik jeg kan skjønne. Og om det er det, hvorfor i alle dager har solaris stablet om slicene slik at det er ledig rom "i midten" når jeg installerte?

 

AtW

Lenke til kommentar

Ja, som sagt bare gjetting fra min side. Det er helt sikkert mulig å gjøre det fra inni Solaris, men har ingen erfaring med det selv, siden jeg bare har operert med hele disker.

 

Kan ikke gi noe bedre tips enn å lese manualen (man format f.eks), evt. vente på at noen med mer slice-skills svarer. :)

 

ZFS bryr seg ikke nevneverdig om diskene er like store eller ikke, men du vil ikke få utnyttet de ekstra 10GB på f.eks en 50GB disk mirrored med en 40GB disk.

Lenke til kommentar
Ja, som sagt bare gjetting fra min side. Det er helt sikkert mulig å gjøre det fra inni Solaris, men har ingen erfaring med det selv, siden jeg bare har operert med hele disker.

 

Kan ikke gi noe bedre tips enn å lese manualen (man format f.eks), evt. vente på at noen med mer slice-skills svarer. :)

 

ZFS bryr seg ikke nevneverdig om diskene er like store eller ikke, men du vil ikke få utnyttet de ekstra 10GB på f.eks en 50GB disk mirrored med en 40GB disk.

 

Ja ikke sant, og slik er det antaklig med en raidz også (selv om det strengt tatt ikke er nødvendig i mine øyne), og da er det greit å ikke bare la resten gå til spille.

 

AtW

Lenke til kommentar

Heller ingen løsning på problemet ditt akkurat.. men interessant uansett.. testet nettopp en liten greie jeg har lest om, men aldri testet ut før.. nemlig å opprette en zpool på filer.

 

Testforløpet :

bash-3.2# mkdir test
bash-3.2# cd test
bash-3.2# mkfile 200m file1 file2 file3
bash-3.2# ls
file1  file2  file3
bash-3.2# zpool create testpool raidz /test/file1 /test/file2 /test/file3
bash-3.2# zpool list
NAME	   SIZE   USED  AVAIL	CAP  HEALTH  ALTROOT
tank	  2.27T   845G  1.44T	36%  ONLINE  -
testpool   584M   155K   584M	 0%  ONLINE  -
bash-3.2#

 

("tank" som ligger der er den opprinnelige zpool'en min)

Satser på at du skjønner tegninga.

 

Dette gir jo forsåvidt uendelig fleksibilitet i testing.. håper det kan være til nytte selv om jeg ikke kan hjelpe deg med det opprinnelige problemet..

Lenke til kommentar

Er enig i at det er merkelig hvis du ikke kan legge til en slice "midt inni", så jeg prøvde selv. Kort fortalt, så fungerte det for meg uten problem. Siden du har knota endel allerede, så legger jeg bare med loggen istedetfor å gå gjennom på detaljnivå.

 

 

partition> p
Current partition table (unnamed):
Total disk cylinders available: 13014 + 2 (reserved cylinders)

Part	  Tag	Flag	 Cylinders		 Size			Blocks
 0	   root	wm	 263 -  2221	   15.01GB	(1959/0/0)   31471335
 1	   swap	wu	   1 -   262		2.01GB	(262/0/0)	 4209030
 2	 backup	wm	   0 - 13013	   99.69GB	(13014/0/0) 209069910
 3 unassigned	wm	   0				0		 (0/0/0)			 0
 4 unassigned	wm	   0				0		 (0/0/0)			 0
 5 unassigned	wm	   0				0		 (0/0/0)			 0
 6 unassigned	wm	   0				0		 (0/0/0)			 0
 7	   home	wm	4181 - 13013	   67.66GB	(8833/0/0)  141902145
 8	   boot	wu	   0 -	 0		7.84MB	(1/0/0)		 16065
 9 unassigned	wm	   0				0		 (0/0/0)			 0

partition> 3
Part	  Tag	Flag	 Cylinders		 Size			Blocks
 3 unassigned	wm	   0				0		 (0/0/0)			 0

Enter partition id tag[unassigned]: 
Enter partition permission flags[wm]: 
Enter new starting cyl[0]: 2222
Enter partition size[0b, 0c, 2222e, 0.00mb, 0.00gb]: 1gb
partition> p
Current partition table (unnamed):
Total disk cylinders available: 13014 + 2 (reserved cylinders)

Part	  Tag	Flag	 Cylinders		 Size			Blocks
 0	   root	wm	 263 -  2221	   15.01GB	(1959/0/0)   31471335
 1	   swap	wu	   1 -   262		2.01GB	(262/0/0)	 4209030
 2	 backup	wm	   0 - 13013	   99.69GB	(13014/0/0) 209069910
 3 unassigned	wm	2222 -  2352		1.00GB	(131/0/0)	 2104515
 4 unassigned	wm	   0				0		 (0/0/0)			 0
 5 unassigned	wm	   0				0		 (0/0/0)			 0
 6 unassigned	wm	   0				0		 (0/0/0)			 0
 7	   home	wm	4181 - 13013	   67.66GB	(8833/0/0)  141902145
 8	   boot	wu	   0 -	 0		7.84MB	(1/0/0)		 16065
 9 unassigned	wm	   0				0		 (0/0/0)			 0

 

 

Etter dette kjørte jeg newfs /dev/dsk/c3t0d0s3 som da rapporterte at den formaterte ett 1GB filsystem. Til slutt den ultimate testen (i denne konteksten)

root@xerxes ~# zpool create -f yarr /dev/dsk/c3t0d0s3
root@xerxes ~# zpool list
NAME	  SIZE   USED  AVAIL	CAP  HEALTH  ALTROOT
storage   340G   105G   235G	30%  ONLINE  -
yarr	 1016M	94K  1016M	 0%  ONLINE  -

Lenke til kommentar

Jeg resizet min "unnassigned"-slice til å være fra 0-0, nå kan jeg ikke få den tilbake, (den som tidligere begynte på 2310, og var 1 GB stor). Men jeg tror jeg er inne på noe når det gjelder det med "total disk cylinders available" for jeg kan starte disken på cylinfer 495, men ikke 496 (eller høyere) så det virker som den av en eller annen grunn tror at kun de første 496 første er tilgjengelig, noen som har noen ide om hva det kan komme av?

 

AtW

Lenke til kommentar

Eneste disken jeg har partisjonert i Solaris er systemdisken. Alle lagringsdiskene (samme størrelse) ligger nå i et ZFS storage pool, og ingen partisjonering/formatering er nødvendig. Man trenger heller ikke å røre /etc/vfstab (tilsvarer /etc/fstab i GNU/Linux og BSD), poolet mounter automatisk ved boot når det er initialisert. Husk at hvis du vil "partisjonere" kan du opprette separate filsystemer inni poolet med kommandoen

# zfs

Det er om mulig enda enklere enn å opprette selve poolet. Og med et filsystem opprettet med 'zfs' kan man enkelt sette kvote på filsystemet hvor mye plass filsystemet totalt kan ta. Også dette gjøres med 'zfs'. Les manualen for hvordan du gjør det. ZFS er som sagt et filsystem som bryter totalt med tradisjonelle oppsett av et filsystem.

 

Når det kommer til deling av mapper mot GNU/Linux og BSD-maskiner, trolig også OS X vil enkleste alternativ være å bruke NFS. I motsetning til det jeg har erfart i GNU/Linux og BSD om NFS er NFS såre enkelt i Solaris 10. Man setter deling på en mappe helt enkelt med kommandoen

# share

Les manualen for hvordan du bruker denne kommandoen. Og for å gjøre delingen permanent limer du helt enkelt kommandoen du skriver inn i /etc/dfs/dfstab. Da har du opprettet en NFS-share, og du mounter denne på en Linux/BSD klient på vanlig måte.

 

Edit:

Hvis du vil endre mount-point for et filsystem opprettet med 'zfs' er det også fullt mulig, også dette gjøres via 'zfs'. Operativsystemet vil da sørge for at dette filsystemet automatisk mounter på den plasseringen du selv har angitt, uten å røre så mye som en config-fil.

Endret av stigfjel
Lenke til kommentar
Når det kommer til deling av mapper mot GNU/Linux og BSD-maskiner, trolig også OS X vil enkleste alternativ være å bruke NFS. I motsetning til det jeg har erfart i GNU/Linux og BSD om NFS er NFS såre enkelt i Solaris 10. Man setter deling på en mappe helt enkelt med kommandoen
# share

Les manualen for hvordan du bruker denne kommandoen. Og for å gjøre delingen permanent limer du helt enkelt kommandoen du skriver inn i /etc/dfs/dfstab. Da har du opprettet en NFS-share, og du mounter denne på en Linux/BSD klient på vanlig måte.

 

Så tungvindt da gitt! :)

ZFS ordner jo den biffen også.

 

zfs sharenfs=on pool/filsystemnavn

;)

Lenke til kommentar
Så tungvindt da gitt! :)

ZFS ordner jo den biffen også.

 

zfs sharenfs=on pool/filsystemnavn

;)

Stemmer, det. Selv prøvde jeg med 'zfs share', men fikk beskjed om å bruke 'share'. Hadde glemt paramteteren sharenfs=on med 'zfs'. Det gjør ting selvfølgelig enda enklere. Solaris 10, ZFS og NFS sammen er pent!!! (samba er ikke så verst det heller, særlig når man bruker SWAT til å sette det opp...)

Lenke til kommentar
Eneste disken jeg har partisjonert i Solaris er systemdisken. Alle lagringsdiskene (samme størrelse) ligger nå i et ZFS storage pool, og ingen partisjonering/formatering er nødvendig. Man trenger heller ikke å røre /etc/vfstab (tilsvarer /etc/fstab i GNU/Linux og BSD), poolet mounter automatisk ved boot når det er initialisert. Husk at hvis du vil "partisjonere" kan du opprette separate filsystemer inni poolet med kommandoen
# zfs

Det er om mulig enda enklere enn å opprette selve poolet. Og med et filsystem opprettet med 'zfs' kan man enkelt sette kvote på filsystemet hvor mye plass filsystemet totalt kan ta. Også dette gjøres med 'zfs'. Les manualen for hvordan du gjør det. ZFS er som sagt et filsystem som bryter totalt med tradisjonelle oppsett av et filsystem.

 

Når det kommer til deling av mapper mot GNU/Linux og BSD-maskiner, trolig også OS X vil enkleste alternativ være å bruke NFS. I motsetning til det jeg har erfart i GNU/Linux og BSD om NFS er NFS såre enkelt i Solaris 10. Man setter deling på en mappe helt enkelt med kommandoen

# share

Les manualen for hvordan du bruker denne kommandoen. Og for å gjøre delingen permanent limer du helt enkelt kommandoen du skriver inn i /etc/dfs/dfstab. Da har du opprettet en NFS-share, og du mounter denne på en Linux/BSD klient på vanlig måte.

 

Edit:

Hvis du vil endre mount-point for et filsystem opprettet med 'zfs' er det også fullt mulig, også dette gjøres via 'zfs'. Operativsystemet vil da sørge for at dette filsystemet automatisk mounter på den plasseringen du selv har angitt, uten å røre så mye som en config-fil.

 

Joda, takk for tipset, jeg har jo lest endel om ZFS, og det virker fint på pairet ihvertfall, derfor jeg skal teste det. Men all denne velstanden hjelper meg ikke så mye før jeg faktisk for satt opp maskinen så jeg kan teste zfs på skikkelig vis ;)

 

AtW

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...