Gå til innhold

Når kommer det perfekte hovedkort?


War

Anbefalte innlegg

Et skjermkort kan dra helt opp i en 180W, mens et helt hovedkort bare drar brøkdelen av dette. Varmeutviklingen ville for det første blitt et enormt problem, men hovedkortene ville også blitt langt dyrere. Jeg ser heller ikke de helt store praktiske forbedringene, da det 1: Ikke går ann å oppgradere skjermkortet (du må kjøpe nytt hovedkort og hele pakka hver gang)

2. Samme gjelder hvis det blir defekt, eller man har lyst å gjøre modifiseringer så blir dette kraftig forverret.

3. Hovedkort blir langt dyrere.

4. Hvor skal du ha alle skjermutgangene? Blir veldig lite plass til flere DVI utganger + TV-Out / HDMI på I/O panelet.

 

Fordelene? Tja, mindre plassforbruk kanskje? (husk at du må ha en enorm kjøler i tillegg)

 

Samme gjelder vel egentlig flere integrerte Sata-innganger. Mer varmeutvikling, dyrere kostnader og ubrukelig i de fleste tilfeller.

Spesielt med tanke på at det er såpass enkelt å skafe seg ekspansjonskort.

 

Nvidia kunne nok fint ha laget chipsett med integrerte skjermkortløsninger som yter like bra som deres dedikerte. Men tror ikke de hadde gjort seg så tjent med det. Da er det bedre med Hybrid SLI.

 

 

 

- Et skjermkort uten minne og prosessor drar ikke 180W.

- Mere varme? Hvorfor det? Dagens 45nm CPU's er mer effektive enn GPU's på 55 og 65Nm Kjølebehovet ville bli mindre.

 

 

1 - Når du vil oppgradere skjermdelen, kjøper du ny prosessor og raskere/mer minne.

2 - Tvert i mot, hvis kortet går dukken, tar det ikke med seg minnet og prosessor i grava.

Det ville gi like mye eller mer rom for tweaks. Dette er vel langt på vei BIOS-avhengig.

3 - Hvorfor dyrere? Selve hovedkortene ble kanskje litt dyrere, men så slapp du unna med billigere minnebrikker og allt fra billige til dyre CPU's, samt hele skjermkort som i dag koster mye mer enn et hovedkort.

4 - DVI og HDMI-kontaktene kan kunne stå opprest og komme ut av PCI-hullene som i dag.

 

 

Jeg vet jo ikke, men jeg ville tro en overklokket 9450 og et par giga med rask RAM ville kunne hamle opp med SLI/CF

 

Videre...

 

En "PCI-E" der man kunne sette inn ulike kontrollerkort. Allt fra helt enkle single SATA til 20xSATA med alle RAID-varianter

 

 

Liten On-board SSD til OS.

 

e

Endret av Espen W
Lenke til kommentar
Videoannonse
Annonse

Haha, latterlig tråd må jeg si, og War du lager en ny diskusjon for vert svar du skriver virker det som, og dette er logikk som en normal person tar, feks 20 stk S-ATA på et HK, vel har lest om 8-10 stk men HALLO!! Hva skal en normal person med det? Som de skriver, og som du kunne fort ha funnet ut er at du kan bare Kjøpe kontroller med et stort antal sata om du trenger.

 

PS er bare og kjøpe noen få 1-2TB disker..

 

----------------------

Venligst hold deg til retningslinjene.

Du burde heller ikke stille flere en et spørsmål per tråd.

Brud på regl...

#3 Forsøk å beholde temaet i tråden.

 

Dette er feks ikke og holde seg til de.

Hva er egentlig forskjellen på cpu og gpu teknologien?

Kunne ikke nvidia laget cpuer og intel gpuer?

 

 

Mvh

Jarl.

Lenke til kommentar

Gjør det noe à klagefant.

Ser i flere HK tester at det kommer ønsker etter annen plassering og mer av ditt og datt.

Skrev det pga jeg ikke fikk plass til alt på hovedkortet.

Selv om man kan kjøpe store disker kommer man ikke uten om 1 rask til os, 1 rask til spill osv.

 

Hvorfor finnes det ikke en eneste produsent som lager et hovedkort med 20 sata porter

Det betyr ikke at jeg vil ha det og kunne ha søkt etter utvidelseskort, men hvorfor som en grunn.

 

Det må gå ann med diskusjon rundt det som blir skrevet.

 

Et skjermkort uten minne og prosessor drar ikke 180W.

Hva mener du det drar?

 

3SLI med 8800 og en vanlig quad cpu dro nesten 900w delt på 3 skjermkort og cpu + resten.

Endret av War
Lenke til kommentar

Espen W, du er klar over at man brukte CPUen til å rendre grafikk før skjermkortet kom?

Grunnen til at vi fikk en GPU (grafikkprosessor) og grafikkortene / "3D skjermkortene" kom, var fordi en prosessor er altfor svak til å kunne håndtere slikt. En CPU er en "general purpose" prosessor, laget for å kunne håndtere det aller meste, mens en GPU er langt mer spesialisert og yter horribelt mye mer enn noen CPU kan skryte av i 3D applikasjoner.

 

Med andre ord ville dette vært et 10-15år tilbakeslag.

 

- Et skjermkort uten minne og prosessor drar ikke 180W.

? Ikke sikker hva du prøver å påstå, men du har ikke noe skjermkort uten en prosessor eller minne....

 

1 - Når du vil oppgradere skjermdelen, kjøper du ny prosessor og raskere/mer minne.

Du er klar over at dagens systemminne er MYE tregere og dårligere enn det vi finner på skjermkort? Systembusen er også en del dårligere? Du har skjermkort som tar i bruk systemminnet, og det er de dårligste av de dårligste skjermkortene, som har en såpass svak grafikkprosessor at minnet ikke blir en stor flaskehals.

 

3 - Hvorfor dyrere? Selve hovedkortene ble kanskje litt dyrere, men så slapp du unna med billigere minnebrikker og allt fra billige til dyre CPU's, samt hele skjermkort som i dag koster mye mer enn et hovedkort.

Skal du ha deg et nytt hovedkort (ved f. eks sokkelbytte) så slipper du i dag å kjøpe et kjempedyrt integrert skjermkort i samme slengen.

 

Jeg vet jo ikke, men jeg ville tro en overklokket 9450 og et par giga med rask RAM ville kunne hamle opp med SLI/CF

:!: Nei, så absolutt ikke.

Et 9800GX2 hadde nok gruset en Q9450 så det svunget langt inn i neste årtusen. En CPU duger ikke til så spesialiserte oppgaver som 3D-rendering. F. eks så har et 9800GX2 totalt 256 "kjerner" som det kan ta i bruk, og er laget nøpyaktig for 3D-rendering. (samt en 3 ganger flere transistorer)

 

Og hvor får du den raske RAM'en fra? GTX280 vil få minnenåndbredde som operer på hele 140GB/s, mens det meste dagens RAM har mulighet til er 16GB/s. (DDR3 på 2GHz)

Vanlig DDR2 minne har derimot en 6,4GB/s.

Endret av andrull
Lenke til kommentar
GPUs are designed to do complex, huge matrix and vector calculations. These are heavily employed during 3D rendering, so it's kind of like comparing a Ferrari with a VW Beetle.

 

Even though the VW can be used for more general purposes, there is no comparison in terms of speed.

Lenke til kommentar

Jeg skjønner.

Som sagt, jeg stiller spørsmål og takker for svar.

 

GPUene er mer spesialisert i sine oppgaver, og RAM/Prosessorene som i dag brukes på hovedkort ikke ville egne seg til grafikk.

 

Har GPUene mer ren datakraft pr W, eller er dette utelukkende et spørsmål om spesialisering av oppgavene?

 

 

Det ville fremdeles være mulig å ha GPU-prosessor og GPU-minne i løse sokler slik at de kunne byttes/oppgraderes etter behov. Disse soklene og kretsene kunne like godt sittet på hovedkortet som på et løst kort.

 

Mitt svar til WAR om at et skjermkort uten minne og prosessor ikke trekker 180W, var for å illustrere at det er selve skjerm-minnet og grafikkprosessoren som trekker strøm.

Det blir ikke mer eller mindre effektbehov ettersom disse komponentene sitter på et eget skjermkort eller direkte på hovedkortet i egne sokler.

 

Jeg har vel inntrykk av at folk bytter ut skjermkort like ofte eller oftere enn de bytter hovedkort.

 

 

 

 

Spørsmål:

 

- Hvorfor brukes ikke raske minnchipper på vanlige RAM-brikker?

 

 

Espen

Endret av Espen W
Lenke til kommentar
- Hvorfor brukes ikke raske minnchipper på vanlige RAM-brikker?

Husk på at minnebrikkene på en GPU ikke har like stor kapasitet, og det blir ikke så veldig mange GB du får ut av det. I tillegg så tipper jeg systemminnet blir en del begrenset av FSB'en. + at det er svindyrt med så raskte minnebrikker.

Dagens skjermkort har også langt større systembus. Hvorfor kan jeg ikke svare så veldig bra på, men ligger nok begrensninger i minnekontrolleren.

 

Det ville fremdeles være mulig å ha GPU-prosessor og GPU-minne i løse sokler slik at de kunne byttes/oppgraderes etter behov. Disse soklene og kretsene kunne like godt sittet på hovedkortet som på et løst kort.

Joda, men nå er det også langt enklere om de sitter på kort istedenfor sokkler. Med sokkler så trenger man montere kjøler m/ kjølepasta osv.. noe som er langt mindre praktisk enn kort. Samt at det gir dårlgiere kompatibilitet (da du kan bruke forskjellig minne og GPU) og det er også langt større sjangse å få flaskehalser på en av delene.

 

Har GPUene mer ren datakraft pr W, eller er dette utelukkende et spørsmål om spesialisering av oppgavene?

Tja, tror nok det ligger mer ren datakraft i en GPU. (er ivhertfall langt flere "Flops", selv om det er noe upresist begrep)

Men det meste ligger nok i spesialisering ja.

Lenke til kommentar

Er litt sånn etter oppgavene det der.

Har vært en god del diskutert på Folding@home forumet etter at GPU klientene kom.

Beste beskrivelsen jeg kom fra til er at CPU'en fungerer som en gammel men stor lastebil, kan ta mye om gangen men er treg.

GPU er derimot som en Top Fuel dragster, kan ta mindre last men er raskere til avlevering.

Husker ikke helt spesifikt i detaljer hva som var forskjellen rent logisk men det var noe med at GPU'en måtte gjenta en viss kalkulering for hver operasjon den skulle gjøre mens CPU'en kun gjorde det en gang.

 

Men ellers så har andrull helt rett angående optimering og spesialisering, er kun nå vi har begynt å få Generiske GPU'er som kan gjøre litt andre operasjoner enn bare 3D.

Lenke til kommentar

Fordelen gpu har er som mange nevner spesielisering.

 

Bare for å ta et illustert eksempel, dersom man skal lage en elektronisk chip som kan skal utføre bare en viss type beregninger kan man prioritere disse. Hvis man f.eks kunne bevise at den gitte matematiske operasjonen aldri ville ha behov for subtraksjon kunne man fjernet denne delen helt fra chippen. Noe som gir enklere oppbygging og enda mer plass til komponenter som gjør akkurat det som er målet med oppgaven.

 

CPU derimot må kunne gjøre alt mulig, den er ikke speisialisert til noen oppgaver. At cpu er så generalisert er også grunnen til at man kan tjene mye ytelse på egne prosessorer til bilde, lyd, digital signalbehandling osv osv.

Lenke til kommentar

Tja, det er ikke hvoedkortene som er dårlige på den veien, og de prsser stadig ut flere porter og slots. (det er de som lager ekspansjonskort og eksterne komponenter som må omstille seg først)

 

Obs: De to øverste portene er for lengst fjernet på de fleste nyere hovedkort. Faktisk så har PS/2 utgangen for mus også forsvunnet på Asus sine nyere hovedkort. IDE-kontakten har misket til kun en, og vi finner vel snart ikke mer av Dsikett. (krever dog at BIOS oppdatering blir bedre og lettere)

Lenke til kommentar
Gjest Slettet+6132
Kunne ha fjernet IDE,CNR,Parallel port ,Com port osv.

Hva skal man med PIC idag som man ikke finner picx1 for? Lydkortutvalget? Kontrollerkort?

 

Den nederste porten der ble en kvitt for mange år siden, har ikke sett den siden tidlig P4 og socket A..

 

Dessuten så vil det perfekte hovedkortet aldri eksistere, en kan lage det perfekte hovedkortet for en person, men da vil det garantert være personer som det hovedkortet vil være langt fra perferkt.

 

Personlig kunne jeg tenkt meg hovedkort med 10Gbit fiber ethernet, 20+ s-ata porter, 4+ SAS porter, god layout og mange småting jeg ikke kommer på nå...

Lenke til kommentar

Det perfektet hovedkortet burde i hverfal ha 8 til 10 S-ata porter.

Hadde også vært greit om de hadde kvitti seg med PCI portene, men kunne vel ha hatt en PCI-X port for de litt spessiele raidkontrollerene og det PCI kortet du bare ikke klarer å bytte ut. Floppy kunne man vel også ha kastet, sammen med paralell og seriellportene.

Men noe av det beste som kunne vært på et hovedkort hadde vært om det hadde intergrert grafikk som kunne ta seg av rendering når det ikke trektes mye kraft, omtrent som hybrid power til Nvidia, men at det fungerte uansett grafikkbrikke.

 

For plass til alle kontaktene som skal på hovedkortet kunne man kansje bruke undersiden? går vell med hverfall en viklet S-ata kontakt i høyden undet hk, hvis ikke to. Der kunne vi også slengt floppy hvis det på død og liv må være med.

 

Det ville fremdeles være mulig å ha GPU-prosessor og GPU-minne i løse sokler slik at de kunne byttes/oppgraderes etter behov. Disse soklene og kretsene kunne like godt sittet på hovedkortet som på et løst kort.

 

- Hvorfor brukes ikke raske minnchipper på vanlige RAM-brikker?

 

De to henger litt sammen, Hvis du sjekker de nyeste grafikkortene vil du finne ut at de bruker noe kaldt gDDR. G enn står for Grafikk. Dette fordi den type minne har adre spesifikasjoner og toleranser enn det tilsvarende DDR standarden. Når du lodder minnet rett på kortet og det sitter nå nærme som det gjør på skermkortet er det ikke like lett å ødelegge signalet til og fra minnet som når det må inn i en fysisk kontakt og sitter så mye lengere (2 til 3 ganger så langt) fra kontroller kretsen.

Lenke til kommentar
Gjest Slettet+6132
Prisguiden finner kun tre lydkort med PCIe, så jeg tror ikke det er på tide å pensjonere PCI-slotten helt enda.
Kan hende lydkort produsentene ville få fingern ut, hvis PCI slottene forsvant helt?

 

Et annet argument for og ikke kvitte seg med PCI porten helt enda er bakoverkompabilitet med eldre produkter, det finnes veldig mange spesialiserte produkter en kun får til PCI, og der det og flytte det over på PCI-e er vanskelig og lite forsvarlig.

Lenke til kommentar

For å ikke nevne TV Kort, har gravd en del og det eneste jeg fant av TV kort på PCI-e var skrap sammenlignet med det man kunne få til PCI-e her til lands.

Jeg er også en av de som savner en ekstra IDE port, jeg har ikke dumpet IDE harddiskene enda og det kommer jeg ikke til å gjøre før de tar kvelden heller.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...