Gå til innhold

Dual PCIe-grafikk for Intel-plattformen


Anbefalte innlegg

Videoannonse
Annonse

Doble PCIe x16 spor er ikke noe nytt for Intel-plattormen, kun for Pentium. Nvidia benytett blant annet et Supermicro hovedkort basert på E7525 brikkesettet under lanseringen av SLI i fjor.

 

Ifølge Tom`s Hardware er det 16 PCIe-lanes til det første x16-sporet (fra MCH) og 1 PCIe-lanes til det andre x16-sporet (fra ICH).

Lenke til kommentar

Spennende. Men de sier ingenting om hvilke kort som støttes, om de må være to like kort, om man trenger noen bro osv. Uten det vet vi ikke om denne løsningen er bedre enn de andre.

 

Derimot skal Dual Graphic Link ha en annen stor fordel, nemlig mulighetene for å bruke opptil fire skjermer i ett oppsett.

Tja, de sier heller ikke noe om hvorvidt du kan ha "SLI" funksjonalitet og 4 skjermer samtidig, eller om du må velg mellom det ene eller andre modus. Tipper det siste, og i så fall er det ikke noe annet en det de andre har også...?

 

Jeg gleder meg til alle løsningene er på markedet og noen setter seg ned å gjøre en systematisk test av fordeler og ulemper og ytelse!

Geir :)

Lenke til kommentar
Tja, de sier heller ikke noe om hvorvidt du kan ha "SLI" funksjonalitet og 4 skjermer samtidig, eller om du må velg mellom det ene eller andre modus.

Ut fra all tilgjengelig informasjon om hvordna SLI virker så er jo svarene gitt av seg selv. Og det du skriver her er jo bare fantasi tanker.

 

SLI teknologien er å pipe 3D kraften av to skjermkort inn i et skjermbilde. skal du ha 4 skjermer med SLI på alle må du ha 8 skjermkort.

 

Det igjen tilsier kjører du 2 skjermkort med 4 skjermer ut av det skjermkortet så har du overhode ingen SLI på dem. Du har bare det som står der, 4 skjermer ut av 2 skjermkort. Et stk veldig bredt windows skrivebord altså.

 

Det som er interesant er å vite hvordan Direct X takler dette i spill. Har man 4 skjermer, vil spill bare opptre i en skjerm? Eller vil det opptre på skjerm 1 og 3 fordi 2 og 4 er sekundær skjermer. Vil spillet bli klonet til skjerm nr 2, eller vil man få en utvidet spillområde? Her er det mye driver utvikling som må til.

 

AKIRA

Lenke til kommentar
Tja, de sier heller ikke noe om hvorvidt du kan ha "SLI" funksjonalitet og 4 skjermer samtidig, eller om du må velg mellom det ene eller andre modus.

Ut fra all tilgjengelig informasjon om hvordna SLI virker så er jo svarene gitt av seg selv. Og det du skriver her er jo bare fantasi tanker. Snip...

Nå var det vel ikke jeg som sa at det var mulig. Jeg er enig med deg. :) Det var en kommentar til det punktet jeg siterte fra artikkelen som sa at muligheten for 4 skjermer var en stor fordel i GigaBytes løsning. Hadde du sitert den neste setningen min også, så hadde det vært åpenbart at vi er enige:

 

Tja, de sier heller ikke noe om hvorvidt du kan ha "SLI" funksjonalitet og 4 skjermer samtidig, eller om du må velg mellom det ene eller andre modus. Tipper det siste, og i så fall er det ikke noe annet en det de andre har også...?

Den eneste testen av SLI jeg har lest som testet spill sa at de to kortene ikke kjenner hverandre i et slikt oppsett, og at du ikke får skjermbilde fra spillet på tvers av kortene. Men jeg husker ikke hvor det var i farten, så jeg har ingen link.

 

Geir :)

 

Edit: Presisering.

Endret av tom waits for alice
Lenke til kommentar
Ifølge Tom`s Hardware er det 16 PCIe-lanes til det første x16-sporet (fra MCH) og 1 PCIe-lanes til det andre x16-sporet (fra ICH).

Takk for linken!

The first x16 connector is routed to the Northbridge, while the second one merges all four x1 PCIe ports of the Southbridge into a physical x16 connector.

Det høres ut som den andre sporet er x4 da...

 

Geir :)

Lenke til kommentar

"Derimot skal Dual Graphic Link ha en annen stor fordel, nemlig mulighetene for å bruke opptil fire skjermer i ett oppsett".

 

En fordel ovenfor SLI? Hvis man kjører i non-SLI mode så støtter 2stk PCIe

kort med nVidia chip 4 skjermer. Men nå er det også avhengig av selve spillene

om disse støtter 2 eller flere skjermer også, ikke kun hardware messig.

 

Jedi Knight - Outcast såvidt jeg vet støtter 2 skjermer :p

Lenke til kommentar
Den eneste testen av SLI jeg har lest som testet spill sa at de to kortene ikke kjenner hverandre i et slikt oppsett, og at du ikke får skjermbilde fra spillet på tvers av kortene. Men jeg husker ikke hvor det var i farten, så jeg har ingen link.

Tom's Hardware sier noe om det her, så det støtter den andre artikkelen jeg hadde lest:

A span mode merging all three displays into a single big screen to run programs like Matrox' Surround Gaming is not possible with NVIDIA either however, not even with a second GeForce 6800 Ultra. Span mode is limited to each card individually - too bad!

 

Geir :)

Lenke til kommentar
Det høres ut som den andre sporet er x4 da...

Ja, Tom`s Hardware skriver x4, men det kan umulig være x4 når det allerede er et x1 spor ved der. Teoretisk kan det derfor være maks x3, men jeg er litt usikker på om PCIe sporene fra ICH er fleksible nok til å kunfigurers både som x2, og x3, i tillegg til x1 og x4 (som er mulig).

 

PCIe sporene fra MCH er f.eks. ikke fleksible nok til å splittes opp etter ønske.

Lenke til kommentar
Det høres ut som den andre sporet er x4 da...

Ja, Tom`s Hardware skriver x4, men det kan umulig være x4 når det allerede er et x1 spor ved der. Teoretisk kan det derfor være maks x3, men jeg er litt usikker på om PCIe sporene fra ICH er fleksible nok til å kunfigurers både som x2, og x3, i tillegg til x1 og x4 (som er mulig).

 

PCIe sporene fra MCH er f.eks. ikke fleksible nok til å splittes opp etter ønske.

Litt usikker på hva du mener med at det "allerede er et x1 spor ved der"...?

 

As we already said, Gigabyte managed to merge all the PCIe lanes located in Intel's ICH6 chip into one x4 port, operating the secondary graphics card over the Southbridge. There is a patent pending to protect Gigabyte's technique.

 

PCIe kan konfigureres som x2, i følge standarden, men det er ingen som bruker det til noe ennå...? x3 skal ikke være mulig.

 

Siden de har søkt om patent på teknikken, er det neppe noe vits i å spørre hvordan de får det til. ;)

 

Geir :)

Lenke til kommentar

tom waits for alice:

 

Det er 3 PCIe spor på hovedkortet fra Gigabyte:

1 PCIe x16 fra MCH

1 PCIe x? fra ICH

1 PCIe x1 far ICH

 

ICH har 4 PCIe lanes totalt. 4 lanes minus 1 lane til PCIe x1-sporet blir 3 lanes. Altså 3 ledige lanes. Det andre PCIe x16 sporet kan altså ha maksimalt 3 lanes eller PCIe x3.

 

Spørsmålet er da hvor mange lanes Gigabyte har benyttet seg av til det andre PCIe x16-sporet. x1, x2 eller x3? Og er lanene fra Intels ICH6 fleksible nok til å bli konfiguret akkurat på den måten en ønsker? Kan f.eks. 2 lanes slås sammen til x2? Lanene fra Intels MCH er i hverfall ikke fleksible nok til å bli delt opp i 16 x1 eller 2 x8.

Lenke til kommentar

Kan det bety at x1 sporet ikke kommer fra ICH? Jeg vet at når jeg leste om Vias DualGFX, som også har 16+4 til grafikk-kortene, så sa de noe sånt som at de skulle "hente ut et par ekstra lanes fra Southbridge", uten å spesifisere det noe nærmere. Ikke spør meg hva det betyr, jeg er på dypt vann allerede. Og ikke vet jeg om problemstillingen er anderledes på AMD baserte systemer... :blush:

 

Geir :)

Lenke til kommentar
Kan det bety at x1 sporet ikke kommer fra ICH?

I serien "Geir gjetter"...: Hva om x1 sporet rett og slett er disablet når man bruker x4 grafikksporet? Det vil si at det er et enten eller...

 

Ellers prøvde jeg å finne en indikasjon på at man rett og slett kunne splitte båndbredden til en kanal over to spor. Men uten å lykkes så langt.

 

Beklager at jeg kaster bort "båndbredde" her med å spekulere.

 

Geir :)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...