Gå til innhold

VIA DualGFX støtter ATI-kort


Anbefalte innlegg

Videoannonse
Annonse

Sikkert greit for dem som vil ha via ,personelig styrer jeg langt unna disse .

 

Det positive her var derimot dette :

 

Nå viser det seg imidlertid at VIAs løsning har en stor fordel. DualGFX støtter nemlig doble grafikkort uten bruk av en egen SLI-bro, slik NVIDIA krever for sin SLI-løsning. Dermed kan man kjøre to kort i tospann, hvor selve sammenkoplingen mellom kortene skjer på drivernivå.
Endret av Snekker`n
Lenke til kommentar

Bildet virker litt juks. Ser ut som et ATI-kort i en vanlig PCI-e 16x-port og et ATI-kort som bare holdes med en hånd på baksiden av det første kortet.

 

Men HVIS dette stemmer så synes jeg det er glimrende at Nvidia ikke får være monopolist på SLI-løsninger.

 

Forøvrig stusset jeg litt på dette:

Det gjenstår også å se om det får noen konsekvenser for ytelsen at sammenkoplingen av kortene utelukkende skjer på drivernivå.

Er det ikke akkurat slik Nvidia-kortene også kobles sammen? Altså med drivere.. Den SLI-broa kan jo være helt andre saker enn en kobling for overføring av grafiske data mellom de to kortene.

Lenke til kommentar

Virker som en bedre løsning enn Nvidia sin, siden koblingen mellom kortene skjer på drivernivå så slepper også kortene å være helt identiske. Nvidia sin løsning er jo avhengig av to helt identiske kort der kortene ikke bare må være samme modell, men også samme versjon. Dette gir en fordel om man kjøper ett kort i første omgang for senere å oppgradere med enda et kort. Man vet jo aldri når en skjermprodusent gir ut en ny versjon av samme kortmodell. TomsHardware kom over dette problemet da de skulle kjøre SLI med to nV 6800U.

Lenke til kommentar

hva er det som er så gale med VIA baserte hovedkort da? har hatt flere selv og jeg kan ikke si jeg har hatt noen problemer relatert til via brikkesettetene.

 

selv syns jeg DualGFX greiene til VIA ser ganske spennende ut og viss det stemmer at man kan bruke forskjellige kort i oppsettet så har jeg en liten følelse på at VIA kan ha skutt gullfuglen :)

Lenke til kommentar
hva er det som er så gale med VIA baserte hovedkort da? har hatt flere selv og jeg kan ikke si jeg har hatt noen problemer relatert til via brikkesettetene.

 

selv syns jeg DualGFX greiene til VIA ser ganske spennende ut og viss det stemmer at man kan bruke forskjellige kort i oppsettet så har jeg en liten følelse på at VIA kan ha skutt gullfuglen :)

vel via baserte hk er mer ømfintlige ,mere kresne på ram osv enn et nForce3 kort , det er det liten tvil om . :xmas:

Lenke til kommentar

Dette høres jo ut som en drømmeløsning. Men all erfaring tilsier jo at slike løsninger ikke helt lever opp til forhåpningene når de dukker opp.

Men jeg håper jeg tar feil for det høres jo veldig spennende å slippe å bytte ut sitt gamle kort, men istedenfor bare legge til et nytt.

Lenke til kommentar

Takk for linken. Det sto det faktisk en god del oppklarende. Det gikk også opp et lite lys for meg angåendee virkemåten til Nvidias SLI:

 

Når man spiller på 1 skjerm så må jo all GPU-kraften på begge skjermkortene havne på samme skjermutgang. Hvordan sendes så skjermutgang-signalet over til neste kort? Via PCI-e ? Nope, det sendes via SLI-broa. Broa er altså det samme som skjermutgangen på det ene kortet, men at det kobles over til det andre kortet før det sendes på den skjermutgangen.

 

Hvis noen husker tilbake til gode gamle 3dfx Voodoo2 så måtte man koble sammen kortene her også, men da med en egen kabel på utsiden av kabinettet. Signalet ble sendt fra det første Voodoo-kortet videre til neste voodoo-kort og mikset sammen med det andre halvferdige bildet der før det ble sendt til skjermutgangen.

 

Siden SLI-broa er det samme som skjermutgangen på det ene kortet så må jo utgangene på dette kortet blokkeres. Derfor blir disse sort når man slår på SLI-modus i driveren.

 

Når kortene kjører med i SLI-modus slått av i driveren så er det logisk at alle skjermutgangene kan bli brukt. Altså: i 2D, 4 skjermer: i 3D enten 2 skjermer eller 4 skjermer avhengig av om man har SLI-modus slått på eller ikke.

 

I SLI-modus med 1 skjerm så rendrer det ene kortet f.eks øvre halvdel av bildet mens det andre rendrer den nedre halvdelen. Signalene fra de to kortene mikses sammen på det ene kortet i digital form før det går til RAMDAC'en og gjør det om til analogt (i tilfelle man bruker VGA-kontakten og ikke DVI) Synkronisering og bestemmelse av hvilket kort som skal rendre hvilken halvdel skjer nok også via SLI-broa.

 

For ATI sin del så kan det virke som mangelen på SLI-kontakt gjør at man må koble kortene sammen på samme måte som Voodoo2-kortene. Altså med kabel på baksiden. Det kan jo også forklare grunnen til at vi ser 3 eller 4 skjermkabler på bildet. Hvis dette stemmer så kan man altså ikke bruke 4 skjermer på ATI-kortene heller når de står i SLI-modus. Og når man skal slå av SLI-modus og heller bruke 4 skjermer så må man fysisk koble ut kabelen og sette inn de 2 resterende skjerm-kablene. Altså litt mer uelegant enn Nvidia's interne bro.

Lenke til kommentar

Hmmm... Prøver å finne dokumentasjon på dette. Men så langt tror jeg faktisk at VIA's løsning (dette er VIA sin teknologi for ATI kort, ikke ATI sin egen kommende(?) SLI løsning) kommuniserer via PCI Express. Og at den støtter 4 skjermer, det mener jeg at jeg så dokumentasjon på et eller annet sted.

 

PCI Express har dedikerte kanaler opp og ned, så det er ikke mye å tape på å kommunisere den veien. En x16 løsning har altså 4x16 ledere, et par opp og ett par ned for hver kanal. (AKA "lane".)

 

Siden Northbridge bare støtter 20 lanes, og den ene er x16, er det bare 4 igjen til den/de andre. VIA har valgt å dedikere alle disse 4 til den andre grafikkslotten. (Dermed er det ingen igjen til annet bruk. Istedet skal de visst legge et par x1 slotter på Southbridge.)

 

Dermed kan de to grafikk-kortene bare kommunisere over 4 lanes. I den første implementasjonen som måtte være symmetrisk betydde det at begge var begrenset til 4 lanes. Mens i denne nye utgaven som kan være asymmetrisk kan "hovedkortet" være 16 mens "slaven" er 4. Per idag er ikke det noen vesentlig flaskehals, men det kan det jo bli. På den annen side kommer antagelig PCIe2 innen da, og øker farten på hver kanal.

 

Så hvorfor bruker nVidia en bro? EDIT: Det følgende var visst tull. så jeg har fjernet det. (Jeg hadde en teori omm at første kortet fikk 2x8 og sendte den ene åtteren videre til det andre, men det var ikke riktig.)

 

EDIT 2: Artikkel på Tom's Hardware sier at SLI virker uten broen, men at du får bedre ytelse med. (Link)

 

EDIT 3: En siste gjetning før jeg gir meg for natten: Jeg tror at om du ikke bruker broen får du en 50/50 split av bildet til hvert kort. Med broen kan lasten fordeles, hvis det skjer mere i nederste halvdel av bildet enn i øverste (i nederste beveger ting seg, mens i øverste ser du bare en blå himmel, som de brukte som eksempel et sted), slik at det ene kortet overtar litt av det andres arbeid i ledige stunder. Denne load balancing skjer over broen.

 

Fascinerende stoff dette. Skal grave litt mer etterhvert.

 

Geir :)

Endret av tom waits for alice
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...