Gå til innhold

Forener Nvidia og AMD


Anbefalte innlegg

Det er ikke sikkert at driverne må erstattes. Normalt fungerer jo AMD og Nvidia skjermkort samtidig i samme system, men ikke i Crossfire/SLI modus*

 

* Altså at de samarbeider om å lage ett skjermbilde ut i stedet for skjermbilder til hver sine utganger.

 

Jeg er spent på hvordan de skal få kortene til å samarbeide. Jeg kan tenke meg én metode men den er ikke veldig bra: At brikken splitter oppløsningen som hvert skjermkort må jobbe med. F.eks 1280x124 til et integrert Radeon 780G og 1280x900 til et geforce 9600 GT. Da produserer hvert av skjermkortene den oppløsningen ut på hver sine DVI-utganger. Hydra kan kombinere signalet fra de to utgangene via en ekstern boks og lage et fullstendig 1280x1024 bilde. Det er som sagt ingen oppskrift på hvordan det egentlig fungerer, men min egen idé over hvordan det kanskje kan fungere.

Lenke til kommentar
Videoannonse
Annonse

Det kan vel tenkes at intel lager et program som innstalleres først. Så innstallerer man hhv geforce driver og catalyst "inne i" dette programmet. Slik at det fungerer som 1 virtuell driver hvor hydra programmet gjør at disse samarbeider e.l?

Endret av _ziggy_
Lenke til kommentar

Dette synes jeg høres totalt urealistisk ut. Jeg er sterkt skeptisk til at ett oppstartsselskap skal prestere noe som overgår det først 3dfx, så Nvidia og til slutt Ati har brukt årevis på, og at det skal fungere på tvers av både produsent og generasjon.

 

For å si det sånn, det kan godt hende det fungerer, men resultatet vil neppe bli optimalt, og både ytelse og kvalitet vil aldri komme i nærheten av det Nvidia og Ati får til, ganske enkelt fordi at kortene jobber totalt ulikt, til tross for at de snakker samme "språk".

Lenke til kommentar

Skjønner ikke hvorfor dette skulle være urealistisk. Det hadde sikkert fint latt seg gjøre å lage et hovedkort med to forskjellige sokler, og fått en intel cpu og en amd cpu til å samarbeide. Selvfølgelig dersom operativsystemet og alle programmene hadde vært programmert for det. Spørsmålet er kanskje om Intel med hydra da må få tilgang på all kildekode til driverne til ati og nvidia.

 

Det kan vel likegodt være like stor forskjell på f.eks et x1650 pro og et 4750 kort, som det er på et vilkårlig ati og nvidia kort? Bortsett fra at den samme catalyst driveren støtter både nytt og gammelt radeon kort mener jeg?

Lenke til kommentar
Simen1: kan jeg altså installere 8800GT og HD3850 i samme maskin med tilhørende drivere og det vil fungere som to separate skjermkort samtidig? Kan jeg spille på det ene skjermkortet og folde på det andre eks?

Det skal gå bra. Jeg har hatt inntil 3 skjermkort av ulike merker i samme PC en gang i tida. Ett eller annet ATI Rage AGP-kort + et PCI Sis S3-kort + et til PCI-kort som jeg ikke husker navnet på i farta. Dette kjørte med Windows 2000 og hver sin skjerm i et trippelskjermoppsett. 3D-programmer kjørte kun på den ene skjermen.

 

Problemet er å få skjermkortene til å samarbeide om 3D på én av utgangene på ett av kortene. Derfor fikk jeg kun én aktiv skjerm i 3D-programmer. SLI og Crossfire løser det problemet. Så lenge man kan nøye seg med at hvert kort rendrer hver sin bit til hver sin skjermutgang så går det fint å ha flere kort av flere merker i maskina. Det er veldig utradisjonelt å kombinere på denne måten så jeg har ikke sett noe sånt omtalt på flere år.

Lenke til kommentar
Jeg er spent på hvordan de skal få kortene til å samarbeide. Jeg kan tenke meg én metode men den er ikke veldig bra: At brikken splitter oppløsningen som hvert skjermkort må jobbe med. F.eks 1280x124 til et integrert Radeon 780G og 1280x900 til et geforce 9600 GT. Da produserer hvert av skjermkortene den oppløsningen ut på hver sine DVI-utganger. Hydra kan kombinere signalet fra de to utgangene via en ekstern boks og lage et fullstendig 1280x1024 bilde. Det er som sagt ingen oppskrift på hvordan det egentlig fungerer, men min egen idé over hvordan det kanskje kan fungere.

 

Jeg tror du tar veldig feil her. Er ikke snakk on noe singnal kombinering som kommer ut fra DVI utgangen - det er alt for tungvint både hardware og brukermessig. Det å splitte bildet i deler er også gårsdagen da det er så å si umulig å få det 100% synkronisert. Husk her er det både kort med VGA og DVI. Er ikke output avhengig.

 

Her er det et nytt Device som vil installere seg på maskin. Der HYDRA blir det eineste skjermkorte som vil være aktiv/synlig. Også vil HYDRA selv finne de skjermkortene som er installerte i systemet og bruke de slik den vil. Det er slik alle illustrasjonene viser processen og det sies også at du kan "gjennom HYDRA" styre heile processen. Det er også et on-chip-system og da blir det meiningsløst å gå gjennom software drivere. Her er det snakk om hardware-2-hardware relasjoner - som i teorien kan være OS uavhengig.

 

Husk at den vil styre skjermkortene i det øyeblikke du starter maskin - så her blir det egen BIOS der man kan velge hvilken output på de 4 skjermkortene du har som er tilkoblet skjermen.

 

Her kan det tenkes at HYDRA vil skjule skjermkortene fra OS helt eller man får et dummy driver som man installerer i stedenfor nvidia/ati/matrox sin. Som resultat får man kun 1 skjermkort synlig i systemet og det blir HYDRA. De egentlig skjermkortene vil vises som f.eks. "Generic PCI-E graphic device" eller.no.

 

Og som siste spikker i det heile - husk at samme scene rendres ikke likt på ATI og nVidia. Det sies også at det skal være uavhengig av hvilken skjermkort du har - DirectX 10.1 vil støttes uansett. Og da kan du ikke sende halvparten av en DirectX 10 scenen til f.eks. ATI Rage med 64mb og håpe at det går bra :)

Endret av GCardinal
Lenke til kommentar
Jeg tror du tar veldig feil her.

Det kan veldig godt hende. Det var bare tankespinn fra min side.

 

Jeg leser forklaringa di og synes det høres fornuftig ut, men jeg savner ennå litt mer forklaring. Hvordan sendes en del framebuffer fra det ene skjermkortet til det andre? Hvis alt skal ut på den samme utgangen så må jo nødvendigvis det som er rendret på det ene skjermkortet (og ligger i framebufferet) sendes over til det andre skjermkortet og videre til en skjermutgang og til skjermen.

Lenke til kommentar
Jeg tror du tar veldig feil her.

Det kan veldig godt hende. Det var bare tankespinn fra min side.

 

Jeg leser forklaringa di og synes det høres fornuftig ut, men jeg savner ennå litt mer forklaring. Hvordan sendes en del framebuffer fra det ene skjermkortet til det andre? Hvis alt skal ut på den samme utgangen så må jo nødvendigvis det som er rendret på det ene skjermkortet (og ligger i framebufferet) sendes over til det andre skjermkortet og videre til en skjermutgang og til skjermen.

 

ble mye spekulasjon der :) ... men hmm... du har rett med framebuffer :S

 

mulig hydra korte har selv DVI utgang - men det igjen vil kutte støtten for flere skjermer. men igjen så er ikke det nevnt noen steder så er mulig det er prisen for moroa.

 

men det å ha tillegs kort som må selv ha 1gb gddr blir alt for kostbar løsning.

 

men for at dette skal fungere med alle kort så kan ikke kortene generere data som kommer så langt som til framebuffer - der ligger så å si ferdig bilder som kan variere sterkt. og da er vi tilbake til directx/opengl versjoner. her må hydra spille et mye høyre rolle og skjermkortene utføre beregninger på mye lavere nivå. Kan tenkes at det heile kokes ned til at de bruker skjermkortene som kalkulatorer - og her ifra får man leniar skalering ved flere kort - er kun det rein matematiske ytelsen som kan skalere så bra.

 

men alt dette blir bare spekulasjoner...

Endret av GCardinal
Lenke til kommentar
Skjønner ikke hvorfor dette skulle være urealistisk. Det hadde sikkert fint latt seg gjøre å lage et hovedkort med to forskjellige sokler, og fått en intel cpu og en amd cpu til å samarbeide. Selvfølgelig dersom operativsystemet og alle programmene hadde vært programmert for det. Spørsmålet er kanskje om Intel med hydra da må få tilgang på all kildekode til driverne til ati og nvidia.

 

Det kan vel likegodt være like stor forskjell på f.eks et x1650 pro og et 4750 kort, som det er på et vilkårlig ati og nvidia kort? Bortsett fra at den samme catalyst driveren støtter både nytt og gammelt radeon kort mener jeg?

Ikke sammenlignbart:

 

1. Det går nok sikkert fint an å parallellisere 2 CPU'er av ulikt merke uten å tape for mye, men skal man parallellisere, må det synkroniseres, og jo mer sanntids utregningene er, jo vanskeligere er det å få de synkronisert. Jo mer usynkronisert, jo mindre ytelsesboost får du. Kan i tillegg legge til at 3D-kalkulasjoner for spill er sanntids, og dersom enhetene oppfører seg ulikt, er det vanskelig å få synkronisert.

 

2. Forskjellene mellom en prossessor fra Intel sammenlignet med en fra AMD er mye mindre enn forskjellene mellom 2 skjermkort, iallefall viss du går lenger ned i dybden. I x86-verden er det instruksjonssettet som abstrakterer, mens i 3d-verdenen er det drivere sammen med bibliotek (Direct3D/OpenGL). 2 CPU'er fra forskjellige produsenter er derfor enklere å få til å jobbe i bra tospann enn to _høyst_ spesialiserte brikker som har ulik oppbygging.

 

3. Forskjeller maskinvaremessig. Jeg kan trekke fram, ulik sammensetninger av pipelines, prosseseringsenheter, minnearkitektur, etc. Disse er store, men driverene gjør en god jobb med å abstraktere det, derfor er også driverene så kompliserte.

 

4. hastighet. Mye de samme problemene som med SLI/CF, men forsterket, ettersom de ikke selv produserer kortene. Problemet er hvordan skal kortene kommunisere sammen? Skal man parallellisere effektivt, og med så store data, må man ha en rask databuss. PCIe er forsåvidt ganske raskt, _men_ det er ikke garantert at de får utnyttet dette på en noen som helst god måte, ettersom de ikke selv produserer kortene.

 

5. Kompleksiteten. Parallellisering har vært en hellig gral i flere tiår, spesielt når det er to brikker som ikke leser fra samme minneområde. Skjermkort er uhyggelig kompliserte, og når ikke engang nvidia eller ati får til å perfeksjonere det med sine egne brikker, sier det seg at dette er dødfødt.

 

Men trekk deres egne konklusjoner. Jeg synes iallefall dette lukter Pump'n'dump/Tøm-og-røm/vaporware lang vei.

 

(og tar selvfølgelig store forbehold om faktafeil, men mener at jeg er inne på noe her. Noen assembly-guruer får rette på meg)

Lenke til kommentar

Leser på sida deres nå, og det ser ut til at de hevder å ha laget en løsning som kan dele opp grafikkberegningene i små oppgaver, vurdere hvor tunge beregninger det vil gi, fordele det til de ulike kortene utifra deres ytelse, og så uten store forsinkelser sette det sammen igjen til ett nytt bilde. De mener til og med at deres metode er så effektiv at den i enkelte tilfeller vil gi bedre utnyttelse av kortene enn når de kjører single.

 

Hvis de har fått til dette vil jeg ha et slikt system omgående, men jeg har litt vanskelig for å tro på dette. De må jo ha noen eksepsjonelt gode algoritmer hvis de skal klare å få til slike beregninger bedre enn det ATi og nVidia klarer med førstehåndskunnskap om kortene, og der kortene må være nogenlunde like.

Lenke til kommentar
Leser på sida deres nå, og det ser ut til at de hevder å ha laget en løsning som kan dele opp grafikkberegningene i små oppgaver, vurdere hvor tunge beregninger det vil gi, fordele det til de ulike kortene utifra deres ytelse, og så uten store forsinkelser sette det sammen igjen til ett nytt bilde. De mener til og med at deres metode er så effektiv at den i enkelte tilfeller vil gi bedre utnyttelse av kortene enn når de kjører single.

 

Som Simen1 kommenterte tidligere er det å vise bildet som er det største problemet slik jeg ser det.

 

Og når det gjelder drivere, forskjelig kort etc. - tror de har klart å sette sammen et grensesnitt til skjermkortene som benytter mest basic gfx interface og klarer å bruke det til å gjøre diverse beregninger. "Hardware" og universell driver til alle skjermkortene på det ene siden og skjermkort grensesnitt med directx opengl etc på det andre.

 

Og det trenger ikke å være så urealistisk - se på Linux f.eks. - det er kernel med støtte for det meste av gfx out-of-the-box.

 

Det er tross alt et helt ny "oppfinelse" :) 50 patenter for ett kort - det er heftig.

Endret av GCardinal
Lenke til kommentar

Jeg reserverer dom intill jeg ser en tredjeparts review av teknologien. Det høres fint ut på papiret, men det er det mage andre ting som gjør, og det er enda alt for mange spørsmål rundt den spesifikke implementasjonen til at man gjette seg frem til noe heller.

 

-Stigma

Lenke til kommentar
Jeg lukter pølse. Og det er ikke gatekjøkkenet 500m nede i gata.

 

For de som ikke tok den: Nei, jeg tviler på dette kommer til å fungere :p

 

Men håper selvfølgelig..

 

 

Den dagen jeg leste at man kunne surfe på internett med en C64, så tenkte jeg : aldri si aldri :)

 

Men løsningen må jo være veldig komplisert. Spørsmålet er om prisen på denne dingsen man implementerer koster skjorta da. Dette må vel da enten integreres på hovedkortet der utgangen til skjermen må være på hovedkortet via denne hydra chipen, eller en ekstern "dings" som kobles på utgangene fra hvert av skjermkortene, og i tillegg kanskje til et pci(-e)kort e.l?

 

Blir uansett spennende å se hva som skjer med dette :)

Lenke til kommentar
  • 5 uker senere...

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...