Gå til innhold

Geforce GTX 9xx Tråden


Anbefalte innlegg

Den EVGA GeForce GTX 980 Ti Hybrid 6GB ser ut som den også har vannkjøling og medfølger en radiator+vifte. (Egenskaper: "radiator for 120 mm ekstern vannkjølersett")

Stemmer det? Hva blir da forskjellen mellom HYBRID og HYDRO COPPER?

 

 


The most noteworthy change to the 980 Ti is EVGA's improved cooling design. The “Hybrid” portion of EVGA's branding refers to the cooler's fusion of air and liquid cooling for distributed dissipation of heat. A more traditional aluminum heatsink with grilled intake rests toward the front of the card (near the VRM) with a blower fan; the GPU proper hosts the CLC's pump, with braided tubing leading to the 120mm radiator and included fan. A copper coldplate directly contacts the GPU, though we recently highlighted the minimum impact of copper over aluminum for CLC coldplates.

http://www.gamersnexus.net/hwreviews/1983-evga-gtx-980-ti-hybrid-review-and-benchmarks

Endret av DJViking
Lenke til kommentar
Videoannonse
Annonse

 

Hva er et 980Ti med vannblokk (Acetal/Nickel fullcover) som klokker ganske bra verdt idag?

 

6K ellerno?

Bytte mot 980sli med vannblokker ?

 

Dessverre. Gikk ifra 3x 980 til singelt 980Ti. Går ikke halveis tilbake. ;)

 

Har ikke bestemt meg, lurte bare på hva det var verdt. Vil prøve å nedgradere CPU først, da kortene mine trenger jeg til folding, har ikke kommet så langt for å gå ned i PPD. ^^

Endret av Snusmumr1kk1
Lenke til kommentar

Den EVGA GeForce GTX 980 Ti Hybrid 6GB ser ut som den også har vannkjøling og medfølger en radiator+vifte. (Egenskaper: "radiator for 120 mm ekstern vannkjølersett")

Stemmer det? Hva blir da forskjellen mellom HYBRID og HYDRO COPPER?

Det stemmer, den har en AIO ferdig montert. (All in one, altså en ferdigløsning, veldig fornøyd med Hybrid selv, har det i en foldemaskin med 5820K)

 

Med Hydro Copper trenger du en radiator, pumpe, nippler, slanger, kjølevæske osv. Så må du selv sette det sammen, akkurat som en "køstum" loop.

Endret av Snusmumr1kk1
Lenke til kommentar

 

Den EVGA GeForce GTX 980 Ti Hybrid 6GB ser ut som den også har vannkjøling og medfølger en radiator+vifte. (Egenskaper: "radiator for 120 mm ekstern vannkjølersett")

Stemmer det? Hva blir da forskjellen mellom HYBRID og HYDRO COPPER?

Det stemmer, den har en AIO ferdig montert. (All in one, altså en ferdigløsning, veldig fornøyd med Hybrid selv, har det i en foldemaskin med 5820K)

 

Men Hydro Copper trenger du en radiator, pumpe, nippler, slanger, kjølevæske osv. Så må du selv sette det sammen, akkurat som en "køstum" loop.

Takk for den. Da blir det litt for ekstremt for meg. Tror da jeg holder meg til Hybrid.

Lenke til kommentar

 

 

Angående Asyncronous Compute:

Update 02/24: NVIDIA sent a note over this afternoon letting us know that asynchornous shading is not enabled in their current drivers, hence the performance we are seeing here. Unfortunately they are not providing an ETA for when this feature will be enabled.

Det er slått på i enkelte developer drivere nå (GM2xx), men hvor mye det vil ha og si for Nvidia sin del vet jeg ikke. Neppe like mye som enkelte AMD GPUer, men det bør bli litt forbedringer.

"Ikke slått på". Virkelig? Vil dette pølsevevet ditt noen gang ta slutt? Det er nok nå; gi opp den stadige hvitvaskingen av kjæresteselskapet Nvidia. Det virker kanskje på andre emner, men akkurat når det kommer til DX12 begynner det å bli komisk. Den uttalelsen til Nvidia er til å le av, men i ekte partisan-stil tar du det seriøst.

 

Oxide Games innrømte selv at Nvidia rett og slett ikke har denne teknologien i skjermkortene sine, når de ga oss en DX12-presentasjon av spillet forrige høst.

 

“Personally, I think one could just as easily make the claim that we were biased toward Nvidia as the only ‘vendor’ specific code is for Nvidia where we had to shutdown async compute. By vendor specific, I mean a case where we look at the Vendor ID and make changes to our rendering path. Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn’t really have Async Compute* so I don’t know why their driver was trying to expose that.

 

Nvidia gikk så langt som å presse Oxide til å deaktivere denne funksjonen i spillet, slik at deres egne kort gjorde det bedre.

 

"Maxwell har virkelig ikke Asynch Compute", og "rendyrket katastrofe" er veldig sterke ord. De har også gjenklang i uttalelser som en sjefsredaktør fikk høre, når han var i samtale med utviklerene av Oculus Rift. De sa nettopp det samme om Nvidias DX12-støtte, i forhold til for eks. Intel og AMD.

 

Nå har de altså fått et halvt år på seg, og enda hører vi at "Asynch Compute er ikke aktivert". Det er ingen (andre enn deg og et par andre, såklart) som tror på det pisspreiket lenger. Nvidia, som i august uttalte at de "jobber sammen med Oxide [Games] om en full asynch compite-implementering", står altså nå med like lite å vise frem et halvt år etterpå.

 

Og bare for moro skyld kan vi ta og se på "spådommene" dine i oktober 2015:

 

 

 

Blir ikke dette litt meh likevel? Maxwell-arkitekturen støtter ikke Async Compute; så selv om det blir oooooohmp med to kjerner, så kommer vel sannsynligvis svakere AMD-kort potensielt komme til å matche de i DX12?

Trist at slik feilinformasjon henger igjen enda...

2. generasjon Maxwell (GM20x) vil støtte async compute når vi begynner å nærme oss det tidspunktet at det kommer spill som bruker dette.

Foreløpig finnes det kun et par techdemoer som i det hele tatt bruker DX12.

 

Såklart er støtten der. Men den er mangelfull i stor grad, sammenlignet med det det du finner i GCN-arkitekturen.

Nvidia har ikke kommet med driver som aktiverer hardwarestøtte for dette på Maxwell Gen2 enda. For øyeblikket er det ikke planlagt at dette kommer før med CUDA 8 og GPUdirect Async, men det er uansett før det kommer noen DX12 spill på markedet...

 

Når skal du innrømme og innse at Nvidia ligger langt bak i DX12-støtte i hardwaren (og grunnene til det kjenner både du og jeg godt -- store deler av D3D12 tok etter Mantle, som gjorde det altfor sent for Nvidia å implementere teknologiene i nåværende arkitekturer).

 

Kanskje du bare skal gå tilbake til å kalle Ashes of Singularity-testene for et "PR-stunt for AMD"?

Endret av La Menthe
  • Liker 3
Lenke til kommentar

Er det bare meg som faktisk har et dx12 spill her på forumet? Altså ashesofthesingularity :p

 

Nå funker 2-way sli med beta 2 iallefall med dx12. Markant forskjell på fps. Dette spillet bruker over 10GB systemminne ved max grafikk, og bruker også rimelig mye cpu. Selve spillet synes jeg er "så som så" , men kjekt nok.

Lenke til kommentar

Er det bare meg som faktisk har et dx12 spill her på forumet? Altså ashesofthesingularity :p

 

Nå funker 2-way sli med beta 2 iallefall med dx12. Markant forskjell på fps. Dette spillet bruker over 10GB systemminne ved max grafikk, og bruker også rimelig mye cpu. Selve spillet synes jeg er "så som så" , men kjekt nok.

Trur ikke det er sli som benyttes når du bruker 2 skjermkort i dette spillet. Du kan like godt sette inn et amd og et nvidia kort og likevel få økning i ytelsen.

Endret av Handl3vogn
Lenke til kommentar

 

Er det bare meg som faktisk har et dx12 spill her på forumet? Altså ashesofthesingularity :p

 

Nå funker 2-way sli med beta 2 iallefall med dx12. Markant forskjell på fps. Dette spillet bruker over 10GB systemminne ved max grafikk, og bruker også rimelig mye cpu. Selve spillet synes jeg er "så som så" , men kjekt nok.

Trur ikke det er sli som benyttes når du bruker 2 skjermkort i dette spillet. Du kan like godt sette inn et amd og et nvidia kort og likevel få økning i ytelsen.

 

 

Yeye, men når 2 skjermkort brukes, så er det jo nesten samma  det. Vet at man kan bruke et amd og nvidiaskjermkort sammen i dette spillet ja.

Lenke til kommentar

 

 

Er det bare meg som faktisk har et dx12 spill her på forumet? Altså ashesofthesingularity :p

 

Nå funker 2-way sli med beta 2 iallefall med dx12. Markant forskjell på fps. Dette spillet bruker over 10GB systemminne ved max grafikk, og bruker også rimelig mye cpu. Selve spillet synes jeg er "så som så" , men kjekt nok.

Trur ikke det er sli som benyttes når du bruker 2 skjermkort i dette spillet. Du kan like godt sette inn et amd og et nvidia kort og likevel få økning i ytelsen.

 

 

Yeye, men når 2 skjermkort brukes, så er det jo nesten samma  det. Vet at man kan bruke et amd og nvidiaskjermkort sammen i dette spillet ja.

 

Ja nesten, Men det morsomme med DX12 og vulkan er jo at du slipper og ha like skjermkort for og kjøre multi gpu,

Fordelen med det er jo at du fortsatt kan ha det gamle skjermkortet når du bestemmer deg for og oppgradere.

 

Edit:

Bortsett fra dere som har råd til 4x titan hver gang det slippes.

Endret av Handl3vogn
Lenke til kommentar

 

 

 

Er det bare meg som faktisk har et dx12 spill her på forumet? Altså ashesofthesingularity :p

 

Nå funker 2-way sli med beta 2 iallefall med dx12. Markant forskjell på fps. Dette spillet bruker over 10GB systemminne ved max grafikk, og bruker også rimelig mye cpu. Selve spillet synes jeg er "så som så" , men kjekt nok.

Trur ikke det er sli som benyttes når du bruker 2 skjermkort i dette spillet. Du kan like godt sette inn et amd og et nvidia kort og likevel få økning i ytelsen.

 

 

Yeye, men når 2 skjermkort brukes, så er det jo nesten samma  det. Vet at man kan bruke et amd og nvidiaskjermkort sammen i dette spillet ja.

 

Ja nesten, Men det morsomme med DX12 og vulkan er jo at du slipper og ha like skjermkort for og kjøre multi gpu,

Fordelen med det er jo at du fortsatt kan ha det gamle skjermkortet når du bestemmer deg for og oppgradere.

 

Edit:

Bortsett fra dere som har råd til 4x titan hver gang det slippes.

 

 

Det blir jo morro å se om det blir stuttering i fps spill ved bruk av forskjellige skjermkort. Det vil vise seg. Antall fps er langt ifra alt for en god spillopplevelse.

Lenke til kommentar

En GPU gjør i dag mange forskjellige type oppgaver, ser ikke hvorfor det ikke skulle gå ann å spre noe av dette over flere GPUer. Ett eks. er physx.  Det blir noe annet med "tradisjonell sli/cx" når annenhvert bildee eller halvparten av hvert bilde deles mellom GPUer. Jeg vil tro at denne måten å gjøre ting på kan moderniseres betraktelig.

Endret av Theo343
Lenke til kommentar

Ja nesten, Men det morsomme med DX12 og vulkan er jo at du slipper og ha like skjermkort for og kjøre multi gpu,

Fordelen med det er jo at du fortsatt kan ha det gamle skjermkortet når du bestemmer deg for og oppgradere.

I motsetning til AFR er det begrenset til hva som kan splittes opp mellom flere GPUer uavhengig av hverandre, og det må spesifikt styres fra spillet sin side. F.eks. noe fysikk og partikkelsimulering kan typisk gjøres i parallell, men utover det er det veldig begrenset. Derfor vil du aldri kunne bruke dette til å få f.eks. 30-40% bedre ytelse i alle spill.

 

En GPU gjør i dag mange forskjellige type oppgaver, ser ikke hvorfor det ikke skulle gå ann å spre noe av dette over flere GPUer. Ett eks. er physx. Det blir noe annet med "tradisjonell sli/cx" når annenhvert bildee eller halvparten av hvert bilde deles mellom GPUer. Jeg vil tro at denne måten å gjøre ting på kan moderniseres betraktelig.

SFR har vel blitt kuttet ut pga. alle problemene det har, og ytelsen blir heller ikke spesielt god. Når flere GPUer skal dele tegning av ett bilde så kreves det mye synkronisering frem og tilbake, og det meste av rendering i dag skjer i flere steg som gjør det i praksis ubrukelig. Inntil videre forblir AFR eneste gode alternativ.
Lenke til kommentar

Noen som har erfaringer med Zotac sitt AMP Extreme? Må ha nytt skjermkort innen en uke til The Division kommer.

 

Link:

https://www.komplett.no/product/847357/datautstyr/skjermkort/pci-express/zotac-geforce-gtx-980-ti-6gb

 

Har også kikket på Asus Poseidon kortet:

https://www.komplett.no/product/854596/datautstyr/skjermkort/pci-express/asus-geforce-rog-poseidon-gtx-980-ti-6gb

 

Andre tips tas også imot, vil igrunn ha det beste 980 Ti enkelt og greit :p

Endret av Sending!
Lenke til kommentar

GPU er jo vannkjølt..

 

Forskjellen mellom idle og load mhp støy vil være liten. Kortet vil være mer stille og ha lavere temp. Det vil også avgi mindre varme til resten av kassa di, siden stort sett alt varme trøkkes ut av kassa via radiator.

Endret av Kyrre S.
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...