Gå til innhold

NÅ: Nvidia har avduket GTX 1080!


Anbefalte innlegg

Videoannonse
Annonse

Må innrømme jeg synes det er rart ingen har påpekt at GTX1080 kommer med DP1.4 enda (var vel bare ventet 1.3?). Nårtid kan vi vente 4K@120Hz monitorene nå? :D

 

Ellers er det litt rart med spesifikkasjonene. 1080 har 25% flere shadere enn 980, og er boost klokket 42,5% høyere. Potensiell ytelsesforbedring her alene er altså rundt 71% selv uten høyere IPC. Dette bør jo selvfølgelig være nok til å si "raskere enn 980SLI", men det virker på meg som et forsøk på å blåse opp ytelsen (uten at jeg helt skjønner behovet). "Raskere enn 980SLI" betyr jo implisitt: "Raskere enn 100% raskere". Her ser vi at Nvidias egne benchmarks i "The Witcher 3" og "Rise of the tombraider" viser enorm ytelsesforbedring over 980. Men ikke over 100% raskere selvsagt.

 

Også minnebåndbredden er jo nødvendigvis utvidet godt med 320GB/s, men ligger likevel rett under 980TI's 336GB/s, så selv om GPU'en kan potensielt yte en god del bedre enn 980Ti vil jo det kun være så lenge minnebåndbredden ikke setter grensen. Det ser for meg med andre ord ut som en repetisjon av 970 vs 780Ti der 780Ti fremdeles tok hjem seieren i enkelte spill selv om 970 ble roset for å være bedre enn selv 780Ti'en.

 

Det ser altså uansett ikke ut for meg som om det har skjedd mye med IPC ytelsen ettersom ytelsesforbedringen kan sees nesten identisk ut med summen av økt frekvens og høyere shader count. Så uten høyere IPC burde AMD i aller høyeste grad fremdeles være i stand til å levere gode konkurrenter til disse kortene. Slik jeg har tolket det, så vil AMDs fokus være å gjøre VR tilgjengelig for en billigere penge. Om det stemmer vil det kunne si GTX970+ ytelse for rundt GTX960 pris. Absolutt spennende å se hva som kommer fra den leiren nå.

Syns også dette var rart det ikke har vært nevnt, det ser også ut som de har hoppet bukk over 1.3, men utifra speccen så ser  det ut som det er samme båndbredde det er snakk om? Det baner uansett veien for høyfrekvensskjermer, kanskje får vi 240Hz 1440p?  :ohmy: 

 

Lurer også på hvordan dette minnet vil klokke i forhold til før, hvis det klokker godt, så kan vi se at GB/s vil kunne overgå det som sitter i 980Ti/Titan X

 

Ikke lenge til hard-launch, denne krympen ser ut til å gjøre underverker for grafikkfronten i år og neste år, samt bedringene på IPC, og det bør kunne gjelde fra begge selskapene - veldig spennede :)

 

Lenke til kommentar

1.4 er uansett bare 1.3 med lossy komprimering. Altså er ikke båndbredden økt, og har man et bilde som er detaljert nok vil man ikke få noe bedre bilde enn med 1.4.

 

Såvidt jeg husker så er ikke 1.3 nok til 4K med HDR og 120hz.

Ikke ved 8-bit en gang? Jeg har ikke sett på regnestykket selv, derfor jeg spør :)

 

 

EDIT:

 

Sakset ut av artikkelen til iTavisen:

 

 

SLI og 240 Hz

Det bør nevnes at GTX 10180 kommer med en ny SLI-bro, som ikke er kompatibel med andre kort enn de i samme serie. Fordelen er derimot at den nye SLI-broen har dobbelt så høy båndbredde. Dette kan imidlertid omgås med DirectX 12-spill som kan bruke to grafikkort uavhengig av leverandør og SLI/Crossfire.

Videre støtter GTX 10-serien DisplayPort 1.3 og HDMI 2.0b, som gir muligheten for HDR-støtte og gjør det mulig for Pascal-GPer å støtte 1080p og 1440p-skjermer på opp til 240 Hz, ultrabrede 1440p-skjermer på 190 Hz og 4K-paneler opp til 120 Hz. Det kan med andre ord komme enda raskere paneler på markedet enn de vi kjenner i dag.

Men stusser litt over dette med ny SLI bro, trodde den var det kun for synkronisering, og at det ikke hadde noe med båndbredde å gjøre? Noen med litt insight som har peiling eller kan spekulere på hva de har endret i SLI?

Endret av bshagen
Lenke til kommentar

Slik jeg tolker ryktene så slipper AMD TI ytelse for 300 usd, mens 1080 leverer 25% over det for 700 usd?

noe som ikke stemmer helt.

 

vi trenger noen benchmarks ASAP.....

Det har du helt rett i, det er noe som ikke stemmer her.

 

For det første 1080 koster 600 USD, ikke 700 USD, og AMD har tenkt å satse på mainstream. Altså ikke GTX 1080, men 1070, 1060 og 1050. For Nvidia og AMD er det deres 330 USD kort som selger mest. Altså 970 og R9 390. Det er dette markedet AMD går etter. Toppkortet til Polaris blir nok derfor dyrere enn 300, mest sannsynlig 330 eller høyere. Som jeg skrev tidligere, det er ikke bare AMD som bestemmer prisen her.

 

Av det jeg har sett:

http://wccftech.com/amd-polaris-10-polaris-11-launch-event/

 

Så skal AMD sitt toppkort som de lanserer nå være 110W-130W. 1070 er satt til 150W. Så la oss si at Nvidia og AMD nå stiller likt når det kommer til fps/W, noe som er fult mulig. Hvordan skal et kort med 130W slå et 150W kort i ytelse? Spesielt når Nvidia med 150W TDP kommer til å bruker i overkant av 220-230W i gjennomsnitt. AMD sine tall pleier derimot å være uten boost. Ekstremt urealistisk at AMD sine kort er så ekstremt gode. Om de er gode i forhold til 980 ti kan godt være, men det er irrelevant. De må være gode i forhold til 1070.

Lenke til kommentar

 

 

Jeg lukker ikke øynene for noe, jeg sier jeg ikke har sett noe bevis for påstandene dine. Du viser her benchmarks der 7970 havner over 680 i de fleste tilfeller. I noen tilfeller med mye. 7970 var jo alltid bedre enn 680. Så ytelsen er forskjellig fra 2012 benchmarks. Det er ikke bevis for at Nvidia ikke bryr seg om gamle kort. Det kan like godt bety at AMD har hatt dårlig utnyttelse av sine kort. Noe som egentlig er litt klart av deres rebrand strategi. Det å fikse på de gamle kortene har gjort at de har klart å holde følge.

 

Så hvis du ser tilbake til 2012 og du skulle kjøpe et toppkort som du skal ha i 4 år, så burde du ha kjøpt 7970, men om du skulle ha mest ytelse for pengene, burde du ikke kjøpt 7970 uansett? Det hjelper og lite i dag å vite det nå. 7970 selges ikke lengre, eller jo vent, det gjør det jo faktisk.... navnet er bare nytt.

 

Se på sitatet over. Nvidia støtter fortsatt eldgamle grafikkort med nye drivere, mens AMD kort fra samme tid ikke har blitt oppdatert på 3 år. Ta din Vulkan som du mener er så AMD. Hvor er støtten i Linux for gamle AMD kort? 7000-serien er ikke støttet, men Nvidia støtter sin 600-serie.

https://en.wikipedia.org/wiki/Vulkan_(API)

AMD sine drivere for Windows virker å ha blitt veldig gode nå, og klarer å utnytte AMD kortene skikkelig, som Nvidia alltid har gjort. Likevel, Nvidia støtter fortsatt kort lengst, støtter mest mulig forskjellige ting, er best på Linux osv. AMD har ikke sjanse der.

 

 

Det at DX12 har samme prinsipp som Mantle betyr ikke at DX12 har noe med Mantle å gjøre. Derimot kan det bety at AMD har sett på prinsippene for DX12 og laget Mantle etter det.

 

Hjelper AMD lite at de har gitt fra Mantle til de som lagde Vulkan. Vulkan er Vulkan, det er ikke Mantle. AMD hadde ingen fordel når det gjaldt drivere der. De sparte Khronos group muligens noe tid, men det betyr ikke at AMD tjente noe på det. Mantle var jo uansett ubrukelig på det tidspunktet.

 

 

Ellers viser dine egne benchmarks at påstanden om 390X er feil. Den er og totalt irrelevant. Hvis du bare har lyst å få frem at AMD er bedre enn Nvidia, som er klart med å ta med slik irrelevant informasjon som det, som og er feil med eget bevis, så ser jeg ingen grunn til å fortsette denne diskusjonen.

 

Hva er det du trenger bevis for? Det har da vel kjent veldig lenge. At ikke du har fått det med deg bryr meg ikke. Virker som du har vanskligheter med å gi credit til amd for ting de har gjort. Har aldri sakt at amd har noen fordeler i vulkan. Men at det er bygd på mye fra mantle. 

At du kommer med at Mantle er tatt fra DX12 forklarer jo egentlig bare ditt lavmål. Du kommer med mange usannheter uten "bevis". Mantle ble laget i samarbeid med Johan Andersson fra DICE. Ser meg ferdig med å diskutere med slik en kverulant som deg.

   
Lenke til kommentar
Lenke til kommentar

 

1.4 er uansett bare 1.3 med lossy komprimering. Altså er ikke båndbredden økt, og har man et bilde som er detaljert nok vil man ikke få noe bedre bilde enn med 1.4.

 

Såvidt jeg husker så er ikke 1.3 nok til 4K med HDR og 120hz.

 

Jeg trodde komprimeringen var lossless. Det er ihvertfall slik jeg leser det fra Wikipedia:

 

DisplayPort version 1.4 was published March 1, 2016.[20] No new transmission modes are defined, so HBR3 (32.4 Gbit/s) as introduced in version 1.3 still remains as the highest available mode. DisplayPort 1.4 adds support for Display Stream Compression 1.2 (DSC), Forward Error Correction, HDR extension defined in CTA-861.3, the Rec. 2020 color space, and extends the maximum number of inline audio channels to 32.[21]

DSC is a "visually lossless" encoding technique with up to 3:1 compression ratio.[20] Using DSC with HBR3 transmission rates, DisplayPort 1.4 can support 8K UHD (7680×4320) at 60 Hz with 10-bit color and HDR, or 4K UHD (3840×2160) at 120 Hz with 10-bit color and HDR. 4K at 60 Hz with 10-bit color and HDR can be achieved without the need for DSC. On displays which do not support DSC, the maximum limits are unchanged from DisplayPort 1.3 (4K 120 Hz, 5K 60 Hz, 8K 30 Hz).[22]

 

Og fra VESA selv:

 

DSC version 1.2 transport enables up to 3:1 compression ratio and has been deemed, through VESA membership testing, to be visually lossless. 

 

 

Nei, den er dessverre lossy, det der er bare marketing BS. Båndbredden er ikke økt fra 1.3. Altså risikerer man at hvis man har en "vanskelig" bildestrøm så vil den ikke klare komprimeringen, og vil redusere bildekvaliteten merkbart. Det krever også prosessering ved komprimering som vil gi økt forsinkelse av signalet.

Lenke til kommentar

 

 

1.4 er uansett bare 1.3 med lossy komprimering. Altså er ikke båndbredden økt, og har man et bilde som er detaljert nok vil man ikke få noe bedre bilde enn med 1.4.

 

Såvidt jeg husker så er ikke 1.3 nok til 4K med HDR og 120hz.

 

Jeg trodde komprimeringen var lossless. Det er ihvertfall slik jeg leser det fra Wikipedia:

 

DisplayPort version 1.4 was published March 1, 2016.[20] No new transmission modes are defined, so HBR3 (32.4 Gbit/s) as introduced in version 1.3 still remains as the highest available mode. DisplayPort 1.4 adds support for Display Stream Compression 1.2 (DSC), Forward Error Correction, HDR extension defined in CTA-861.3, the Rec. 2020 color space, and extends the maximum number of inline audio channels to 32.[21]

DSC is a "visually lossless" encoding technique with up to 3:1 compression ratio.[20] Using DSC with HBR3 transmission rates, DisplayPort 1.4 can support 8K UHD (7680×4320) at 60 Hz with 10-bit color and HDR, or 4K UHD (3840×2160) at 120 Hz with 10-bit color and HDR. 4K at 60 Hz with 10-bit color and HDR can be achieved without the need for DSC. On displays which do not support DSC, the maximum limits are unchanged from DisplayPort 1.3 (4K 120 Hz, 5K 60 Hz, 8K 30 Hz).[22]

 

Og fra VESA selv:

 

DSC version 1.2 transport enables up to 3:1 compression ratio and has been deemed, through VESA membership testing, to be visually lossless. 

 

 

Nei, den er dessverre lossy, det der er bare marketing BS. Båndbredden er ikke økt fra 1.3. Altså risikerer man at hvis man har en "vanskelig" bildestrøm så vil den ikke klare komprimeringen, og vil redusere bildekvaliteten merkbart. Det krever også prosessering ved komprimering som vil gi økt forsinkelse av signalet.

 

Hva er da vitsen med DP1.4. Virker som de har tatt snarveier for å kunne bruke UHD@120Hz.

Lenke til kommentar

Se på Twitch/YouTube og lignende. Komprimering må ikke bety stort tap av bildekvalitet, men det kan. Eksempelvis om du ser noe med masse lys på scenen som blinker og skifter posisjon. Eller regn i et spill. Det blir klart tap, og med youtube og twitch blir det fort veldig firkanta. Har du vanlig belysning på scenen, eller spiller spillet i sollys derimot, vil du ikke se forskjell.

Lenke til kommentar

Jeg venter heller til AMD kommer ut med sine grafikk kortene. Jeg trur nok de er kraftigere og har i tillegg bedre drivere en Nivida.

 

Men, vil det hjelpe særlig på hylleprisene av nVidia-produkter, når AMD har fått lansert sine modeller?

Endret av G
Lenke til kommentar

cool-story-bro.jpg

 

Det viser seg gang på gang at de som favoriserer AMD jevnt over har mindre erfaring med PC.

Jeg har bygd PC-er i 15 år og prøvd mye forskjellig. Noen ganger har ATI vært best, men de siste årene har det vært ganske klart hva som har fungert best.

 

 

 

Søt, men litt Miss Piggy-aktig på det fotoet  :wee:

 

Jeg synes det at AMD var nødt å vente til etter at Pascal var lansert, at det forteller veldig mye om hvor dårlig det står til. Men, vi ønsker alle konkurranse.

 

Men om nVidia ikke overpriser kortene i for lang tid, så tror jeg at jeg skal gå for nVidia. Synes det er litt stusselig med Intel Core2 Duo, så den er midlertidig parkert nå når jeg benytter en enda verre nyere bærbar greie (med unntak av grafikk da som er ræve på den bærbare, for jeg har et godt men veldig aldrende GeForce-kort som surret sammen med den Core2'en).

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...