Gå til innhold

Slik blir Nvidias nye skjermkort


Anbefalte innlegg

Videoannonse
Annonse

Jeg snakker ikke om sannhetsverdien her, jeg snakker om kildebruk i media! De eneste som ikke ville publisert en nyhet som dette om den kom fra troverdige kilder er tydeligvis du.

Jeg tipper spesifiasjonene blir 100% identisk med denne artikkelen, mens prosentsatsen opp mot Radeon kort antageligvis er sterkt overdrevet.

Så har det seg dessverre slik at en av to (noenlunde) troverdige kilder om Nvidia-skjermkort er Nvidia selv og anmeldere av gitte skjermkort. Du kan henvise til fabrikkarbeider X i land Y eller kontakt Z fra partner W, men når alt kommer til alt er det ikke særlig troverdige kilder. Vi kan si noe om ytelsen og spesifikasjonene når kortene lanserer, alt som sies før dette bør tas med en klype salt med mindre det er 20 forskjellige kilder og poster på forum som viser til at ytelsen legger seg på omtrent samme nivå (Bulldozer.)

 

Angående spesifikasjoner bommet Nvidia selv kraftig på sine spesifikasjoner rundt Fermi:

Originalt: 512 shadere @1500MHz

Revidert: 512 shadere @1250-1300MHz

Lansering: 480 shadere @1400MHz

 

SemiAccurate GK110 tapes out

Semiaccurate begynner på enkelte vis å få en ganske god historie om å treffe ganske bra med estimatene sine, men jeg hadde ikke stolt på noe annet fra denne enn at GK110 har fått en tapeout for å begynne produksjon av brikka og at den er enorm (som alle tidligere brikker fra Nvidia.)

 

Med andre ord tviler jeg på at vi kan si noe interessant om ytelsen før vi kommer en måned unna lansering, i verste fall må de kjøre et par respins på tapeouten grunnet dårlig yield og ytelse, og vi får en lansering som får GTX 480 til å virke som HD 6870. I beste fall er yields fenomenale og GK110 yter 100% bedre enn GTX 580. Realistisk tipper jeg et sted imellom med grei ytelse og greit strømforbruk.

 

All this is true, men det er som sagt ikke sannhetsverdien jeg snakker om.

Lenke til kommentar
Det betyr at de gjør det motsatte av hva AMD gjorde med deres HD 7900-serie, det skjermkortene ble papirlansert én dag, men ikke var tilgjengelig i butikkene før flere uker senere.
Jaha? Syns å huske det kun var HD 7970, ikkje "HD 7900 serien", som også inkluderte HD 7950.

 

HD 7950 var å sjå i butikkane på lager samme dag som reviews og alt av informasjon reelt dukka opp. :roll:

  • Liker 1
Lenke til kommentar

arni90: Har du kildene til de påståtte Fermi-spesifikasjonene? Bare synest det ville vært interessant.

http://semiaccurate....-hacked-gtx480/

Noe anti-Nvidia i artiklene, men det er bra med kilder.

Overraskende hvor bra han traff også faktisk

En rask kikk sier dette er typiske SemiAccurate-artikler med ingen ordentlige kilder og ville påstander. Jeg tenkte mer på noe konkret fra nVidia selv, hvor har nVidia lovet dette for GTX 480? Men se igjen nå med Kepler, SemiAccurate fosser da ut med rykter i alle retninger, så noe må da treffe bra ;)
Lenke til kommentar

arni90: Har du kildene til de påståtte Fermi-spesifikasjonene? Bare synest det ville vært interessant.

http://semiaccurate.com/2010/03/29/why-nvidia-hacked-gtx480/

Noe anti-Nvidia i artiklene, men det er bra med kilder.

Overraskende hvor bra han traff også faktisk

Som jeg har sagt gjentatte ganger så bommet han ganske kraftig, med flere fundamentale ting...

 

For å nevne en ting... Han påstod blant annet inntil et par måneder før Fermi-lanseringen at Nvidia kom til å gjøre tesselering i software (kun med shadere), noe som var riv ruskende galt.

Lenke til kommentar

En rask kikk sier dette er typiske SemiAccurate-artikler med ingen ordentlige kilder og ville påstander. Jeg tenkte mer på noe konkret fra nVidia selv, hvor har nVidia lovet dette for GTX 480? Men se igjen nå med Kepler, SemiAccurate fosser da ut med rykter i alle retninger, så noe må da treffe bra ;)

GT300 to pack 512 shader processors

 

C2050/2070 PDF Sheet november 2009 - Nvidia.com

at around 190 watts

C2050: 520 GFLOPs

C2070: 630 GFLOPs

 

C2050/2070 PDF sheet july 2010 - Nvidia.com

C2050: 238W

515 GFLOPs

 

Finner ingen gode kilder på 750MHz, men det er trygt å anta at de aller fleste forventet denne hastigheten om du ruller gjennom 5 sider fra diverse forum.

Endret av arni90
Lenke til kommentar
Raptor' timestamp='1328662032' post='18923577']

Som jeg har sagt gjentatte ganger så bommet han ganske kraftig, med flere fundamentale ting...

 

For å nevne en ting... Han påstod blant annet inntil et par måneder før Fermi-lanseringen at Nvidia kom til å gjøre tesselering i software (kun med shadere), noe som var riv ruskende galt.

Contrast that with the GT300 approach. There is no dedicated tesselator, and if you use that DX11 feature, it will take large amounts of shader time, used inefficiently as is the case with general purpose hardware.

Virker definitivt som han trodde at det var gjort i selve shaderkjernene, i praksis er det jo dedikerte enheter som utførerer tesselering. Han traff fortsatt rimelig bra på de fysiske målene:

Størrelse

Strømforbruk

Praktisk gjennomførbarhet

Lenke til kommentar

Beklager litt at jeg Quoter deg igjen, men ubeskrivelig mengder feil? må du beskrive nærmere i forhold til 590gtx, rent bortsett fra stuttering som skal kunne forekomme på dual gpu, men som jeg selv sjelden har merket med mine dual kort, samt mangel på drive støtte men det kommer jo etterhvert. Har hatt 590gtx siden release selv som har oppført seg serdeles pent (Oc muligheter på spenning ble jo fjernet, om det er dette du tenker på). - Du skriver videre at det ikke gjir en topp ytelse som 580gtx gir, hva mener du? 590 gtx yter bedre å er etter alt jeg vet toppkortet til nVidia pr i dag.. ja det har Dual gpu der gir jeg deg rett i, men 1 kort i 1 slott.

GTX 590 er fail i mine øyne av disse grunnene:


  •  
  • Overklokking med spenningsjustering (og noen ganger uten) dreper kortet.
  • Ytelsen når du beveger deg over 1920x1080 (som du må for å faktisk nyttegjøre deg ytelsen i dette kortet) er generelt et hakk bak HD 6990
  • Støynivå er for høyt til at det er et viktig poeng.
  • Null støtte for surround-gaming (eyefinity) når SLI ikke fungerer
  • Microstutter
  • Driveravhengighet
  • Fungerer ikke SLI sitter du med ytelse sammenlignbart med et overklokket 560 Ti
  • SLI/CFX-Skalering er aldri like bra som benchmarks sier.
  • Du vil oppleve småhakking til tider uansett hva du prøver.

 

Det er for mange dealbreakers til at de små fordelene du får med 50% bedre (benchmark)ytelse du får over et 580 er verdt det. Om du ønsker et eksempel på Microstutter i handling har jeg flere videoer å vise til:

Litt eldre video:

, 9800GX2 får høyere framerate, men "spillbarheten" er ikke i nærheten av GTX 280.

 

Techspot har også begynt å gjøre noen interessante tester rundt dette. les her. CFX/SLI-ytelse måles definitivt høyere enn enkeltkort, men ikke så mye bedre at det blir verdt det før man beveger seg mot ytelsessegmenter der et enkelt kort ikke er i nærheten av nok (5760x1080)

 

Synes selv jeg allerede hadde nevnt de viktigeste av problemene. Men støynivå er absolutt ikke for høyt, den høye støvsuger lyden i Ati sine Dual kort er ikke til å holde ut som er en av hovedgrunnene til at jeg byttet ut 5970 - 5990 CF (om jeg husker navnene rett i farten), så støy argumentet blir feil, i alle fall i forhold til konkurenten, derfor har aldrig 6990 vært noe jeg har vurdert (det er som å ha på en støvsuger under load). kan jeg skrive under på. Driver problemer har jeg videre aldrig hatt, bortsett fra Clifs over Dover som er en fly simulator spill, sli støtte ble fikset 2 mnd senere. Jeg haddet 580gtx før 590 gtx , kan i så måte også skrive under på at ytelsen er betydelig høyere i samtlige spill.

 

Det har vider aldrig vært prisgunstig å kjøpe Highend, den biten sier seg selv.

 

Har du testet selv siden du er så bastant samt frarådende ang 590gtx?.

Endret av simalarion
Lenke til kommentar

Synes selv jeg allerede hadde nevnt de viktigeste av problemene. Men støynivå er absolutt ikke for høyt, den høye støvsuger lyden i Ati sine Dual kort er ikke til å holde ut som er en av hovedgrunnene til at jeg byttet ut 5970 - 5990 CF (om jeg husker navnene rett i farten), så støy argumentet blir feil, i alle fall i forhold til konkurenten, derfor har aldrig 6990 vært noe jeg har vurdert (det er som å ha på en støvsuger under load). kan jeg skrive under på. Driver problemer har jeg videre aldrig hatt, bortsett fra Clifs over Dover som er en fly simulator spill, sli støtte ble fikset 2 mnd senere. Jeg haddet 580gtx før 590 gtx , kan i så måte også skrive under på at ytelsen er betydelig høyere i samtlige spill.

 

Det har vider aldrig vært prisgunstig å kjøpe Highend, den biten sier seg selv.

 

Har du testet selv siden du er så bastant samt frarådende ang 590gtx?.

Har aldri prøvd akkurat GTX 590, men GTX 580 SLI støyet for mye i mine ører.

Driverstøtte for SLI er alltid noe man støter på, spørsmålet er bare når, og hvor obskure spill du spiller.

 

Når GTX 570 SLI benker like bra/bedre avhengig av fabrikklokk uten like mange ulemper er det også veldig vanskelig å anbefale GTX 590.

 

Uansett er jeg ferdig med SLI/CFX-tull, sannsynligvis inntil ønsker om å få P50 000 i 3DMark X eller om jeg plutselig får nok penger til å kjøre eyefinity.

Lenke til kommentar

Hmm det ene ryktet sier at Keplar ikke vil ha en "shader hotclock", mens de andre ryktet (ut i fra grafen) sier at de vil forsette med "shader "hotclock".

Shader hotclock vil egentlig si at shaderen blir kjørt dobbelt så fort i forhold til resten av kortet.

Er veldig usikker om denne posten er fake eller ikke, med tanke på hva arni90 sier.

Lenke til kommentar

Synes selv jeg allerede hadde nevnt de viktigeste av problemene. Men støynivå er absolutt ikke for høyt, den høye støvsuger lyden i Ati sine Dual kort er ikke til å holde ut som er en av hovedgrunnene til at jeg byttet ut 5970 - 5990 CF (om jeg husker navnene rett i farten), så støy argumentet blir feil, i alle fall i forhold til konkurenten, derfor har aldrig 6990 vært noe jeg har vurdert (det er som å ha på en støvsuger under load). kan jeg skrive under på. Driver problemer har jeg videre aldrig hatt, bortsett fra Clifs over Dover som er en fly simulator spill, sli støtte ble fikset 2 mnd senere. Jeg haddet 580gtx før 590 gtx , kan i så måte også skrive under på at ytelsen er betydelig høyere i samtlige spill.

 

Det har vider aldrig vært prisgunstig å kjøpe Highend, den biten sier seg selv.

 

Har du testet selv siden du er så bastant samt frarådende ang 590gtx?.

Har aldri prøvd akkurat GTX 590, men GTX 580 SLI støyet for mye i mine ører.

Driverstøtte for SLI er alltid noe man støter på, spørsmålet er bare når, og hvor obskure spill du spiller.

 

Når GTX 570 SLI benker like bra/bedre avhengig av fabrikklokk uten like mange ulemper er det også veldig vanskelig å anbefale GTX 590.

 

Uansett er jeg ferdig med SLI/CFX-tull, sannsynligvis inntil ønsker om å få P50 000 i 3DMark X eller om jeg plutselig får nok penger til å kjøre eyefinity.

 

Men 570gtx sli er 2 stk kort, hele svar rekken min går jo på at nVidia sitt highendkort er 590gtx, 1 kort, 1 slott, highend 590gtx (som da er nVidia sitt Highend kort på samme måte som 6990 på regnes som Highend kortet til AMD/ATI). Så problematisk du beskriver Dual gpu (nå 590gtx)har jeg ikke opplevd det, som var det andre jeg satt fingeren på i diskusjonen , som jeg da ønsket en bedre forklaring på da jeg som nevnt verken opplever støy eller vært spesielt plaget med driver problemer ang sli støtte, men surt at man ikke får Voltklokket, den kjøper jeg.

 

Hadde vi diskutert mest FPS for pengene kunne svaret muligens blitt 570gtx i sin tid. Men det er jo en annen diskusjon..... Videre er da et annet argument, Har alle 2stk pci-ekspress slotter osv osv osv

Endret av simalarion
Lenke til kommentar

En rask kikk sier dette er typiske SemiAccurate-artikler med ingen ordentlige kilder og ville påstander. Jeg tenkte mer på noe konkret fra nVidia selv, hvor har nVidia lovet dette for GTX 480? Men se igjen nå med Kepler, SemiAccurate fosser da ut med rykter i alle retninger, så noe må da treffe bra ;)

GT300 to pack 512 shader processors

 

C2050/2070 PDF Sheet november 2009 - Nvidia.com

at around 190 watts

C2050: 520 GFLOPs

C2070: 630 GFLOPs

 

C2050/2070 PDF sheet july 2010 - Nvidia.com

C2050: 238W

515 GFLOPs

 

Finner ingen gode kilder på 750MHz, men det er trygt å anta at de aller fleste forventet denne hastigheten om du ruller gjennom 5 sider fra diverse forum.

GF100 fikk da 512 kjerner, bare med 1 SM deaktivert. Så vidt jeg kan se har alle offisielle lovnader snakket om arkitekturen, ikke om konkrete produkter som "GTX 480".

 

Hva "de fleste" forventer er egentlig ganske irrelevant, spesielt når de er basert på spekulative rykter. Bare se på hvor lenge Fermi ble omtalt som GT300 og produktet "GTX 380". Jeg bare synest vi får samme lekse om og om igjen, nettet flommer over av ville påstander, mens jeg og noen til prøver å mane til realistiske forventninger. Det skjedde ved G80, og har hendt hver gang siden.

Lenke til kommentar

GF100 fikk da 512 kjerner, bare med 1 SM deaktivert. Så vidt jeg kan se har alle offisielle lovnader snakket om arkitekturen, ikke om konkrete produkter som "GTX 480".

 

Hva "de fleste" forventer er egentlig ganske irrelevant, spesielt når de er basert på spekulative rykter. Bare se på hvor lenge Fermi ble omtalt som GT300 og produktet "GTX 380". Jeg bare synest vi får samme lekse om og om igjen, nettet flommer over av ville påstander, mens jeg og noen til prøver å mane til realistiske forventninger. Det skjedde ved G80, og har hendt hver gang siden.

Det er jo bare å google, så finner du flere tegn på at Nvidia selv hintet til 512 kjerner og lavt strømforbruk.

http://www.theregister.co.uk/2010/05/04/nvidia_appro_supermicro_gpu/

The Fermi graphics chips previewed had 512 cores, but for reasons that Nvidia has not explained - and which probably involve chip yields and heating issues - the GeForce graphics cards and Tesla 20 coprocessors that have started shipping only have 448 working cores.

 

Har ikke de helt enorme forventningene til GK110 jeg heller, tviler ikke på at enkelte spill vil kjøre 45% raskere på Kepler enn Tahiti XT med de rette forutsetningene. Men å forvente 45% raskere jevnt over Tahiti XT er ønsketenkning og rimelig naivt. G80 knuste jo derimot alt som var ute da den lanserte, men man kan ikke si at GTX 280 og GTX 480 gjentok den samme prestasjonen

Lenke til kommentar

Viss dere lurer på om det er lurt å invistere i en 590/690 modell, så se på nvidias spill side. Der står det hva slags spill som støtter/bruker SLI, listen er egentlig liten. Så å kjøpe en toppmodell er en lurere invistering (singel skjermkort). Det er så klart en annen sak med tanke på om det er et spesifikt spill man må ha høy oppløsning, 3D og framerate på.

Lenke til kommentar

Sitter i dag på Geforce 580 GTX med 2600k på 4.9GHz. Det holder forsatt ikke til all eyecandy i alle spill. Hvis ryktene stemmer på specs så har 680 GTX 55,40% mer ytelse en 580 GTX rent teoretisk. Det er før du eventuelt tar med driver opptimalisering og ekskludere andre faktorer og kun fokusere på specs. Som en eller annen før i tråden sa så holder jeg meg og vekke i fra SLI, micro stuttering ødelegger opplevesen for meg som er sensetiv for det og jeg anser ikke 590 eller 690 som toppkort. Mer som nedskalerte versjoner av toppkort på en pcb. Håper uansett på en pris under 5000kr som er det jeg er vant med å betale for et toppkort singel gpu. Gleder meg! :dribble:

Lenke til kommentar
Jeg snakker ikke om sannhetsverdien her, jeg snakker om kildebruk i media! De eneste som ikke ville publisert en nyhet som dette om den kom fra troverdige kilder er tydeligvis du.
Det jeg og flere andre forsøkte å fortelle deg helt fra start av var at dette ikke har noen nyhetsverdi når det overdrives i så kraftig grad at det hele bare blir på grensen til latterlig. Jeg forsøkte dog å påpeke dette innlegget fra knopflerbruce for deg, for å stoppe det der før det skled helt ut. Noe du tydeligvis ikke ønsket.

Problemet er at om en tenker etter er det sannsynlig at de har smurt så tykt på at de fleste skjønner at det er noe muffens med disse tallene.

Alle forstår PR og nyhetsverdi av rykter hvis de har et snev av rot i realiteten og hva man tror man kan forvente av et produkt i beste fall. Dette derimot var helt hinsides, noe også GDI hintet tydelig om.

 

[Adminnotis: Fjerna sitat til innlegg som er sletta]

Lenke til kommentar
Gjest Slettet+3165

Vist GTX660 yter like godt som et GTX580 og havner på under 2000, spiser jeg hatten min før jeg bestiller et (dekker mine behov mer enn nok om det er tilfellet).

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...