Gå til innhold

AMD har lansert kraftkaren «Fury X» og nye Radeon-kort


Anbefalte innlegg

Han sier ingenting feil her. Ingenting av det han sier er negativt mot AMD. Han er negativ til at han ikke fikk se Fiji, når andre kunder fikk gjøre det. Det er jo noe som er universelt for alle journalister. Hvilken journalist vil ikke få vite om en nyhet tidligst mulig?

 

Han er og kritisk til rebrandingen fra AMD, som han sa var 4 år gamle kort. Det er jo helt logisk. NVIDIA har ikke gjort dette på desktop i det siste. De har beholdt GTX 750. De har ikke noen GTX 950. De har også alle kortene sine på Maxwell. 750 var de første Maxwell kortene, og er derfor også Maxwell. Nvidia har ikke rebrandet noe her, og de har alt på sin nyeste arkitektur. 

 

Hvis du påstår at dette er negativt, betyr det at du liker AMD bedre enn NVIDIA. Han hadde ellers helt rett i sine spekulasjoner frem til nå. Han sier han blir veldig glad hvis Fiji slår Titan X, men han stiller seg veldig tvilende. Siden de da ikke gir han et kort å teste, betyr det sannsynligvis at Fiji godt kan slå 980 Ti, men sannsynligvis ikke Titan X.

 

Ellers har han jo og rett når han sier at AMD ligger bak på alle kortene sine på alt unntatt ytelse i forhold til NVIDIA. Det stemmer og at de som vil ha toppkort kjøper NVIDIA, uten tvil. Du må gjerne påpeke hva som var så negativt med fremstillingen av AMD? Hvilken grunn har han til å være optimistisk angående AMD?

 

@Gabri3L

Jeg ville ikke kalt det imponerende å kunne presse mest mulig ut av en teknologi, fordi du ikke klarer å utvikle en ny. Det er mye mer imponerende å se NVIDIA sine nye teknologier. Maxwell reduserte jo strømforbruket svært overbevisende i forhold til Kepler. Du må sammenligne R9 390X mot et godt overklokket GTX 980 Ti, eller Titan X. Da blir forskjellen ganske stor. Nvidia kunne fått ganske mye ut av Maxwell med rebrands og overklokking. Det trenger de ikke. De trenger ikke, fordi de har noe nytt.

 

Jeg er vel enig i at å kalle det svindel er å gå for langt. De legger jo ikke skjul på at dette er rebrands, samtidig opplyser de heller ikke om det. Det er en klart negativ måte å tolke det på. Samtidig som din eksempelsetning er en positiv måte å tolke det på. Han kunne nok med fordel vært mer nøytral her. Likevel, som jeg skriver så har ikke NVIDIA gjort rebrands på sin GTX til desktop på ganske lenge nå. De er mye bedre enn AMD her. De kunne lett lansert GTX 950 og 950 Ti. Det gjør de ikke. Jeg ser heller ikke at det at han er negativ til rebrands har noen effekt på et review av et produkt som faktisk ikke er rebrand, men helt nytt! Dette blir veldig selektivt av AMD, og det virker ikke som om de har et altfor bra produkt akkurat....

 

 

Ellers så er det morsom å se på kommentarene :) AMD fanboys som klager på manglende kritikk av NVIDIA for GTX 970 og Gameworks. Det til tross for at NVIDIA har fått utrolig utrolig mye kritikk for dette, og denne kritikken mot AMD bare er en brøkdel.

Lenke til kommentar
Videoannonse
Annonse

 

Simple answer : NO.
Spending less time in the API is spending more time on game's computations, which is always good.
 
- Rodéric Vicaire, Software Engineer

 

 

There are tradeoffs when you batch draw calls. Good code should leverage draw calls where necessary and batch where necessary.
 
As the scene gets more graphically complex, and you want to reach a certain level of graphical fidelity, draw calls are likely going to increase with scene complexity.
 
DX12 sin API overhead reduksjon er ihvertfall det som det har værst størst blest om. 

 

Du har jo et poeng her selvfølgelig. Hvis de kan sende flere draw calls, uten at dette påvirker ytelse nevneverdig og dette er lettere og mindre tidkrevende enn å skrive god kode vil de jo ha mer tid til andre ting. Sånn sett kan det jo absolutt gi bedre spill, siden de kan bruke mer av tiden andre steder. Om dette er bra eller dårlig kan vel diskuteres, og vi vil gjerne se resultatet. 

 

Det har vært mest snakk om dette ja. Grunnen er jo alle overskriftene på nettet. DX12 skal åpenbart få spill til å kjøre 30-70% bedre. Da blir folk veldig interesserte selvfølgelig. De eneste testene jeg har sett av DX12 går jo nettopp utelukkende på draw calls, som ikke overraskende betyr enorme forbedringer. Noe som ikke nødvendigvis betyr mye bedre fps. I type dårlig kodede spill som AC:U vil det gjerne, men ikke for resten. Jeg tviler på at en 5% bedre ytelse i spill vil gjøre nye ting mulige for utviklere. Mer tid, fordi de ikke trenger like god kode kan ha noe å si. Det vil jo si at DX12 er like bra som en liten ekstra bonus investering i så fall. Neppe noe  skryte over at DX12 åpner mange nye muligheter for spillet ditt. Jeg tviler litt på at de refererte til økonomi, og ikke tekniske aspekter.

Lenke til kommentar

Igjen; det kommer jo an på hvordan man ser på det. Jeg personlig synes det er litt imponerende om AMD lagde en GPU for snart 2 år siden som holder følge med Nvidias 9 måneder gamle GPU. Du sier Nvidia trenger ikke rebrande fordi de har noe nytt. Men da blir det like riktig å si at AMD trenger ikke lage noe nytt, fordi det de allerede har matcher konkurrenten, så da kan de jo bare rebrande. Jeg tror Maxwell først og fremst var nesten revolusjonerende i strømforbruk, ikke ytelse, selv om det er bedre ytelse også, bevares. Men hiv på 4GB til med RAM på GTX980 så begynner forskjellen i strømforbruk å bli mindre, til det punkt at det ikke har mye å si med mindre du overklokker, eller skal ha flere enn et kort i maskinen. Ellers blir jo 390X en vinner på papiret slik det står nå. 

 

Personlig så er 390X likevel uaktuell, den er for varm, og den har ikke HDMI2.0, den er også for dyr for øyeblikket. Og om noen ba meg gi dem råd om 390 vs 970 så heller jeg igjen mot 970. Med mindre det er et spesifikt scenarie som at personen ønsker noe som kan kjøre 4K senere i dual GPU setup, på grunn av litt dårlig råd. Da tenker jeg 970s 4 (eller 3,5GB) RAM kan komme til kort, og 390 matcher eller slår 970 på det meste. Et 390 i dag, og et til fra brukten om et år, og så en 4K skjerm når de ramler litt mer i pris for eksempel.

 

Jeg syns også det grenser mot svindel å bytte klistremerke på skjermkort og kalle det nytt. Men jeg ser også at man ikke alltid trenger finne opp kruttet på nytt. Det er ingen som klager på at 2015 modellen av Ford Focus er helt identisk med 2014 modellen. (Om de er det.) AMD har lagd noe nytt som slår GTX980 med god margin, de kalles Fury, men kom for sent til å matches mot GTX980. Foreløpig ser Fury X til og med ut som en 980ti "killer" med alt fra lik til 20% høyere ytelse, og 10% høyere i Firestrike opp til 4K. Dette er innovasjonen som folk har etterspurt fra AMD, og den serveres til konkurranse dyktig pris. Jeg synes det blir litt rart å henge seg opp i mulige rebrandinger, når vi svart på hvitt ser at 390X trekker mindre strøm enn forgjengeren til tross for høyere klokk på både GPU og minne, og 4GB ekstra RAM.

Lenke til kommentar

Du sier at AMD kan konkurrere mot NVIDIA med sin Hawaii arkitektur. Det blir jo bare helt feil. Setter du R9 390X opp mot et overklokket GTX 980 Ti så ser du klart at det er en generasjonsforskjell. De er ikke gode nok. Det er en grunn til at AMD må komme med Fiji, fordi de klarer ikke å slå NVIDIA med 2 år gammel arkitektur. Ikke i nærheten.

 

Jeg lurer ellers på hvordan R9 390X er en vinner på papiret? Til tross for relativt lik ytelse som GTX 980, så konkluderer tek med at GTX 980 er det klart beste kjøpet med god argumentasjon for det.

 

Ellers har GTX 970 4 GB VRAM. Alle som sier 3.5 GB tar rett og slett feil. Den beste måten å skrive det på vil være (3.5 GB + 512 mb), for å markere oppdelingen. R9 390 blir lett slått av et Gigabyte GTX 970 OC f. eks. Ellers bruker det mindre strøm, osv osv. I tillegg koster GTX 970 500 kr mindre. Forklar meg hvordan et dyrere kort, med høyere varmeutvikling og driftskostnader er bedre? Den har en liten ledelse i benchmarks, som forsvinner med en gang du kjøper et fabrikkoverklokket 970. Jeg kan se det for meg til 4 SLI/CF pga VRAM. Likevel ville jeg nok ikke kjøpt det nå, ikke til den prisen!

 

Du trenger ikke alltid å komme med noe nytt, men når NVIDIA kommer med noe nytt hver gang og det slår AMD er det på tide med noe nytt. Det hjelper ikke å konkurrere med lik ytelse og lik pris, hvis kortene er merkbart mindre energieffektive. Spesielt ikke når dette betyr at du lett kan overklokke 970 til 19% høyere ytelse (!) Verre er det med chips som er 4 år gamle. Det er en grunn til at det kommer ny teknologi. Dette er og absolutt annerledes enn biler.

 

Ellers er du gjerne klar over det, men det å legge til ekstra VRAM er noe 3. part kan gjøre tom. Som 4GB versjoner av GTX 770 som var et 2 GB kort. Lavere strømforbruk kan ganske enkelt komme av bedre produksjon. Det finnes jo gode og dårlige kort. Etter tid pleier produksjonen å gå bedre og de får flere gode kort og kvaliteten øker. Dermed kan de overklokkes bedre og bruker mindre strøm ved lik klokkehastighet. Det betyr ikke at AMD har gjort noe med dem.

 

Ellers så driver jeg ikke med spekulering i ytelsen til Fiji basert på tall som AMD har lagt ut. Syntetiske tester er og av begrenset nytte. Hvis du ser på dem kommer AMD alltid dårlig ut. Du kan umulig vite at AMD slår 980 med god margin, du sprer bare rykter. Det er veldig sannsynlig mtp prising og ytelsen til R9 390X, men det er fortsatt ikke stadfestende tall. Det blir litt vanskelig å basere en fakta-basert diskusjon på rykter.

Lenke til kommentar

-Snip

 

Jeg må si at noen ganger så virker du og en del andre som deltar i diskusjonen litt vel ensidig , man glemmer fort at Nvidia har sine mangler og ikke minst begrensinger som man kan lure på :

 

*Overklokking av skjermkort som plutselig blir kraftig begrenset i drivere.

*Funksjonalitet som forsvinner fra visse kort etter driveroppdatering.

*Overklokking av bærbare gpu'er.

 

Videre så forstår jeg at når noen går svært negativt ut mot for eksempel en bilprodusent ,da kan dette gjøre at de ikke får muligheten til å låne testmodeller og må heller punge ut selv for å få testet produktet.

Men et skjermkort koster i alle fall ikke så veldig mye i forhold til en bil , så om en journalist da begynner å syte og klage på at Amd ikke ønsker at de skal teste produktet så tror jeg det er mer ren sutring enn vilje , da man trolig fint kan få tak i et skjermkort fra 3dje parts eller kjøpe så fort det er mulig.

Om sutringen går på at man ikke får være "en av de første" så får man heller sørge for en sabla god og nøye test av skjermkortet og heller vise at man med integritet og god journalistikk kan gjøre opp for å komme senere ut med en test og dermed tjene på dette.

 

Nå vil jeg ikke si at 300 serien  er en direkte Rebrand av 200 serien da det er en del endringer i både ytelse og spesifikasjoner som har blitt nevnt tidligere i denne tråden, deriblant noe bedre ytelse per watt , raskere hastighet og noen andre mindre forbedringer.

Om det er gjort noen finpuss rent arkitektonisk er godt mulig og i bunn og grunn er dette forbedrede versjoner av R9 290 kortene.

Dette er faktisk noe som blir gjort over alt (desverre) kan jo ta et godt eksempel med bilstolene til ungene som scoret best i test i 2013 , 2014 og 2015 , (I prinsipp nøyaktig samme stol med noen mindre endringer ) endringene er såpass minimale at det er vanskelig å se forskjell , produsenten derimot utnytter at foreldrene vil ha det "beste" og tar seg godt betalt for egentlig et produkt de lanserte for noen år siden og som ikke er så veldig annerledes med noen minimale endringer...

  • Liker 2
Lenke til kommentar

Du sier at AMD kan konkurrere mot NVIDIA med sin Hawaii arkitektur. Det blir jo bare helt feil. Setter du R9 390X opp mot et overklokket GTX 980 Ti så ser du klart at det er en generasjonsforskjell. De er ikke gode nok. Det er en grunn til at AMD må komme med Fiji, fordi de klarer ikke å slå NVIDIA med 2 år gammel arkitektur. Ikke i nærheten.

 

Det er fort å gå litt i surr når man diskuterer ting som dette. Hva er det vi diskuterer? Hvilket kort som er best? Hvilket kort som er best overklokket? Hva som er det beste kjøpet i forhold til pris? Hvilket kort ville jeg personlig valgt? Ytelse per Watt? Osv.

 

Det er vanskelig å være tydelig på disse tingene uten at postene man skriver blir TLDR. Men når jeg sier at 390X kan måle seg med 980 så snakker jeg om hva den "jevne mannen i gata" må forholde seg til. Folk som kanskje googler frem en benchmark, ser tilnærmet lik ytelse og driter i overklokking, fordi det er alt for mye stress, eller "skummelt".

 

Jeg har faktisk en Ford Focus. En kjekk liten bil med 1.0L Ecoboost motor på 125HK. Motorpressen heiv seg over den, og genierklærte motoren. Helt til neste generasjon Golf kom..

 

Din mening om at 980ti sier noe om hvor utdatert Hawaii/Grenada er. Blir litt som om jeg skulle påstå at min Ford Focus er mye bedre enn den nye Golf'en pga. at det finnes en Ford Focus med 2.0L Ecoboost motor på 250HK, eller fordi jeg kan chip trimme min egen mer enn en Golf. I rettferdighetens navn så må vi nesten sammenlikne de kortene som det gir mest mening å sammenlikne...

 

Jeg lurer ellers på hvordan R9 390X er en vinner på papiret? Til tross for relativt lik ytelse som GTX 980, så konkluderer tek med at GTX 980 er det klart beste kjøpet med god argumentasjon for det.

 

Lik ytelse i benchmarks, men 390X har dobbelt så mye RAM = Bedre på papiret...

 

Ellers har GTX 970 4 GB VRAM. Alle som sier 3.5 GB tar rett og slett feil. Den beste måten å skrive det på vil være (3.5 GB + 512 mb), for å markere oppdelingen. R9 390 blir lett slått av et Gigabyte GTX 970 OC f. eks. Ellers bruker det mindre strøm, osv osv. I tillegg koster GTX 970 500 kr mindre. Forklar meg hvordan et dyrere kort, med høyere varmeutvikling og driftskostnader er bedre? Den har en liten ledelse i benchmarks, som forsvinner med en gang du kjøper et fabrikkoverklokket 970. Jeg kan se det for meg til 4 SLI/CF pga VRAM. Likevel ville jeg nok ikke kjøpt det nå, ikke til den prisen!

Jeg er enig med deg i pris i forhold til ytelse her, 390 er åpenbart ikke verdt 500Kr mer enn 970. Og som jeg sa er sånn sett 390 bare interessant i CF eller CFX konfigurasjon. Så hvem som skulle kjøpe 2stk. 390'er i stedet for 2stk. 970, eller 1stk. 980ti, er de som må planlegge fremover, og samtidig ser at 970 har for lite RAM. 4 vs 3,5GB diskusjonen prøvde jeg strengt tatt unngå. Jeg vet noen ser på det som 3,5 og andre ser på det som 4. Jeg nevnte begge deler for å indikere at jeg har fått med meg kontroversen, og ikke egentlig mer enn det. Om det er 3,5 eller 4 så er begge deler uansett mye mindre enn 390s 8GB, som vel var poenget. Distinksjonen med at det er 3,5+0,5 virker på meg som unødvendig. Blir litt som å selge en bil med "plass til 5", men bare 4 av gangen...

 

Du trenger ikke alltid å komme med noe nytt, men når NVIDIA kommer med noe nytt hver gang og det slår AMD er det på tide med noe nytt. Det hjelper ikke å konkurrere med lik ytelse og lik pris, hvis kortene er merkbart mindre energieffektive. Spesielt ikke når dette betyr at du lett kan overklokke 970 til 19% høyere ytelse (!) Verre er det med chips som er 4 år gamle. Det er en grunn til at det kommer ny teknologi. Dette er og absolutt annerledes enn biler.

 

Ellers er du gjerne klar over det, men det å legge til ekstra VRAM er noe 3. part kan gjøre tom. Som 4GB versjoner av GTX 770 som var et 2 GB kort. Lavere strømforbruk kan ganske enkelt komme av bedre produksjon. Det finnes jo gode og dårlige kort. Etter tid pleier produksjonen å gå bedre og de får flere gode kort og kvaliteten øker. Dermed kan de overklokkes bedre og bruker mindre strøm ved lik klokkehastighet. Det betyr ikke at AMD har gjort noe med dem.

 

Det er din mening at AMD har "undervoltet" en helt vanlig Hawaii som bare er bedre produsert, så mye at ikke bare sparer den inn nok strøm til å overklokkes 5%, men også legge på 4GB ekstra med raskere GDDR5 RAM? Og likevel bruke 15W mindre enn akkurat samme kortet i 290X versjon? OK, men der er altså ikke jeg...

 

Ellers så driver jeg ikke med spekulering i ytelsen til Fiji basert på tall som AMD har lagt ut. Syntetiske tester er og av begrenset nytte. Hvis du ser på dem kommer AMD alltid dårlig ut. Du kan umulig vite at AMD slår 980 med god margin, du sprer bare rykter. Det er veldig sannsynlig mtp prising og ytelsen til R9 390X, men det er fortsatt ikke stadfestende tall. Det blir litt vanskelig å basere en fakta-basert diskusjon på rykter.

Det å benchmarke skjermkort er ikke egentlig rakettforskning. Og AMD kan godt ha testet ting som Fiji ihvertfall for øyeblikket ikke slår 980ti på, og så latt vær å publisere. Så nei, vi har ikke fått hele bildet enda. Men det som AMD har publisert av benchmarks er vitenskapelig gjort. Det vil si: Etterprøvbart. Vi har ingen grunn til å tvile på at disse tallene stemmer.

  • Liker 2
Lenke til kommentar

Det kan virke som jeg bidrar ensidig i debatten. Jeg nevner ikke slike ting som du nevner ovenfor. Det er av en enkel grunn. Det er ikke det som diskuteres, og ikke relevant for diskusjonen. Jeg var av den oppfattelse at vi diskuterte HWen, selve kortene ikke hva NVIDIA har gjort software messig med en helt annen serie kort som ikke konkurrere med disse en gang.  Jeg kan gjerne være med å kritisere NVIDIA for det, men det må i så fall bli en annen tråd.

 

Journalisten misliker det ikke på grunn av kostnadene. Dette er jo veldig dårlig praksis for forbruker. De mest kritiske sidene blir utestengt fra tidlige reviews. Slik er det jo og blant annet med Apple. Du kan si hva du vil, men tidlige reviews er UTROLIG viktige. Techspot leverer alltid noen av de beste reviewsene. Likevel leverer de alltid på samme tid som alle andre. Du kan ikke levere sent. Dette er dessuten veldig dårlig praksis av AMD!

 

Jeg forstår virkelig ikke hvordan elektronikk sammenlignes med biler og barnestoler... Disse sammenligningene virker i overkant søkte. Sannheten er også at NVIDIA med sin nye arkitektur helt klart gjør det bedre enn rebrand arkitektur fra AMD. Dere mener det ikke gjør noen forskjell åpenbart, så lenge ytelse er lik. Det blir jo AMD favorisering. Det blir ensidig. Bare ignorere alle andre aspekter....

 

Ellers viser tek sin test at R9 390X faktisk bruker 28W mer. De må åpenbart måle for hele systemet, så jeg velger heller å tro på techspot sine tall her. De viser at effektforbruk er likt. Jeg bare spekulerte i årsakene til minsket strømforbruk. Dere slår åpenbart fast at dette skyldes arkitekturelle forandringer. Det er interessant når dere ikke har noe bevis for dette. Det er derimot et faktum at produksjon blir mer effektiv over tid, og denne årsaken vil nok uansett andre eventuelle forbedringer være medvirkende. Ellers kan jeg garantere deg at spill som Tomb Raider, Metro:Last Light ikke bruker 8 GB VRAM på 1600p. Dermed blir det ekstra forbruket av 8 GB VRAM bare idle forbruk, som er svært lavt. De er ikke testet i tester der det faktisk brukes 8 GB VRAM aktivt.

 

 

@Gabri3L (avsnittet over besvarer strømbruk for begge)

Det var du som begynte å snakke om at R9 390X var bedre enn 980. Så stiller meg undrende til at du er overrasket over at jeg svarer deg her. Uansett så skriver tek.no ganske tydelig at GTX 980 er et bedre valg for "mannen i gata", hvis en kan si det om folk som kjøper GPU til 5000 kr. GTX 980 er overall bedre enn et R9 390X, jeg ser ikke av noen av testene at VRAM er et hinder her. R9 390X kan godt være bedre for CF ved 4K, men ellers taper den til 980. Det er bare såvidt, ikke mer enn at begge er gode kjøp. Likevel er GTX 980 unektelig det bedre valg her. Jeg ser ingenting som taler R9 390X sin sak her bortsett fra CF?

 

Du vet åpenbart ikke om kontroversen. VRAM på GTX 970 er partisjonert, og 512 MB av VRAMen er saktere enn resten. Dette var ikke et problem før noen gjorde en grundig analyse. Plutselig så hadde alle store problemer. Sannheten er at det påvirker fps minimalt. Sannheten er og at det blir som å ha en bil med plass til 4 passasjerer. Der den ene må sitte i et sete i bagasjerommet, og kommunikasjon går ikke like lett. GTX 970 HAR 4 GB VRAM. Den er delt opp, som kan markeres med 3.5GB+512mb. Det å skrive 3.5GB er helt feil, uansett. 4GB er riktig å skrive.

 

 

Jeg har sett benchmarks fra NVIDIA/Intel/AMD. De stemmer ikke. Enhver som tror på slike benchmarks fra produsent blir i de aller fleste tilfeller lurt. Det er markedsføringstriks alt sammen. Mantle tallene fra AMD stemte ikke. De lyger sånn sett ikke. De bare lar være å fortelle om et par ting med testingen, slik at produktet deres gjør det bra i det de viser uten at noen kan si at de har jukset. Vi har ALL grunn til å tvile på dette. Det har aldri vært korrekt før. AMD påstår f. eks at A10 er kraftigere enn i3 fra Intel. Til tross for at pentium er raskere enn A10-serien. Det er så mye hold det er i tall fra AMD.

Lenke til kommentar

Tkongen : Jo, drivere og problemene med driverne er relevante for diskusjonen nettopp fordi vi snakker om DX12, Mantle , Opengl og det er stadig vekk noe som blir tatt opp og da gjerne ved å poengtere hvor dårlige disse er osv.

Edit : Uansett trenger vi ikke å fortsette diskusjonen der da dette er tatt opp i mente som du påpeker og det jeg ønsket å si har nå blitt gjenttatt mange ganger egentlig...

 

Når det gjelder sammenligningen så var poenget at minimale endringer i modellene per år (noe intel nå har gjort med sine cpu'er de siste årene siden i2500k ) ikke nødvendigvis betyr at det er en ren "rebrand" så lenge det faktisk er forskjell på Årets modell og fjorårets , den største årsaken er nok som alltid at bedriften behøver de ekstra inntektene de kan få ved å endre minimalt på en modell , noe som faktisk ikke er noe nytt for de fleste selskapene jeg kjenner til.

Ser at sammenligningen kan være vanskelig å forstå siden vi snakker om elektronikk , men hadde håpet på at et enkelt eksempel som kan være ganske så normalt for de fleste i 20 - 30 årene og som har / får barn ville synke inn.

 

Jeg kan derimot være enig i at et selskap som Amd burde sende ut skjermkortene sine til samtlige som lager seriøse tester, så lenge testene blir gjort på riktig måte og fremstiller produktet på en måte uten bias for noen av produsentene som sender inn produkter til test.

Endret av Malvado
Lenke til kommentar

Så når Oxide sier at dem gjør ting i Ashes of The Singularity som ikke hadde vært mulig uten D3D12 eller når Dice sier dem vil ha D3D12 som minimum spec i utgangen av neste år pga det vil gi store fordeler, så er det kun basert på latskap, udugelighet og/eller PR løgner?

Grunnen er rimelig enkel; å lage flere rendering paths er kostbart. Selve kodingen av det er ikke den største biten, men QA. Så det er ikke noe galt i rasjonaliteten bak ønsket om å fokusere og kvalitetssikre én render path og et mer begrenset utvalg maskinvare. Jeg vil absolutt ikke kalle det latskap. Hvis du lager et tungt spill så gir det kanskje uansett liten mening å støtte gammel maskinvare, selv om det kanskje er litt tidlig å sette listen på Direct3D 12 som minstekrav, men 11 ville jeg sett ingen problemer med.

 

Kanskje grunnen er heller mer økonomisk, at det er raskere og billigere (utviklingsmessig) med å øke antall draw calls enn å skrive bedre kode.

Jeg kan liste opp noen faktorer:

1) Konsoller har fremdeles stort fokus blant mange spillselskaper.

2) Gammel vane er vond å vende.

3) Den største grunnen er nok at optimal GPU-koding ofte havner på kollisjonskurs med prosjekts programmeringsparadigmer. De fleste spillmotorer er store "vakre" koplekse arkitekturer hvor det gjerne kalles på hvert objekt for at det skal tegne seg selv, og da blir det automatisk drøssevis av API-kall. Du forstår sikkert at det vil kreve noe innsats å samle sammen dette i effektive batches.

 

Et stort antall draw calls over et punkt er vel ikke bare et problem for svake CPU'er, men også for D3D11 i seg selv?

API-overhead er naturligvis en faktor, men den blir relativt liten for kraftige CPUer. Merk at det er ingenting galt i å kutte bort alt som er unødvendig, og jeg blir ikke sur fordi ting blir ørlite raskere ;) Det er egentlig rart at det ikke har blitt gjort før, for dette hadde hatt virkelig god nytte for 5-6 år siden.

 

Men det er viktig å forstå at optimalisering av API-overhead er en lavthengende frukt som gir en éngangsoptimalisering. Vi kan altså ikke forvente at "Direct3D 13" kommer om 3-6 år og noe tilsvarende med å kutte bort mer overhead, for når du har kuttet bort det meste allerede så er der mindre potensiale igjen.

 

Som jeg har nevnt i tidligere diskusjoner om Direct3D 12 så vil ikke denne revisjonen av APIet i seg selv medføre store ytelseforandringer, men små ting her og der. Som vanlig handler det mer om økt fleksibiliet enn mer ytelse. Hvis et selskap fokuserer kun på Direct3D 12 og hevder de dermed fikk bedre ytelse så skyldes det primært at de har hatt fokus på én render path, og at tilsvarende potensiale kunne vært hentet ut av Direct3D 11 eller 10. For en stor spillmotor kan det nemlig bli krevende å tilpasse en stor kodebase til litt forskjellige render paths.

 

"The game (in its current state) is issuing approximately 50,000 draw calls on the DirectX 11 API. Problem is, DX11 is only equipped to handle ~10,000 peak draw calls. What happens after that is a severe bottleneck with most draw calls culled or incorrectly rendered, resulting in texture/NPCs popping all over the place"

Hvis beskrivelsen av symptomene er korrekt så skyldes det feil i implementeringen, API-overhead i seg selv skal ikke introdusere grafiske feil med mindre det er faktiske feil i kode og/eller driver.

 

DX12 sin API overhead reduksjon er ihvertfall det som det har værst størst blest om.

Ja det er det ingen tvil om, men det betyr ikke at "tekniske" journalister forstår nok til å sette det i riktig perspektiv. Produsentene ønsker åpenbart å overdrive, slik at folk kjøper ny maskinvare.

 

Men problemet er egentlig noe som skjer hver gang. Med Direct3D 11 var det tessellation som var det store, og over alt var journalister og forumbrukere i hundre over teknologien, selv om nesten ingen hadde en anelse om hva det faktisk var. Det samme kan vi se rundt på forumet her, entene det er snakk om Mantle, G-Sync, AA-teknikker eller hva som helst annet nytt, og de driver på og misjonerer som noen predikanter, men om de utfordres til å forklare hva teknologien er så viser det seg at nesten ingen er i nærheten av en korrekt beskrivelse.

Lenke til kommentar

Takk for svar efikkan.

 

Jeg stilte forøvrig dette spørsmålet i Beyond3D forumet:

"So is this in term of cost effciency, as in less time in optimizing/minimizing draw calls more time for other things. Or is it also a pure technical limitation with D3D11 which no optimizing can overcome? Either way, is the lower overhead going to be a big step forward in practice?"

 

Og dette er svarene jeg har fått foreløpig:

 

I can't answer technically. Senior members here can provide you more accuracy. But my understanding is that there is no way to optimize your API overhead, but you can optimize around it - hence batched draw calls. In D3D11, say you make a call to draw a triangle strip, maybe that unpacks to 50 instructions for the GPU (that the CPU needs to send), where with D3D12 maybe it only takes 8 instructions. As the instruction overhead drops, that also means that GPU saturation can increase. In this scenario the GPU is waiting for all the commands to come in before it starts doing work, so the less instructions it needs to wait before it starts doing work the better. Lower overhead should result in immediate gains, as well allows for better control over the GPU so there should be less time spent fighting against what the API is doing, and more time programming the graphics for the game.

 

 

 

I suppose small studios might not have people proficient enough to use low level API, that's why MS is updating D3D11, therefore the gain will be freed CPU & GPU time for those able to use those API.
Having finer control over memory and lower overhead in the API will make game streaming much easier and with current hardware flexibility it should open the door for noticable new/improved gfx.
As you said it should also free up dev time that can be spent on better shaders, less aliasing and new techniques...

 

https://forum.beyond3d.com/threads/directx-12-api-preview.55653/page-11

 

Lenke til kommentar

Rebrand, betyr jo bare å sette et nytt navn på den samme varen. Problemet med barnestoler er at behovet er det samme år etter år. For GPUer er kravet høyere år for år. Intel driver ikke med rebrand. De gjør beviselig endringer, spesielt med strømforbruk. Ytelsen er ikke noe å skryte av, men rebrand er det ikke. Det er bare sakte utvikling.

 

Det AMD gjør er jo å ta den samme varen, og putte et nytt merke på den. Jeg skal love deg at hvis AMD hadde gjort noen endringer ved kortet hadde de ikke vært sent ute med å fortelle om det. Det er og blir en rebrand. Selv om ytelsen er lik NVIDIA kan du ikke nekte for fordelene Maxwell har over Kepler i blant annet strømforbruk. Det samme gjelder "Nvidia Thermi, the way its meant to be grilled!" Det er disse grunnene som nå gjør at Nvidia blir det beste valget når ytelse og pris er lik. Det er den samme grunnen som gjør at alle bruker nvidia GPUer til bærbare. AMD skulle nok ønske de kunne lage en skandale med restriksjon på overklokking, men de selger såvidt enheter til det markedet i det hele tatt. De kunne ikke om de ville engang. Den eneste produsenten som pusher AMD er Apple av samme grunn som til konsoll, de vil bare spare penger.

 

Jeg synes AMD og NVIDIA drivere er egentlig ganske så like for de aller fleste, og til vanlig windows bruk. Jeg har aldri sagt at AMD drivere til vanlig windows bruk er dårlige. Jeg er av den oppfatning at det er en gammel oppfatning som fortsatt henger igjen hos noen, men ikke stemmer. Likevel har AMD litt å gjøre SW messig. Som f.eks GeForce Experience. Det er ikke noe avansert, men gjør ting mye lettere, spesielt for folk som vet lite, altså mainstream markedet.

Lenke til kommentar

-Snip-

 

Som jeg sa så har jeg fått med meg kontroversen med 3,5GB saken. Det eneste nye du lærte meg er at det er ganske stor sjanse for at du selv sitter på et eller fler GTX970, og at dette således er et sårt punkt for deg. Jeg ser vanskelig noen annen grunn til å henge seg så voldsomt opp i dette. Spesielt når det som du selv sier ikke påvirker ytelsen i noen stor grad. Skjønt det i seg selv er jo litt ironisk: Når noen påpeker arkitektoniske feil med 970 så er det ved siden av poenget, det er ytelsen som teller. Men med 390X så er det ikke ytelsen som teller, det er hvor gammel arkitekturen er...

 

Når det gjelder Tek sin test må jeg innrømme jeg ikke har lest den. Det kommer jeg neppe til å gjøre heller, de er rett og slett for amatørmessige. Jeg sliter også med å få noe fornuftig ut av TechSpot sine til tider. Men nå er ikke 390X en aktuell kandidat for meg, og derfor har jeg heller ikke lest mange tester om den. Den første jeg fant som var grei og ryddig satt opp var hos HarwareCanucks. De har gitt fullstendig F i 1080p, og da ser fasit slik ut: "the R9 390X is able to leave the reference R9 290X in its dust and even manages to outmuscle the GTX 980 in nearly every test". Det er klart dette ikke er den hele og fulle sannhet. Men for meg så er det litt dumt å utpeke "taperen" som vinneren, fordi den bruker mindre strøm, og kan overklokkes bedre. Det gjør den nemlig bare til vinneren om dette er noe de fleste kommer til å gjøre. På et forum som dette kan man jo få inntrykk av at det er akkurat det som skjer. Men sannheten er at det er svært få som overklokker. Faktum er at selv jeg som fint kunne gjort det, rett og slett ikke gidder. Jeg vil ha det stabilt, og har brent opp nok skjermkort i min tid. Blir det for tregt så er det nytt skjermkort på handlelisten, ikke seigpining av det jeg har..

 

Ellers så mener jeg at KitGuru tråkket over grensen med å bruke ordet "svindel". De har med det diskvalifisert seg selv. Det virker kanskje som en liten bagatell, i det mange av oss tenker at det er akkurat det det er når man får samme dritten med et nytt strøk maling servert som "nytt". Men ordet er rett og slett for sterkt, det å svindle er faktisk kriminelt.

 

Angående AMDs egne benchmarks får jeg da bare repetere meg selv. De ble presentert repeterbare. Altså all relevant informasjon lå vedlagt. Det betyr at de har bevist at benchmarken er korrekt og reell. Om du eller noen andre ikke tror dem, så er det bare å kjøpe inn utstyret de har listet opp, og installere samme programvare/versjoner. Får du et annet resultat da, da kan du si at det er feil med AMDs tall. Ellers så må vi nesten bare akseptere dem inntil uavhengige tester foreligger...

  • Liker 4
Lenke til kommentar

Jeg eier ingen GTX 970, jeg bare misliker når folk skriver noe som er usant. Du skriver 3.5 GB igjen. GTX 970 har 4GB, men folk skriver stadig 3.5 GB. Det er rett og slett feil. Forskjellene i arkitektur mellom Hawaii og Maxwell er store og gir tydelige resultater. Problemene med 970 sin arkitektur er så små at ingen tester oppdaget dem. Dette skjedde måneder etter tester var ute, og ingen hadde merket noe som helst. Alle kan se fra dag 1 hvor mye strøm R9 390X sluker f.eks.

 

Jeg gikk gjennom testene for 1440p. GTX 980 vinner de fleste av testene, som resultatene viser. Uansett hva de velger å skrive i konklusjonen. Det stemmer åpenbart ikke med deres egne tall.

 

Overklokking har noe å si for alle. Resultatene her er med et custom Sapphire kort. Det har bare 5 Mhz økt kjernefrekvens. Kjøper du et helt vanlig Gigabyte kort av en GTX 980 kan du lett forvente oppimot 10% ekstra ytelse. Dermed vil faktisk GTX 980 yte en del bedre enn R9 390X i alle tester, fordi du kjøper noe som er fabrikkoverklokket basert på hvor bra det overklokker. Der et MYE å hente i 980, og fabrikkoverklokkede versjoner av dette gir unormalt store forbedringer. Med R9 390X får du ingenting ekstra. Stock kort er uaktuelt pga varme.

 

Du sier det er korrekt av AMD å inndra kort, fordi de brukte ordet "svindel" en gang i en video? Det er ekstremt strengt, og de gir ikke ekstra sjanser i det hele tatt. Sterkt i strid med norsk lovpraksis f.eks. 

 

Du er klar over at INGEN kan kjøpe Fiji nå og teste selv? Vi får finne ut om det stemmer når folk kan kjøpe Fiji. Inntil da stoler jeg ikke på ubekreftete tall. Det har jeg ingen grunn til å gjøre. Det er ikke opp til folk å motbevise AMD. Det er opp til AMD å bevise at det stemmer. Det er de som har ansvaret for å bevise, det er de som har kommet med en påstand, ikke jeg. Det er rett og slett urimelig at folk som påstår noe ikke trenger å bevise det.

 

Jeg kan si: "grillguden NVIDIA eksisterer". For å bekrefte hans eksistens må du oppta en Buddha-stilling under et tre, og mumle lavt "NVIDIA thermi, the way its meant to be grilled". Det er altså opp til deg å gjøre dette, og motbevise det jeg sier, fordi jeg har forklart hvordan jeg oppdagede hans ekistens.

Lenke til kommentar

@TKongen

 

Du som er så flink til å henge deg opp i detaljer burde da være i stand til å lese en test? Snakker du om HC som jeg linket til? Må vi da gå gjenom hver benchmark, så greit...

 

AC:Unity - Klar seier til GTX980

BF4 - Dødt løp (Eller 0,5 frame seier til 980 på average, men 1 frame seier til 390X på minimum framerate, altså advantage 390X)

Dragon Age: Inquisition - Liten seier til 390X

Dying Light - Klar seier til GTX980

Far Cry 4 - Til og med 290X gir nesten samme ytelse som GTX980, men likevel bare en liten seier til 390X

GTA5 - Liten seier til GTX980

Hitman Absolution - Klar seier til 390X og til og med 290X gir så og si samme ytelse som GTX980

Middle Earth: Shadow of Mordor - Dødt løp igjen (Men igjen advantage 390X siden den har 3 frames høyere minimum framerate.)

Thief - Dødt løp (Igjen er GTX980 kun ranket over 390X pga. at de sorterer på average, i dette tilfellet med 0,4 frames mer, mens 390X har 4 hele frames mer på minimum.)

Tomb Raider - En liten men grei seier til 390X

Total War: Attila - Dødt løp (Igjen samme som over, 390X er bedre på minimum framerate)

Witcher 3 - Grei liten seier til 390X

 

Jeg teller 3 seiere til 980, og 4 seiere til 390X, mens alle jeg kaller "Dødt løp" over, egentlig er bittesmå seiere til 390X. Ettersom vi er på ganske lav framerate i utgangspunktet blir minimum framerate desto viktigere. Og å "vinne" med brøkdeler av en frame er vel egentlig ikke å vinne?

 

På 4K er det fremdeles "win some loose some", men i klarere favør 390X. Kan vi være enige om dette ihvertfall?

 

Det er ikke i strid med norsk lov for et amerikansk firma å ikke låne bort verdifulle skjermkort til folk som kaller dem svindlere på youtube.

 

Jeg er klar over at Fury X ikke er i butikkene enda ja, jeg håpte kanskje det sa seg selv at man må vente til det er i handelen. Men tror du virkelig AMD risikerer en full on shitstorm på å lyve om ytelse, når det er så lett å eventuelt motbevise når kortet kommer i salg, eller når NDA'ene oppheves?

 

Grillguden ja... Men eksempler med biler og barneseter blir for søkt for deg?

  • Liker 3
Lenke til kommentar

 

 

"According to AMD executive Richard Huddy, the only reason AMD built the Nano to a six-inch form factor is because that?s the length of an x16 PCI-Express graphics slot. Without that limit, the company could have knocked roughly another inch off the design."

 

Samt synd at dette bare er "proof of concept". Jeg hadde kjøpt en slik rigg.

Synes fortsatt det er underlig at de har valgt Intel som CPU i disse, har de ikke trua på sitt eget?

Måtte faktisk lage konto for å kommentere på dette her...

Amd har ikke støtte for DDR4 i AM3+ socket.

De har derfor valgt å bruke en cpu/mobo kombo med støtte for dette, de skal selvfølgelig bytte til sin egen "ZEN" så fort denne er klar til bruk.

 

Herifra og ned er det mye svada og fanboys.

Lenke til kommentar

 

 

Kortene kommer nemlig med selskapets nyutviklede HBM-minne, som er både raskere, mer energieffektivt og som opptar betydelig mindre plass på kretskortet enn tidligere benyttede GDDR5-minnebrikker.

 

Den lille finessen hadde jeg ihvertfall sansen for, selv om det er en proprietær del de legger til brikkene. Resten får ymse reviews ta seg av når grafikkortene kommer ut på markedet.  :wee:

Lenke til kommentar

 

 

"According to AMD executive Richard Huddy, the only reason AMD built the Nano to a six-inch form factor is because that?s the length of an x16 PCI-Express graphics slot. Without that limit, the company could have knocked roughly another inch off the design."

 

Samt synd at dette bare er "proof of concept". Jeg hadde kjøpt en slik rigg.

Synes fortsatt det er underlig at de har valgt Intel som CPU i disse, har de ikke trua på sitt eget?

Måtte faktisk lage konto for å kommentere på dette her...

Amd har ikke støtte for DDR4 i AM3+ socket.

De har derfor valgt å bruke en cpu/mobo kombo med støtte for dette, de skal selvfølgelig bytte til sin egen "ZEN" så fort denne er klar til bruk.

 

Herifra og ned er det mye svada og fanboys.

 

Velkommen :)

Z97, som er det kortet de har valgt å bruke, har heller ikke støtte for DDR4.

 

Jeg forstår hvorfor de bruker en Intel CPU, men det er litt rart å se egentlig, trist også på en måte.

Endret av bshagen
Lenke til kommentar

@Gabri3L

Jeg sa aldri at 980 or R9 390X ikke hadde tilnærmet lik ytelse. Det var du som begynte med å ta med sitatet om at R9 390X vinner over 980 i nesten hver eneste test. Du kan mene hva du vil om hva som er viktigst av avg. og minimum. Jeg er forøvrig enig med deg, men den nettsiden rangerer etter avg. og så presterer de å skrive denne løgnen. Ser ikke hvordan de er bedre enn techspot når de ikke vet hvilke resultater de har fått engang? Det jeg talte var jo nettopp hvor mange ganger det ene kortet var over det andre i testene. Jeg så ikke på forskjellen i hver test. Grunnen er jo enkelt, jeg vet allerede at forskjellene er så små at du umulig kan gi ytelseseier til noen av kortene.

 

Ellers står følgende på techspot:

"From the eight games we tested, the R9 390X was on average 9% faster than the R9 290X, 8% faster than the plain R9 390 and 6% slower than the GeForce GTX 980. The fact that AMD is offering such a small performance bump after 18 months will no doubt disappoint many of you. The truly unfortunate part is the R9 390X's price."

Her er jo 1200p også med, som gjør at 980 kommer bedre ut.

 

I Norge prøver vi ikke å bare stappe folk i fengsel. Vi vil at folk skal være med i samfunnet, vi gir folk nye sjanser. I USA er de mye mer aktive med å bare hive hvem som helst i fengsel, selv for mindre lovbrudd. Dermed er det ikke i tråd med norsk kriminalfilisofi å nekte noen et testprodukt, fordi de brukte et ord som var over streken, og viste negativ holdning ovenfor AMD på dette området.

 

AMD får ikke shitstorm pga ytelse. De har gjort dette mange ganger før. Dette er helt vanlig praksis. Folk er vant med at slike tall ikke stemmer. 

 

Det var ikke ment som et bra eksempel. Jeg brukte det for å vise urimeligheten i at jeg må motbevise en påstand for at den ikke skal stemme, istedenfor at AMD skal bevise sin påstand. Det er virkelig ikke opp til meg eller noen andre å motbevise noe som helst. Det er AMD som har noe å bevise her.

 

 

 

Ellers er AMD sitt valg med Intel CPU helt naturlig. De trenger noe som ikke bottlenecker Fiji, og lager minst mulig varme. Det vil være Intel CPU i år. Det vil være Intel CPU neste år. Med mindre noe veldig drastisk skjer hos AMD, som salg vil det være det om 10 år også. AMD produserer utrolig imponerende resultater med tanke på budsjett i forhold til konkurrentene. Problemet er at konkurrentene har mye større budsjett uansett.

Endret av TKongen
Lenke til kommentar

Sitatet mitt var hentet fra konklusjonen til HC. Det betyr at de har analysert resultatene og kåret 390X som vinner i nesten alle tester, og da åpenbart basert på mer enn bare average. At hver test ble presentert med sortering på average, er jo bare for ryddighets skyld. Jeg fatter ikke hvordan du kan få dette til å bli at HC lyver. Spesielt ikke når du attpåtil sier at du er enig i at det blir riktigere å kåre vinneren på minimum når average ligger innenfor feilmargin.

 

Jeg kan heller ikke forstå, som jeg har hintet om flere ganger nå, hva norsk lov har med hva amerikanske selskap foretar seg i USA. Det er ikke en menneskerett å teste skjermkort bare fordi du har en nettside som driver med det. Og som produsent vil det være naturlig å sende review eksemplarer til nøytrale aktører. Kaller du den ene aktøren i et duo-pol for svindler så har du fjernet deg fra det nøytrale. Nå kunne AMD kanskje likevel latt dem teste sin nye Fury X. Men slik internett virker i dag, ville det betydd at alle som bruker google og youtube vil få opp forslag om å se videoen der KG kaller AMD svindlere når de googler etter Fury X reviews. Å distansere seg fra KG er sånn sett det eneste fornuftig AMD kan gjøre. Og med det forhåpentligvis ikke bidra til klikk på en video der de selv blir omtalt så negativt.

 

Og igjen når det gjelder AMDs interne Benchmarks. Hva mener du de skulle gjort utover det de allerede har? Hvordan skulle de bevist noe som helst til din tilfredsstillelse? Det høres jo ut som en umulig oppgave så lenge kortene ikke er i salg. Vi vet at AMD egentlig hadde en NDA på disse benchmarkene som varte til 24. juni i utgangspunktet. Dette er samme dato som tredje parts benchmarker er forventet. Så ombestemmer AMD seg, og sier; OK, bare publiser. Og det vi ser er tilsvarende ryktene som har versert de siste 2 månedene. Det er overhodet ingen grunn til å trekke disse benchmarkene i tvil. Det er en ny arkitektur, med ny teknologi. At den ikke skulle være minst 20-25% raskere enn 390X er nesten helt utenkelig...

Lenke til kommentar

Jeg kan heller ikke forstå, som jeg har hintet om flere ganger nå, hva norsk lov har med hva amerikanske selskap foretar seg i USA. Det er ikke en menneskerett å teste skjermkort bare fordi du har en nettside som driver med det. Og som produsent vil det være naturlig å sende review eksemplarer til nøytrale aktører. Kaller du den ene aktøren i et duo-pol for svindler så har du fjernet deg fra det nøytrale. Nå kunne AMD kanskje likevel latt dem teste sin nye Fury X. Men slik internett virker i dag, ville det betydd at alle som bruker google og youtube vil få opp forslag om å se videoen der KG kaller AMD svindlere når de googler etter Fury X reviews. Å distansere seg fra KG er sånn sett det eneste fornuftig AMD kan gjøre. Og med det forhåpentligvis ikke bidra til klikk på en video der de selv blir omtalt så negativt.

Har hørt på videoen hans nå, og har følgende observasjoner:

- Han er kritisk til at AMD ikke viser hardware til pressen (greit nok). Her er det også sleivspark til Nvidia (viser kort med "tre-skruer", etc.)

- Han er kritisk til at AMD rebadger flere generasjoner tilbake 300-200-7000 serie. Det er fair nok.

- Han sier at det er "ridiculous" at de rebadger nok en gang. Spesielt fordi alle produktene i 300-serien nå er rebrand.

- Han påpeker også at konkurrenten ikke gjør noen rebrands nå...

 

På ingen tidspunkt sier han svindel, han sier galskap. Dette må da virkelig være innenfor hvilken frihet pressen skal ha. Nvidia fikk også gjennomgå etter 970-fiaskoen, men de kastet ikke ut noen journaliser grunnet dette.

 

Bare et spørsmål Gabri3L: Hvis for eksempel Aftenposten hadde skrevet i en leder eller kommentar at de synes det er galskap et Regjeringen gjennomfører en gitt politikk. Synes du da det er riktig at Regjeringen skal "boikotte" Aftenposten, og ikke invitere de på fremtidige pressekonferanser?

 

 

Og igjen når det gjelder AMDs interne Benchmarks. Hva mener du de skulle gjort utover det de allerede har? Hvordan skulle de bevist noe som helst til din tilfredsstillelse? Det høres jo ut som en umulig oppgave så lenge kortene ikke er i salg. Vi vet at AMD egentlig hadde en NDA på disse benchmarkene som varte til 24. juni i utgangspunktet. Dette er samme dato som tredje parts benchmarker er forventet. Så ombestemmer AMD seg, og sier; OK, bare publiser. Og det vi ser er tilsvarende ryktene som har versert de siste 2 månedene. Det er overhodet ingen grunn til å trekke disse benchmarkene i tvil. Det er en ny arkitektur, med ny teknologi. At den ikke skulle være minst 20-25% raskere enn 390X er nesten helt utenkelig...

NDA til 16. juni står det på de slidene.

Kan ikke si at det er noe galt i det hele tatt med hva AMD publiserer her. De publiserer tall, og de publiserer også hvilke innstillinger de har kjørt på.

 

Det som derimot er litt suspekt er enkelte av innstillingene. De bærer preg av å være "plukket ut med omhu", det er ikke bare "max kvalitet" slik gamere ofte er opptatt av. Her kommer uansett fasiten ut om noen få dager, så dette er ikke noe å henge seg opp i.

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...