Gå til innhold

TEST: AMD Radeon R9 380X


Anbefalte innlegg

 

 

 

Jeg syns alltid det er interessant å se hvordan Tek.nos journalister forholder seg til priser - spesielt midt oppi det pågående valutakjøret.

 

Hvorfor er 380X dyrt sammenlignet med 380 og 960? Fordi sistnevnte fremdeles selges etter innkjøpspriser fra før kronekursen gikk i dass. Veiledende dollarpris for 380X er $229 - 30 dollar eller 15% høyere enn 380 ($199). Gitt matchende kronekurs for innkjøp ville 380X dermed kostet 2300.- mot 380s 2000.- - 200 kroner mer enn 960, og med betydelig bedre ytelse. Om en måned eller to vil dette antageligvis korrigere seg etter hvert som eldre varer går ut av lager, og plutselig er AMD langt bedre stilt.

 

Gode journalister ville vært klar over dette.

380: 180 $:

http://www.newegg.com/Product/Product.aspx?Item=N82E16814125794&cm_re=r9_380-_-14-125-794-_-Product

960: 170 $:

http://www.newegg.com/Product/Product.aspx?Item=N82E16814487091&cm_re=gtx_960-_-14-487-091-_-Product

R9 390 280 $:

http://www.newegg.com/Product/Product.aspx?Item=N82E16814131672R&cm_re=r9_390-_-14-131-672R-_-Product

GTX 970 290 $:

http://www.newegg.com/Product/Product.aspx?Item=N82E16814487076&cm_re=gtx_970-_-14-487-076-_-Product

 

380X retail price 230$, som er akkurat i midten av 380 og 390, 50$ hver retning. For NVIDIA blir det 60 $ hver retning.

 

Med matchende priser havner altså 380X 600 kroner over 960, ikke 200 kr som du skriver. Bare en liten forskjell på 300%. Hvis du ser på innlegget mitt tidligere så sier altså en side som tester og baserer seg på dollarpriser at kortet koster for mye.

 

Gode journalister skriver tester som er relevant for forbrukere. Ikke hva de kunne forventet seg om de bodde i USA. Det blir bare dumt. Gode journalister skriver og tester basert på aktuell pris, ikke hypotetisk pris i fremtiden. Hvis du f. eks se på telefoner som LG G4 og Galaxy S6 er de langt ned i pris fra tidligere, mens iPhone er relativt likt. Likevel er det ingen som tar med det i testene, "Denne telefonen blir sannsynligvis mye billigere om 6 mnd". 

 

De har tom skrevet i en notis i slutten at de kommer til å følge med å se når den får pris i butikken og justere karakter om prisen blir lavere enn satt utsalgspris. Så her tar de ekstra ansvar for å følge opp saken videre, selv om de strengt tatt ikke må. Ville du ikke sagt det var et tegn på god journalistikk?

 

 

Man kan ikke sammenligne veiledende priser med faktiske butikkpriser - spesielt ikke på produkter som har vært ute lenge nok til å gå merkbart ned i pris. Dette gjelder både 380 og 960. Veiledende pris for begge to er $199. Sier jeg at det ikke spiller noen rolle at de faktisk er billigere i dag? Nei. Men sjansen for at 380X vil se tilsvarende priskutt i løpet av kort tid (eller iaf. førjulstilbud) er ekstremt stor.

 

Er GTX 970 et bedre kjøp med dagens norske priser? Helt klart. Er GTX 960 et bedre valg, til lavere pris? Tja - det yter så og si likt med R9 280, som er billigere. Å konkludere så bredt og avvisende som "velg Nvidia" basert på prisen på lanseringsdagen er svak journalistikk. Og det er en liten stemme inni meg som sier at om dette var et Nvidia-kort ville konklusjonen heller vært i retning av "Dagens priser i norske nettbutikker ligger noe over veiledende pris, og til denne prisen vil vi ikke anbefale dette kortet. Skulle dette endre seg, eller prisen synke under..." osv. Jeg sier ikke at dette er bevisst fra journalistens side, men AMDs image som "lavprismerke" er blitt litt for innprentet hos mange i senere år.

Jeg er helt enig, stoler aldri konklusjonene deres...

 

Hvor er testen av 390 forresten? Regner med at dere kjøper Nvidia kort selv rett etter lansering om dere ikke skulle få et, men dropper å teste AMD kort om dere ikke skulle få en testkit. 390 hever seg over 970 i ytelse pluss goder som 8GB VRAM og sterkere compute ytelse.

 

DERE sier selv velg Nvidia nærmere bestemt 970 NÅR dere IKKE har testet hovedkonkurrenten 390!!

"Grunnen heter Nvidia, nærmere bestemt GTX 960 og GTX 970."

"Vi har ikke testet dette kortet, men modellen over, R9 390X og kan derfor ikke uttale oss om ytelsen til denne modellen."

 

Så hvis jeg ("en som ikke vet noe om GPUer") skal kjøpe en GPU så skal jeg velge 970 selv om dere ikke kan si noe om ytelsen til 390 som koster 300kr mer??? 

Endret av spots
Lenke til kommentar
Videoannonse
Annonse

Jeg sier heller ikke at de skal anbefale dem, men det TEK i praksis gjør her er å gi negativ anbefaling av 380. Det er et veldig aktuelt kort i konkurranse med 960, men det er tatt helt vekk i konklusjonen. 

 

Selv om AMD har "rebranded" kortene sine, så er det vel meningen at TEK med sine tester skal være informative for nye kjøpere i dagens marked? Da bør også "dagens" kort testes.

 

TEK har i mine øyne tapt seg voldsomt de senere årene. men det blir en helt annen diskusjon. 

 

Edit:

La du merke til setningen fra innledningen (første side av testen): "Mens vi fra andre tester vet at R9 380 yter på linje eller noe bedre enn GTX 960, forventer vi selvsagt at R9 380X skal gå forbi."

 

Er du ute etter å skrive negativt om tek? De har ikke tatt det emd, det betyr ikke at de sier det er dårlig. Tek har ikke evig ressurser til å teste grafikkort, enkelt og greit. Det burde ikke komme som et sjokk at tek ikke er den siden som tester GPU grundigst. Hvis du mener det er et dårlig råd av tek.no å anbefale de to mestselgende GPUene på markedet, så bør du ha en veldig god grunn til å gjøre det.

 

Intro og konklusjon er forskjellige.

 

 

Man kan ikke sammenligne veiledende priser med faktiske butikkpriser - spesielt ikke på produkter som har vært ute lenge nok til å gå merkbart ned i pris. Dette gjelder både 380 og 960. Veiledende pris for begge to er $199. Sier jeg at det ikke spiller noen rolle at de faktisk er billigere i dag? Nei. Men sjansen for at 380X vil se tilsvarende priskutt i løpet av kort tid (eller iaf. førjulstilbud) er ekstremt stor.

 

Er GTX 970 et bedre kjøp med dagens norske priser? Helt klart. Er GTX 960 et bedre valg, til lavere pris? Tja - det yter så og si likt med R9 280, som er billigere. Å konkludere så bredt og avvisende som "velg Nvidia" basert på prisen på lanseringsdagen er svak journalistikk. Og det er en liten stemme inni meg som sier at om dette var et Nvidia-kort ville konklusjonen heller vært i retning av "Dagens priser i norske nettbutikker ligger noe over veiledende pris, og til denne prisen vil vi ikke anbefale dette kortet. Skulle dette endre seg, eller prisen synke under..." osv. Jeg sier ikke at dette er bevisst fra journalistens side, men AMDs image som "lavprismerke" er blitt litt for innprentet hos mange i senere år.

 

Så tek bør skrive: "Dette kortet er sannsynligvis bra om 2 måneder" ? Det er INGEN som tester slik. Gjeldende priser teller. Hvis AMD starter for høyt og får dårlige anmeldelser av nettsider, som de gjør, så er det AMD sitt problem. Hvis de har tenkt å selge lavere, selg lavere. Du kommer her og sier at tek skal sammenligne R9 380X sin teoretiske pris med 960 sin teoretiske pris? Dette er ikke teori. Det er en test for hjelp av hva du skal kjøpe. Da gjelder gjeldene priser.

 

Du har åpenbart ikke lest testen heller:

"NB: Prisen er en stor del av karaktergrunnlaget. Vi vil følge nøye med på hvilken pris nettbutikkene tar for R9 380X og vil vurdere karakteren igjen litt senere om det viser seg at kortet blir rimeligere. Den offisielle prisen fra AMD ligger på 2650 kroner, mens kortet i skrivende stund selges i et par norske nettbutikker for 2800 kroner. Det er på den nåværende salgsprisen kortet er vurdert."

 

Så de skriver faktisk en notis på prisen, fordi de er klar over at prisen kan endre seg. De gjør akkurat det du klager på at du vil e skal gjøre, men likevel klager du. Kom du her for å diskutere artikkelen, eller så du kjapt over grafene og kom for å klage etter du så karakteren? 

 

Og som AtW sa. Er ikke nvidia-fanboy i hver test der AMD ikke kommer godt ut litt gammelt nå? Det kommer i hver test, samtidig som Nvidia stiger til 80% markedsandel. De er ikke fanboys hvis de sier at produsenten med 80% markedsandel har massevis av gode kort.

 

 

Jeg er helt enig, stoler aldri konklusjonene deres...

 

Hvor er testen av 390 forresten? Regner med at dere kjøper Nvidia kort selv rett etter lansering om dere ikke skulle få et, men dropper å teste AMD kort om dere ikke skulle få en testkit. 390 hever seg over 970 i ytelse pluss goder som 8GB VRAM og sterkere compute ytelse.

 

DERE sier selv velg Nvidia nærmere bestemt 970 NÅR dere IKKE har testet hovedkonkurrenten 390!!

"Grunnen heter Nvidia, nærmere bestemt GTX 960 og GTX 970."

"Vi har ikke testet dette kortet, men modellen over, R9 390X og kan derfor ikke uttale oss om ytelsen til denne modellen."

 

Så hvis jeg ("en som ikke vet noe om GPUer") skal kjøpe en GPU så skal jeg velge 970 selv om dere ikke kan si noe om ytelsen til 390 som koster 300kr mer??? 

 

Jeg beklager, men R9 390 til 300 kr mer vil i 99% av tilfeller være et dårligere kjøp enn GTX 970. Lik ytelse ved stock frekvenser. GTX 970 kan du få factory OC eller gjøre det selv til langt høyere ytelse. Den har ikke 8GB VRAM, men jeg ser ikke hvordan 4 GB VRAM til pynt skulle bidra positivt for R9 390. Samtidig har GTX 970 langt lavere effektforbruk og er altså både stillere og kaldere. Eneste grunnen for å gå R9 390 er freeSync eller om du bare spiller AMD titler. GTX 970 er det kortet som tok Nvidia fra 60% til 80% markedsandel i år. På grunn av den lave prisen er det noe av det beste Nvidia har kommet med på utrolig lenge.

 

Du sier du ikke stoler på konklusjonene deres. Det vil og si at du ikke stoler på tallene deres. Eller noen andre nettsider for den del. Hvor er nettsiden som roser R9 380X for å være et bra kort? R9 380X har fått bedre karakter andre steder, som de som reviewer basert på USD, men vet du hvorfor? Fordi den er relativt sett billigere i USD. I Norge er den nå tilgjengelig for 2800 kr. Og anbefalt pris på 2650 kr. Uansett hva du sammenligner med, så kan du ikke forsvare den prisen.

Endret av TKongen
Lenke til kommentar

Til folk som klager så mye. Istedenfor å bare klage, kan dere ikke komme med eksempel på en nettside som baserer karakteren sin på en spådom om pris to måneder senere?

 

Kan dere komme med en test som viser at du klart bør velge 380 foran 960, eller 390 foran 970?

 

Og dropp kommentarer angående preferanse av GPU leverandør, det blir bare useriøst.

 

Istedenfor å skrive "Tek.no er kjøpt og betalt av Nvidia for å ikke teste all AMD sine nydelige 3 år gamle rebrands hvert eneste år, og dessuten liker de ikke AMD uansett" osv osv. 

 

Hva med å spørre:

Kan dere ikke teste R9 380 også? Dette er en god utfordrer til 960, og jeg føler ikke det blir rett å anbefale 960 uten å ha testet 380 først.

Eller:

Kommer dere til å gjøre en test av 380 snart? Jeg savner den i testresultatene her, og føler den ville påvirket konklusjonen her en del. Dere anbefaler heller å gå for 960, men jeg tror at hvis dere hadde testet 380 så hadde dere gjerne endret mening her.

 

Jeg vet hvertfall hva jeg hadde fått mest motivasjon til å gjøre utifra disse. Hvis dere faktisk vil komme med forslag til tek.no og vil at de skal gjøre det slik, og dere vil ha en test herfra fordi dere vil finne ut hva som er best, så skriver dere innlegg i kategori 2 her. Hvis dere bare vil klage, så får dere gjøre det, men ikke bli skuffet hvis ingenting endrer seg på grunnlag av klager som inneholder "hvis dette hadde vært nvidia så.."

  • Liker 1
Lenke til kommentar

Jeg skulle ønske dere kunne gjøre litt andre tester enn spilltester ... For eksempel hvordan kortene yter i foto-/video- og 3D redigering og rendering. hvordan kortene fungerer sammen med produksjonsverktøy som Lightroom, Lightworks, Adobe Premiere, 3D Max, Blender, After Effects osv. osv.

 

Det er faktisk en del av oss som ikke bruker tiden vår på spill, men som fremdeles kunne tenkt oss å vite hvilken entusiastkort som kan brukes kontra pro kortene fra leverandørene ...

 

Om det hadde blitt gjort i forbindelse med foto sidene deres hadde ikke gjort noen ting ... men bare det å fått litt andre tester av maskinvare enn spill hadde vært gjevt.

 

Samme med CPU og hovedkort, jeg savner fremdeles seriøse tester av noen skikkelige "arbeidsstasjonsoppsett" bygd av entusiastdeler, men rettet mot produksjon fremfor spill ... For eksempel den mange ganger gjentatte forespørselen av tester av dual cpu hovedkort og xeon prosessorer kontra i5 og i7 ... bare som eksempel ...

  • Liker 1
Lenke til kommentar

 

Kan dere komme med en test som viser at du klart bør velge 380 foran 960, eller 390 foran 970?

 

 

http://www.eurogamer.net/articles/digitalfoundry-2015-radeon-r9-380-2gb-4gb-review

 

20MHz overklokket R9 380 2GB slår 100MHz overklokket GTX960 2GB i 7 av 8 spill, men taper med 1,5fps i BF4. Man får FreeSync skjerm til 1800Kr for den billigste varianten som går opp til 75Hz, og 2500Kr for en 144Hz modell. Altså minst 1500Kr billigere enn billigste G-Sync skjerm. I dette prissegmentet bør R9 380 være et åpenbart valg over GTX960 for veldig mange.

 

https://www.techpowerup.com/reviews/ASUS/R9_380X_Strix/23.html

 

Her ser du at i et gjennomsnitt av 15 spill slår stock R9 380 et stock GTX960 med ganske grei margin i alle oppløsninger.

 

Man må tilbake til slutten av september for å få med R9 390, her er gjennomsnittet fra 22 spill. Det er tatt med 2-3 ekstremt Nvidia bias'ed titler som de nå har gått bort fra. Likevel ligger 390 på identisk ytelse i 1080p, og godt foran i 1440p og 4K. Oppløsninger R9 390 faktisk kan kjøre en del spill i, mens GTX970s gjennomsnitts score "lyver" litt, og gjør det tydeligere at GTX970 passer dårligere til oppløsninger over 1080p. Enten får du identisk til bedre ytelse i 19 av 22 spill til samme pris. Eller du får det til 1500Kr mindre, om du skal ha skjerm med adaptive sync. Videre om man spiller på 1080p skjerm, så kan R9 390 benytte VSR på 1440p og 4K i flere titler enn GTX970. Noe som gir bedre grafikk.

 

Jeg synes klart man bør velge 380 før 960, og ganske klart 390 før 970. Nvidia sparer deg bare strøm, om du overklokker 970 til 390 ytelse, så sparer den deg ikke mye strøm heller lenger. Og fremdeles har den bare halvparten så mye VRAM..

 

Ellers så synes jeg det er litt rart å forvente så mye mer ytelse fra 380X. Å kalle den "arvtageren" til 280X ligger jo i navn alene. 380X er samme som 380 bare med 2048 stream cores mot 380s 1792. Skal man ha mer enn de 14% ekstra kjerner i ytelse kan gi, må man nesten sette opp frekvensene på GPU og RAM. Det er på prisen 380X må bedømmes. Har man ikke butikk pris så kan man ikke sammenlikne veiledende med butikkpriser til konkurrenter, det sier seg selv. Nå har Asus Strix versjon fra første link her dukket opp hos Komplett til 2800Kr inkludert frakt. Billigste 970 kommer på 3124Kr, men det er en ITX versjon jeg ikke kjenner. Nest billigste kommer på 3300Kr, og da skiller det altså 500Kr mellom disse.

 

Finnes det da noen grunn til å velge 380X? Vel, i mine øyne ikke om man sammenlikner kortene og pris direkte mot hverandre. Det er egentlig ganske åpenbart. Men si du har trangt budsjett, og skal bygge en hel maskin med skjerm. Valget står mellom 970 med standard skjerm, og 380X med FreeSync skjerm. Mnja, da hadde jeg nok gått for 390 med FreeSync. :p

  • Liker 2
Lenke til kommentar

R9 380X er ikke arvtageren til noe som helt. AMD vet ikke hva det betyr. R9 380X er R9 285 med et nytt navn. Wohoo! Hvorfor tror du AMD bruker så mye strøm? De overklokker kortene sine til grensen av hva som er mulig, og det skader strømforbruket utrolig. Når Testere finner at R9 380 bruker dobbelt så mye strøm som GTX 960, så er noe galt.

 

Ellers så tester jo nettsider forskjellig og ulike spill. Jeg har sett på en ~7 nettsider nå, og de fleste sier at 380 yter litt bedre enn 960. Ingen gir seieren til 960. Det visste jeg allerede, det var ikke derfor jeg skrev det. Den sammenligningen fra techpowerup derimot. Jeg lurte på hvorfor AMD kom så godt ut, men jeg fant det ut når du skrev de hadde fjernet 2 Nvidia biased spill. De fjernet nvidia biased spill, så da sitter de igjen med nøytrale og AMD biased spill. Strålende.

 

GTX 970 og R9 390 er ganske like på fullHD, med en liten ledelse i 1440p til R9 390. Samtidig kan GTX 970 faktisk overklokkes, og bruker langt mindre strøm, og er langt stillere. Factory OC kort kan og fås som da yter bedre enn R9 390. Eller vet jeg ikke hvor du ser på priser, men et GTX 970 koster 3000 kr og et R9 390 koster 300 kr mer. 

 

https://prisguiden.no/produkt/sapphire-radeon-r9-390-8gb-231986

https://prisguiden.no/produkt/nvidia-geforce-gtx-970-212007(feil bilde)

 
Videre koster GTX 960 1800 kr, mot 2000 kr for R9 380. Skal du Ha 4 GB havner GTX 960 på 2100 kr med en god overklokk i tillegg, og 2300 kr for R9 380. Altså er GTX 960 også priset litt lavere, siden den yter litt lavere. Får jeg og nevne at den ene testen, som jeg tror du linket, så klarte de ikke å måle viftestøy fra GTX 960? Det kom under nivået desibelmeteret klarte å måle. I ITX builds eller micro-ATX kabinetter til en billig penge er det en stor fordel. Du må bli kvitt ~100W og ikke ~200W.
 
Så jeg ser hverken at GTX 960, 970, R9 380, R9 390 er åpenbare valg? Hvordan kan du si at noen er helt klart bedre enn andre? Jeg ville sagt det kommer an på bruk.
 
Og ja, du kan kjøpe skjermer som denne:
Med AMD produkter. Det er likevel langt ifra alle som kjøper skjerm hver gang de kjøper GPU. Skjermer varer jo mye lengre, det er derfor det ofte er lurt å kjøpe gode skjermer når du kjøper, fordi de varer så lenge. Blir litt merkelig å kjøpe en 970/390 for å få god grafikk, men så klarer ikke skjermen å vise det skikkelig. Med mindre du har trangt budsjett selvfølgelig. Og hvem sier at freesync og 75 Hz er det viktigste for en skjerm? Selv spiller jeg på på IPS skjermer, og har ingen problemer med ghosting. Freesync hadde vært greit, men jeg hadde ikke overlevd å gå tilbake til TN. Dell sine Ultrasharp starter jo på 2500 kr. Jeg ville sagt det er langt bedre enn en 144 Hz monitor til 2500 kr. Da har plutselig ikke Freesync noe å si. Er det Freesync som teller, så klart gå for AMD. Likevel tror jeg du overvurderer hvor mye dette har å si for den totale mengden kjøp.
Lenke til kommentar

Guru3D:

Thief: Mantle spill (her er den nesten på nivå med 970)

GTA: Veldig nøytralt (her er den langt unna 970)

Witcher 3: Nvidia tittel, med små fordeler til Nvidia (960 er fortsatt litt bak 380, men litt mindre bak enn GTA 5)

Shadow of Mordor: Ikke noen sin tittel av det jeg kan finne, men AMD gjør det alltid MYE bedre enn Nvidia her, stor forskjell mellom 960 og 380.

Tomb Raider: Åpenbar AMD tittel, 380X er nær 970

Bioshock: Ingen sin tittel, AMD gjør det bra her for 380, men ikke 380X

Fallout 4: Er vel en Nvidia tittel om jeg ikke tar feil. 960 kommer 1 frame over 380, så Bethesda hadde rett når de sa den var bra optimalisert for AMD også.

Battlefield Hardline: Er vel egentlig Mantle, men godt optimalisert for begge. 960 og 380 er likt, 380X litt over

Alien isolation: Virker som i favør av Nvidia, men det er faktisk AMD som har vært partner i utvikling av spillet. Grei ledelse til 960 kontra 380, 380X ikke overbevisende ytelse her heller. 

Hitman Absolution: Enda en AMD klassiker. 380 knuser 960. Overraskende. 380X nærmer seg 970.

 

Så de har testet 2 nøytrale, 2 som er litt i favør av Nvidia og 6 AMD titler. For å være ærlig. Jeg er ikke overrasket over at R9 380X ser bra ut i forhold til Nvidia med de testene. Ah, nevnte jeg at de tar med Dx 12 i konklusjonen etter å ha testet Ashes of Singularity? En mer urettferdig test skal du lete leeeeeeeeeeeeeeeeenge etter. Å teste Ashes of singularity er bortkastet tid. 

 

De sier at det er bra at de får 4GB modell med en gang. Samtidig i VRAM heavy spill som Shadow of Mordor og GTA V har de 2 og 4 GB VRAM GTX 960, med ingen forskjell i ytelse. Videre sier de at strømforbruket skyldes at de er på 28 nm. Jeg beklager, men hvis du ser på et 200W 380X kontra et 200W GTX 970 med langt bedre ytelse, og skylder på fabrikken som er den samme, så er jeg ikke overrasket over at de anbefaler AMD. Samtidig beskriver de overklokkingen "satisfying", samtidig som alle vet at Nvidia kort kan klokkes utrolig mye høyere enn noe AMD kort, fordi de allerede er overklokket 3 ganger fra før av. 

 

Så de sammenligner med Nvidia når det passer, og ellers så skylder de på produksjonsprossesen. Jaha.

De bruker en overvekt av AMD titler, inkludert et par tunge AMD titler. Ingen tunge Nvidia titler. Åpenbart at AMD kort kommer godt ut uansett her.

De sier at 4GB VRAM gjør en stor forskjell, samtidig som resultatene viser ingen forskjell.

De sier overklokkingen er bra, når den er veldig langt ifra konkurrenten sitt nivå. Bra i forhold til forrige generasjoner med kort, men de "unnlater" å sammenligne med Nvidia sine utrolig gode OC kort.

De sier ingenting om hva det koster kontra andre produkter, bare at det er bra value.

 

Altså, denne konklusjonen, og testen har så mange åpenbare feil. Dette er en konklusjon jeg lett kunne sagt: Dette er feil. Jeg sier ikke de er biased til AMD, men som du ser så er konklusjonen deres SVÆRT mangelfull, og dekker noen områder og ikke andre. De ignorer altså mye, og tar med andre ting. Så finner de ut at det er bra. Hvis du ser på resultatene deres er de veldig like tek.no sine. Så testen bestrider ikke tek.no sin test. De er bare det at de har skrevet en vel fantasifull konklusjon som ikke står i stil til aktuelle fakta.

 

Så min bedømmelse?

Gode tall, gode tester, men testgrunnlag som viser en klar forskyvning mot rød side. Uansett bra til å se fps i de spillene du er ute etter. Det er greit å teste Ashes of singularity, men i en test av GPU er den bortkastede elektroner på skjermen min. Det forteller deg ca. ingenting. Likevel har de det med i konklusjonen, som er svært merkelig.

Konklusjonen? Jeg tror jeg ville begynt på ny fra linje 1. Ikke mye å ta vare på der.

Endret av TKongen
Lenke til kommentar

Artig omtale.

 

Bare det at kortet har 2 stykk DVI trekker betydelig nedover i en 2015-hverdag. Hva har de tenkt med her (baken) ?

Ikke 100% av de som ser på kort i denne mellomklassen og har flerskjermsoppsett,  har kjøpt skjermene sine i 2015. Av mine 5 24"-tommere rundt omkring i huset har bare en av dem displayport - og den har problem med handshake på displayport-porten.

Endret av tommyb
Lenke til kommentar

Tkongen : Nå var heller ikke hensikten å komme og påstå at dette er en bedre eller mer nøyaktig test enn det man finner på andre nettsteder , men det er ting som kan brukes i forhold til hvordan Tek tester og det var nok det som var poenget mitt.

Guru3d er heller ikke spesielt pro AMD eller Pro Nvidia, bare se på denne testen som er gjort av Asus ROG Matrix Geforce GTX 980 Ti platinium , der brukes nøyaktig samme spillene som i testen til 380X kortet så det går nok mer på hvilke spillvalg de har tatt for å kunne gi en god indikasjon på hva resultatet blir.

Og for å være ærlig er det fordømt vanskelig å ta et 100% fair valg av spill for både Nvidia og AMD sin del.

 

Ting som jeg personlig hadde tatt videre fra testen til Guru3d :

FCAT : Frame Experience Analysis , denne forteller jo litt om kortene har problemer med stuttering og er absolutt greit å ta en titt på , noen titler kan jo være spesielt utfordrende og selv om du kanskje har det beste kortet får du en dårlig opplevelse kontra et "dårligere" kort. 

 

Bedre tester på 4K...3840x2160

Flere spill :

 

*Fallout 4

*The Witcher 3

*Eventuelt noen Futuremark tester.

*Grand Theft Auto V

*Middle Earth Shadow of Mordor

Lenke til kommentar

Malvado:

Jeg skrev i mitt orginale innlegg at jeg ikke tror de er pro-AMD. Jeg har og tidligere skrevet at jeg synes det er teit å bringe inn "denne testen må være utført av noen som er pro-AMD eller pro-Nvidia". Denne testen kan lett tolkes slik med testgrunnlaget over på rød side, unnskylde effekforbruk med 28 nm prossess osv. , men jeg tror ikke dette er fordi de er pro-AMD. Det er nok andre årsaker her.

 

Jeg så ellers at high end kort hadde lang mindre variasjon basert på tittel. Altså high end kort fra Nvidia hadde gjerne like bra fps som AMD, selv om det var en AMD tittel, samtidig som mid en kort som 960 falt mye. Faktisk er 980 Ti over Fury X i Hitman Absolution, mens 960 faller langt i spillet. Så jeg tror ikke Fury kortene til AMD er så veldig optimalisert mot deres spilltitler, spesielt ikke de gamle. De andre kortene til AMD derimot er jo 3 år gamle med rebrands og har blitt ganske spesialisert. Så for 980 Ti vs Fury X så funker spillutvalget bedre. Ellers interessant at testen sier du kan få 25% mer ytelse ut av kortet. Langt mer enn du kan håpe på fra noe AMD kort. Du kan sikkert få 15% mer med factory OC kort alene.

 

Vanskelig å finne et bra spillutvalg ja, og finne ut hvilket spill som favoriserer hvem, men av Guru sin test er det jo 3 titler som er utrolig åpenbare. Thief, Tomb Raider og Hitman. Så si for enkelhetsskyld at de andre er nøytrale. Da har du en del nøytrale og 3 heavy AMD. Uansett hvor vanskelig det er, så kan hvem som helst se at det er et elendig utvalg hvis målet var å legge sammen spillene og finne ytelsesforskjell mellom Nvidia og AMD. Som de gjør . Problemet er ikke testen, det er konklusjonen, der de ikke tar høyde for og vurderer testgrunnlaget sitt. Se på testgrunnlaget her f.eks: http://www.techspot.com/review/1093-amd-radeon-380x/page8.html

Det er ganske bra. Jeg ville sagt det er litt mot grønn side, men marginalt.

 

Jeg er helt enig i at de har mye bra i testingen sin og sånt. Frame time experience kan jo forenkles med 99th percentile eller 95th percentile. Det er jo og bra med flere spill til testen. Jeg er enig i disse punktene som du sier. Jeg tror det er vanskelig å være uenig her, da dette rett og slett bare er grundigere testing.

 

Likevel så skrev du jo og: "Konklusjonen er også i en annen skala , men les og døm selv."

Så da svarte jeg deg også på dette punktet :)

Og jeg er enig, konklusjonen er i en helt annen skala. En skala som er langt under tek.no sin. Tek.no sin konklusjon kunne nok vært mer dekkende, og tatt med mer, men guru3D sin konklusjon er jo direkte ignorant. Den misleder folk, basert på grundig testing. Etter så grundig testing så gjør det at folk tror på det de sier og anerkjenner at de er gode. Da er det trist når de direkte ignorerer sine egne tester i konklusjonen og misleder forbrukere. Uansett om du vil ha AMD eller Nvidia er jo ikke 380X et bra kjøp.

Lenke til kommentar

 

R9 380X er ikke arvtageren til noe som helt. AMD vet ikke hva det betyr. R9 380X er R9 285 med et nytt navn. 

 

 

Nei, 285 og 380 har 1792 streamcores, 380X har 2048, altså et helt annet produkt.

 

Når det gjelder spillene som TPU ikke lenger bruker i sin test-setup, så er det snakk om et spill som heter ProjectCARS som har sin egen grafikk motor: "without the conventional approach to tessellation. It uses a deferred rendering engine with a custom Ambient Occlusion technique." Den er skreddersydd til Nvidia, og dermed et spill som åpenbart ikke har noe i et testoppsett å gjøre. Akkurat som de fleste skrur av Nvidias "Gameworks" effekter for å få det så rettferdig som mulig når de skal sammenlikne andre titler. At de fjerner en tittel som aldri skulle vært med i test-setup'et ser jeg ikke hvordan du kan være imot. Andre har testet ProjectCARS med disse spesialeffektene skrudd av, og surprise surprise, GTX970 og R9 390 yter da omtrent likt.

 

Den andre tittelen de har fjernet er Wolfenstein: The New Order, som altså er en openGL tittel. OpenGL brukes i all hovedsak av Linux og Mac OSX som du kan se her. At dette er en achilles hæl for AMD er ikke til å dytte under en stol. Og hadde det vært snakk om mange titler, så ville det vært et reellt problem for AMD. Men faktum er at det er DX ytelse som gjelder, for det er det de fleste spill til PC bruker. Jeg har ikke noe stort problem med at en OpenGL tittel ikke er tatt med i test-oppsettet fremover. Rett og slett fordi en test skal helst vise hva slags ytelse forbrukere kan forvente seg. Når så og si alle spill bruker DX11, så blir det faktisk nesten litt misvisende å ta med openGL spill. Jeg er imidlertid klar på at dette er noe folk bør være klar over om de vurderer for eksempel Steam OS. Og noe sier meg at de fleste aktuelle kandidater er godt kjent med at AMD suger i openGL.

 

Jeg skrev 2-3 spill. Det tredje er uproblematisk at er med i testoppsettet, fordi det har millioner av spillere, mange er nok interessert i nettopp hva slags ytelse de kan få i dette. Det er snakk om World of Warcraft: Warlords of Draenor. Som du ser har GTX970 hatt en grei ledelse over R9 390 i FullHD. Men med nye drivere ser forskjellen ut til å ha blitt visket bort.

 

Nå om de hadde testet i 8 spill, og fjernet 2 Nvidia titler, så ser jeg litt problemet. Ikke med disse to titlene vel og merke, men ellers. Men TPU har fremdeles 15 spill i sitt testoppsett. Det er vel 5 ganger så mange som tek opererer med? Jeg føler meg ihvertfall rimelig trygg på at det fremdeles er nok til å danne seg et greit bilde av ytelsen kortene imellom. Mer så, nå som de har fjernet urettferdige, og utgåtte titler.

 

Ellers ble jeg nettopp i en annen tråd gjort oppmerksom på noe litt spesielt med strømforbruket til Nvidia kortene. De hadde hatt stor nok PSU, men GTX970 gjorde likevel maskinen ustabil. Så en ny PSU måtte til. Selv om GTX970 bruker lite i strøm i gjennomsnitt, har den et helt sinnsykt potensiale i peak. Og når man MÅ overklokke et Nvidia kort for å komme opp til samme ytelsesnivå som AMDs, hva skjer med strømforbruket til Nvidia kortene da? De nærmer seg selvfølgelig AMDs i forbruk. Jeg skrev for ikke lenge siden litt om overklokking av AMD kort mot Nvidia kort. Og som det fremgår av tallene trenger ikke AMDs kort overklokkes like mye for å få utbytte som Nvidias. AMDs kort kan også nå spare strøm med frame targetting.

 

Når det gjelder skjermer med adaptive sync, så tror jeg de fleste som ikke har det, rett og slett ikke vet hva de går glipp av. Hadde de visst, ville de hatt. Så enkelt er det. :p Men nei, det gjør det ikke automatisk aktuelt for den store kjøpende massen. Jeg tror altså imidlertid at etterhvert som folk blir klar over fordelene med adaptive sync, så vil det bli en mer og mer naturlig oppgradering. Det stilte seg litt annerledes med G-Sync skjermene, for de var, og er, rett og slett for dyre. Og din bekymring angående IPS. Vel, her har du et knippe IPS/PLS/VA skjermer med FreeSync. Så man skulle være greit dekket der også. Om folk ikke vil kjøpe ny skjerm nå, kan det uansett være lurt å sette seg inn i det, slik at om skjermen ryker, eller man tenker oppgradere senere. Da er det kjekt å vite at man kan få FreeSync skjerm til nesten samme pris som vanlige skjermer. Mens G-Sync fortsatt er opptil flere tusen kroner dyrere..

Lenke til kommentar

Tror nok rett og slett at de ikke greide å få produsert nok antall gpu'er mens de samtidlig holdt på med Fury , jeg har en antagelse at de har måttet bestilt og betalt underveis etter hvert som de har fått inn penger for å få ting til å gå rundt. Amd har trolig 2 år igjen på å komme seg opp av den gropa de er nede i , hvis ikke så er det helt over og ut.

AMD har reservert produksjonskapasitet lang tid i forveien, så i utgangspunktet så skulle de ha kapasitet. Men vi vet nå aldri hva de finner på.

 

Det er nok ikke utenkelig at AMD har holdt tilbake produktet siden spredning av produktlanseringer gir mer oppmerksomhet til hvert produkt.

 

Til folk som klager så mye. Istedenfor å bare klage, kan dere ikke komme med eksempel på en nettside som baserer karakteren sin på en spådom om pris to måneder senere?

Du har misforstått. Det vanlige i tester er å basere seg på lanseringspris som er oppgitt fra produsentens side.

Men Tek.no derimot baserer konklusjonene sine på de ytterst få butikkene som har listet produktene til overpris.

Endret av efikkan
  • Liker 2
Lenke til kommentar

 

Til folk som klager så mye. Istedenfor å bare klage, kan dere ikke komme med eksempel på en nettside som baserer karakteren sin på en spådom om pris to måneder senere?

Du har misforstått. Det vanlige i tester er å basere seg på lanseringspris som er oppgitt fra produsentens side.

Men Tek.no derimot baserer konklusjonene sine på de ytterst få butikkene som har listet produktene til overpris.

 

 

Det kan være du leste på et annet tidspunkt enn det jeg gjorde, og konklusjonen har sikkert blitt redigert ~4 ganger allerede. (Dårlig journalist som ikke tenker noe på pris når han setter karakter, eller hva? Karakteren er og kommet et hakk opp)

 

Når jeg leste første gang var den IKKE i butikker, og de vurderte det fra den offisielle utsalgsprisen på 2650 kr, akkurat som andre vurderer den utifra 230$. Så  skrev de senere at den nå var i butikker til 2800, men de forventet det skulle gå ned. Så jeg ser ikke helt når de har vurdert den på grunnlag av butikkprisen? Da må det i så fall være i en edit som var der en kort stund som jeg ikke har sett, til tross for at jeg sikkert har sett sånn 4 allerede.

Lenke til kommentar

snip

Det er sant at den har fått 250 flere shader enheter, men utifra det jeg ser på benchmarks så er de så godt som identiske i resultater. Så "et helt nytt" produkt blir vel ikke helt riktig heller. Samtidig som jeg ser at bare bytte navn blir feil og, da de har gjort noe, selv om det egentlig ikke betyr noe. (Jeg får skylde på en test jeg leste kjapt gjennom som skrev dette :p Jeg har selvfølgelig ikke noe ansvar for å sjekke kilder :p)

 

Jeg er klar over at de titlene var heavy Nvidia titler (vel ikke det med OpenGL, men det er jo egentlig ikke nvidia tittel heller). Samtidig har de fjernet to AMD titler også fra listene sine (Tomb raider og hitman? husker ikke helt). Likevel så sitter de jo igjen med spill som Ryse: Son of Rome som er heavy AMD, men de har ikke noen heavy Nvidia lengre.

 

Se på grafene med før og etter. For R9 390:

R9 290 er 90%, og GTX 970 er 103% for 1440p

Altså er 390 og 970 essensielt like, mens begge er greit foran 290.

Nå, se på grafene for R9 380X:

290 er 127% og 970 er 128% for 1440p.

 

Altså, med det nye utvalget av spill så har de gått fra å si at 390 og 970 er like i ytelse, noe du vil finne mange andre steder også, til at 970 er på nivå med 290. Altså en klar og betydelig forskyvning i AMD sin favør i resultatene her. Så jeg ville ikke tatt en nettside som dette for fasit, og sagt, ja AMD yter bedre enn Nvidia. Går du over til techspot som har sin samling litt på den grønne siden finner du ut at Nvidia kortene yter bedre enn AMD kortene.

 

Så istedenfor å diskutere hvem som er marginalt bedre, så har ikke jeg noe problem med å si at de er omtrent like raske. Altså 380 og 960, samt 970 og 390.

 

Og det du sier om ekstremt potensiale er jo nettopp det jeg sier er en av styrkene med GTX 970. Den har offisiell power target på 150W, men produsentene har satt det uten problemer til 250W. En tidligere link her viste 25% forbedringsmulighet for et 980 eller 980 Ti. Da vil jo strømforbruket nærme seg AMD sitt, selv om det vil være lavere fortsatt. Det er jo det som er Nvidias fordel. De trenger ikke å presse frekvensene ekstremt for å konkurrere. Men hvis du ser på techpowerup sin testliste før endringene, hvis du ser på tek, hvis du ser på techspot både før og etter deres endringer, så er allerede 970 og 960 på samme nivå som sine konkurrenter. Og bare se på grafen, det er direkte slakt: https://tpucdn.com/reviews/Powercolor/R9_390_PCS_Plus/images/perfwatt_1920.gif

 

Den PLS skjermen fra Samsung til 1900 kr så ikke ut som et dårlig kjøp. PLS, + FreeSync til 1900 kr. Samt at den har QI lading til telefon i foten. Sannsynligvis ikke på høyde med en 600 kr dyrere Dell Ultrasharp skjerm, som også har tynnere rammer for multioppsett og bedre tilkoblingsmuligheter, som USB-Hub i skjerm, lo ellers litt når jeg så denne i spesifikasjoner:

Contrast ratio (dynamic) Megakontrast

Men for å være helt ærlig så kan de like godt skrive dette som 100000000000000000000000000000000:1, ubrukelig tall. Virker likevel som om dette er en bedre buget gaming monitor enn Dells ultrasharp. Jeg har aldri prøvd dette selv, og når jeg kjøpte monitor sist fantes ikke freeSync uansett, men jeg har hørt myyye bra om det. Så jeg er ikke i tvil om at hvis du skal ha ny PC, inkludert med skjerm, så blir det raskt langt billigere å gå for AMD med FreeSync, selv om selve GPUen har lik price/performance som Nvidia.

 

Tror derimot dette havner inn i AMD sin store kategori med ting de gjør bra, men ikke gjør mye for salgstallene. Jeg ville sagt at AMD gjør like mye bra som Nvidia. Nvidia gjør bare de rette tingene bra i forhold til salgstall, og har langt bedre timing. Fury-serien viser jo at AMD kan lage vel så gode kort som nvidia, og uten høyt forbruk også. Likevel kom de altfooor sent. Entusiaster hadde kjøpt massevis av titans og GTX 980 Ti, og det var ingen grunn til å oppgradere, og når kortene er så like så kjøper mange Nvidia uansett. Nano kortet var lite, men på den tid hadde alle ITX kabinetter som er nye blitt designet til å ha plass til store GPUer uansett, så Nano ble bare mye penger for et lite kort, når mange kabinett hadde plass til større uansett. Samtidig så var fortatt de GPUene der AMD tradisjonelt har vunnet på price/performance og de som selger mest fortsatt gamle. Og siden nvidia ligger så likt med AMD i price/performance, så velger de fleste Nvidia. Så de lagde en arkitektur for lavt-volum, der de uansett ikke selger mye, og lot Nvidia ha fritt spillerom i 960/970 klassen. Det ser du lett av salgstall. Du kan komme med så mange grafer du vil, men 960 og 970 selger ekstremt mye. Hadde ikke overrasket meg om 960+970 > Alle AMD kort. Samtidig pøser AMD på med VRAM opptil 8 GB (!) og tar in HBM gen 1 til Fury, med vannkjøling! OG, det er kult med 8 GB VRAM, men hva gjør du med det? Det er kult med HBM, men de knuser ikke nvidia i ytelse med det. Vannkjøling er fint og stille, men forskjellen opp til 3X Windforce type kort er ikke så stor. Så hva sitter AMD igjen med? LAvere marginer på alle produktene sine. Det kan du og lett se. AMD har laaaavere marginer enn NVIDIA. De må altså slege langt flere 8 GB VRAM 390 enn Nvidia må selge 970er for å tjene samme sum. Jeg tviler på at det er verdt det. Og hvor verdt det var det med HBM og vannkjøling på et kort som ikke kan overklokkes AMD? Hvor mye mer selger de pga det, kontra tapte inntekter pga lavere marginer? AMd har en del....tvilsomme beslutninger. Helt klar mer verdt det å lage en arkitektur for 5% av markedet for å prøve å få beste GPU tronen, enn å lage en god arkitektur for 95% av markedet og selge massevis av GPUer. God plan AMD. Det er ikke som om de går i minus hvert år og trenger å selge mer heller. Jeg bryr meg ikke om AMD har beste GPU eller ikke, jeg vil bare at de skal ha litt skikkelig konkurranse i den resterende 95% delen av markedet.

Lenke til kommentar

Jeg skjønner ikke helt hva du mener? Jeg tolker det som at du sier 380X ikke er raskere enn 380? Det kommer jo i så fall ganske greit frem her at det ikke stemmer. På 1080p så gir et stock 380X 96% av ytelsen til Strix versjonen som de har testet. Stock 380 gir 88% av Strix. Så stock 380X er altså ~9% raskere enn stock 380. Og nå som vi sammenlikner to AMD kort mot hverandre så trenger vi egentlig ikke legge veldig fokus på hvilke titler som er testet, spesielt ikke når kortene er såpass like. Det vil si, med unntak av om det er titler som ikke lar 380X få utnytte sine ekstra streamcores. Det kan jo være kortet blir kjørt så hardt at det throttler på temp siden det har flere kjerner. Vi ser jo at 390X er sinnsykt mye mer strømsulten enn 390, og det på en nær sagt identisk GPU.

 

Når det gjelder konklusjoner angående hva det har å si at TPU har gått fra 22 til 15 titler i sitt test setup. Så er det en liten ting eller to du ikke har tatt hensyn til. Og det er at tallene med 22 titler ble gjort på en annen plattform med 4770K og 1600MHz DDR3 RAM. Mens det nye oppsettet med 15 titler ble gjort med 6700K og 3000MHz DDR4 RAM. Det nye oppsettet har også brukt nyere drivere slik jeg skrev om WOW. Så å sammenlikne nå og da med TPU sine tall vil dessverre gi lite mening på detaljnivå..

 

Det er litt morsomt det med Samsung ja, på TV gikk de bort fra å oppgi tall for kontrast for mange år siden. "Det gir ingen mening" som de selv sa.

 

Ingen tvil om at Fury X kom for sent, hadde den vært ute i god tid før 980ti hadde den solgt som iskrem på 17. mai. Da kunne den gitt resten av 300 serien litt sårt tiltrengt vind i seilene. Sånn sett er det nesten den største tabben demmes. 390 serien skulle ihvertfall vært sluppet mye tidligere, med identisk GPU som i 290/X er det vanskelig å forestille seg at de ikke kunne vært på markedet samtidig som GTX9x0 kom. Hvor mange prosent markedsandeler AMD rett og slett ga bort den gang er ikke godt å si.

Lenke til kommentar

Jeg snakker om 380 vs 960 og 970 vs 390. 380X er jo helt klar raskere enn 380. Problemet er jo at den skal ligge mellom 380 og 390, men blir som en Ti versjon. Altså en liten økning i ytelse. Det er jo enten for liten ytelse, eller for høy pris som er problemet her, som sannsynligvis vil fikse seg etterhvert. 

 

Nye drivere gir ikke veldig store endringer, det har tester vist. Testene er heller ikke bottlenecket av CPU, så det har og lite å si. Og uansett hva endringer de har gjort kan en ikke nekte for at de har en liste som er mer i favør av AMD enn Nvidia. Hvis du ser på tall for samme spill så gjør AMD det bedre hos TPU enn techspot. Altså f.eks GTA V så gjør AMD det bedre hos TPU enn techspot. Alternativt NVidia gjør det bedre hos techspot. Ser ikke noen grunn til å krangle over småforskjeller og spesifike titler. Det at det er så uklart hvem som er best her, betyr jo at de egentlig er veldig like.

 

Dynamisk kontrast gir ingen mening. Ikke det at jeg tror Samsung har gode hensikter. De fant vel ut at et ord var bedre enn 100 0-er i markedsføring.

 

AMD sin GPU-avdeling er jo skilt litt ut av AMD nå da, så sammen med ny gen så kan det endelig være at de bruker penger på de rette tingene, og kommer ut med produktene på de rette tidene. Sammen med at de nå har veldig gode drivere, og oppdatert innstillinger-programmet osv, så virker det lovende for AMD GPU i 2016. Blir spennende å se hvor stor forskjell produksjonsteknikk har. AMD kommer sannsynligvis til å gå sammen med tidligere del av AMD GloFou som er i samarbeid med Samsung, og bruke deres 14 nm teknikk. Nvidia derimot vil sannsynligvis gå for 16 nm TSCM. Til nå har Samsung hatt langt større kapasitet enn TSCM. Hadde vært morsom om Nvidia tapte markedsandeler fordi alle ville ha nye GPUer, og de kunne ikke produsere nok :p

Lenke til kommentar

Flere tester av 380X :

 

Tomshardware : 

 

Let’s skip the price and manufacturer-specific features for now and talk about performance. AMD says that its Radeon R9 380X is aimed at 2560x1440 gaming, while the vanilla 380 was supposedly intended for 1920x1080. Unfortunately, the new card isn’t that much more powerful than its predecessor.

 

Consequently, AMD’s Radeon R9 380X is neither a revolution nor a real evolution. We might call it a mini-evolution. AMD does manage to position its card right between Nvidia’s GeForce GTX 960 and 970. You might argue that AMD’s Radeon R9 380 was already there, but its performance tends more toward the bottom of Nvidia’s two offerings.

 

HARDOCP : Editors Choice Silver Award
 

 

Gaming enthusiasts have been waiting for this R9 380X GPU for quite a while. Now that it is here, the question is, "Does it fit your gaming footprint and is the price justified?"

 
Based on the performance we experienced with the R9 380X the price is certainly justified, at least the suggested price from AMD. AMD suggests a price of $229 for non-OC models, and $239 for overclocked models. ASUS unfortunately has quite a high premium for its STRIX R9 380X OC model at $259.99. That price puts this video card closer to the realm of AMD Radeon R9 390 and GeForce GTX 970, which is not a good place for this new video card. Those video cards "pwn" the new R9 380X and the R9 380X has no business trying to compete in that price range.
 
At the suggested AMD pricing the Radeon R9 380X fits well. It competes fully with the GeForce GTX 960 4GB video card and offers a better gameplay experience. If AMD was designing the AMD Radeon R9 380X to dominate the GeForce GTX 960, then AMD has succeeded wonderfully. The key point being that the price range stays in that $229-$239 price segment. If you can buy an AMD Radeon R9 380X in that price, then it is worth it and gives the competition a run for its money. However, once the R9 380X starts to play into the price range that is closer to the GTX 970 and R9 390, it simply does not hold its value.
 

 

As usual, we'll wrap up our tests with a couple of value scatter plots. To make our graphs work, we've converted our 99th-percentile numbers into FPS. The best values tend toward the upper left of the plot, where performance is highest and prices are lowest. We use a geometric mean to limit the impact of any outliers on the final score.

 
And there you have it. Whether you measure the R9 380X by our preferred 99th-percentile method or in traditional average FPS, this card performs better than the GeForce GTX 960 4GB. It also costs slightly more. All told, that means these cards offer similar value propositions. As AMD hoped, the 380X delivers solid performance in the games we tested, even at 2560x1440 with considerable amounts of eye candy turned up.
 
It's true that the Maxwell-based GeForce GTX 960 is more power-efficient than the R9 380X, but the aftermarket coolers on the Sapphire and Asus Radeons we tested are more than up to the task of keeping the underlying silicon cool without making any more noise than the competing GTX 960 cards. Builders might notice a bit more heat from their PCs with an R9 380X pushing pixels, but that's mostly hair-splitting. The R9 380X is a very solid option for its price.

 

PCWORLD 
 

 

While you can certainly use the R9 380X as an entry-level 1440p gaming solution, you won’t be able to hit a consistent 60fps with High graphics settings in most games. In more strenuous newer games—like Witcher 3—that’s likely to dip far lower, at which point you might want to invest in a FreeSync monitor as well. Or better yet, if you really want to get into 1440p gaming, save your dollars and spend the extra $50 on a R9 390 or GTX 970. The extra money is worth it there (and the Sapphire Nitro R9 390 and EVGA GTX 970 FTW I’ve tested both rock). Those cards simply blow away the R9 380X at 1440p.

 

Så nå begynner en god del anmeldelser å komme ut og utifra hva jeg ser så er dette ikke et dårlig kort , spesielt om man ser på konkurrentene i samme prisklasse.

Så spørs det også om man får med 3 spill på kjøpet ( ikke alle som har det) og om man har behov for å oppgradere nå eller kan vente til sommeren / høsten 2016 som blir spennende med nye kort fra både Nvidia og AMD.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...