Gå til innhold

TEST: AMD Radeon R9 Fury


Anbefalte innlegg

 

Kommer tek.no til å teste DX12 spill løpet av nærmeste fremtid? Litt spent på om maxwell Støtter DX12 fullt ut som nvidia påstår!

 

Linken som LoveAmiga la ut, så ser det ikke så bra ut for 960, 970, og 980 på dette tidspunktet. R9 285 gruser 960 til de grader i DX12, og selv 290 serien slår 980... Og nå har AMD kommet med nye drivere som gir enda bedre ytelse i de spillene som er blitt testet i DX12.

 

For min del så venter jeg spent på testresultater i DX12 spill når neste generasjon kommer på markedet løpet av neste år :) Maxwell 2 er et bevis på at nvidia ikke henger etter AMD i DX12! Men Nvidia sin fordel i DX11 ser ut til å forsvinne med DX12...

Hei,

Vi ønsker selvsagt å teste dette så fort det lar seg gjøre, men noen grundig test - med flere generasjoner skjermkort og flere spill - blir det neppe før i februar/mars, om denne listen holder seg:

http://www.tek.no/artikler/snart-kommer-disse-directx-12-spillene/192920

 

/Anders

 

Tusen takk for et raskt svar :) Og setter stor pris på at dere vil gjøre en grundig DX12 test i fremtiden :)

Lenke til kommentar
Videoannonse
Annonse

 

Siden det blir etterspurt et par ganger bevis på at Nvidia har hatt problemer etter skifte til Windows 10 må jeg nesten bla opp et par sider :

 

1 : Dette er et problem som satte mange maskiner ut av spill , flere som måtte ta med maskinen på service pga det

2 : Windows 10 og Sli problemer , Hotfix kom omtrent den 27 August men var langtifra løsning for alle som slet med SLI

3 : Noen eldre skjermkort som har problemer 780 Ti

 

 

Det er heller ikke til å unngå at Nvidia sine drivere nå begynner å fungere langt bedre , men jeg hadde personlig ikke anbefalt noen med et noe eldre Nvidia skjermkort å oppgradere enda til Windows 10 da det virker for meg som at ting fortsatt er litt for ustabilt og sitter man i en situasjon hvor man har et valg mellom Fury eller 980 / ti og skal bruke Windows 10 per dags dato hadde jeg selv valgt og anbefalt Fury nettopp pga denne problematikken og en del andre småting som jeg mener er viktige.

 

Uansett så vil jeg tro at vi bør gi DX12 litt tid til å få ut et par spill, inntill da har vi jo kun "eksempler" som kan ha store avvik fra virkeligheten , men som også kan gi oss en god indikasjon på ytelsen som vi kan forvente. Så får det bli opp til enkeltbrukeren som skal spytte ut noen tusenlapper hva han / hun ønsker å prioritere...

 

http://www.ibtimes.co.uk/windows-10-how-fix-black-screen-boot-amd-driver-issues-after-upgrade-1514481

Samme kilde som du bruker i nr. 1

https://community.amd.com/thread/184785

http://betanews.com/2015/05/22/windows-10-build-10122s-amd-problem-fixed-new-release-now-safe-for-all-to-install/

 

Men jeg sjekket nå selv. Det er en god måte å finne ut om det gjelder mange brukere eller ikke. Det er å se på antall artikler relatert til dette som kommer opp på google. Det er veldig tydelig at det er langt flere artikler og linker når du skriver inn nvidia kontra AMD. Så da sier jeg meg helt enig i at nvidia har flere problemer med win 10 enn AMD har, og at overgangen har vært veldig smertefri, og tilsynelatende nesten uten ekstra bugs for win 10 kontra 8.1.

 

De har jo og hatt mye bedre drivere de siste årene, så det viser vel gjerne da at AMD prioriterer stabilitet mye mer enn de gjorde for noen år siden for sine drivere. Noe som absolutt er bra, selv om det nok ikke kommer til å være nok til å overbevise mange om at AMD har svært gode drivere, og åpenbart mer stabile drivere.

Lenke til kommentar

 

De har jo og hatt mye bedre drivere de siste årene, så det viser vel gjerne da at AMD prioriterer stabilitet mye mer enn de gjorde for noen år siden for sine drivere. Noe som absolutt er bra, selv om det nok ikke kommer til å være nok til å overbevise mange om at AMD har svært gode drivere, og åpenbart mer stabile drivere.

 

 

Nei, det vil jeg absolutt ikke påstå...

Amd sine drivere fungerer helt greit , sammenligner man historisk med Nvidia sine drivere ser man at Amd både er senere ute til å fikse feilene sine og ofte henger etter med mange irriterende feil , det har blitt mye bedre de siste årene, men ytelsemessig så har Nvidia vært langt flinkere til å utnytte kortene sine og det er jeg rett og slett ikke sikker på om Amd noensinne ( på grunn av ressurser ) kan greie å bli like flinke med.

 

Når det er sagt så vil jeg si at "akkurat nå" så er inntrykket mitt at Amd sine kort fungerer bedre på Windows 10 enn Nvidia sine , som jeg også påpekte tidligere tviler jeg på at dette vil vedvare med mindre det er en god grunn til at det er slik.

Lenke til kommentar

Skulle gjerne utdypet det, men jeg mente bedre når det kom til stabilitet. Ytelse og lignende har de jo selvfølgelig litt arbeid med, og som du sier så har nok NVIDIA et langt større SW team enn AMD. De trenger nok ikke å prioritere hverken den ene eller andre på like stor bekostning av noe annet. AMD sitt program for drivere osv er jo f.eks laget i samarbeid med et annet selskap, og har navn deretter, mens NVIDIA laget helt alene. De er jo ganske forskjellige på funksjonalitet og sånn sett.

 

En ting som er positivt interessant for AMD sin del (tror jeg) er den kommende produksjonsteknikken for den nye generasjonen. Så nettopp at Apple får SoCer fra BÅDE Samsung og TSCM. Der Samsung er 14 nm og TSCM er 16 nm. Det er forskjellig teknikk som brukes, og det er svært tydelig allerede nå av den fysiske størrelsen, da Samsung sin tydelig er mindre.

 

Det vil altså si at hverken den ene eller andre klarte å levere nok til Apple i tillegg til andre kontrakter. TSCM må jo ha planlagt med kapasitet nok for både AMD og NVIDIA for oppkommende GPU. Samtidig har de absolutt blitt overrasket av å bli slått av Samsung. Samsung lar heller ikke fortrinnet gå fra seg og bruker jo massevis av penger til å utvide kapasitet. NVIDIA har jo tette bånd til Taiwan, mens AMD har bånd til IBM, Global Foundries, som igjen samarbeider mye med Samsung om nettopp dette. Kan det være mulig at vi ser 16 nm FinFET NVIDIA kort fra TSCM, og 14 nm FinFET fra Samsung i AMD kort? Jeg tviler på at noen av dem kommer til å dual source. De har langt ifra marginene til Apple, og for mange av kortene vil det ikke være lønnsomt. Så da har vi jo en mulighet på at de havner på forskjellig teknikk, der den ene sannsynligvis er bedre enn den andre. I et tilfelle der to toppkort ellers vil være ganske like, som har skjedd mye mellom NVIDIA og AMD, så kan det jo være en mulighet for at det er utslagsgivende.

Lenke til kommentar

Tkongen : på papiret så kan Samsung sin 14nm teknikk se bedre ut en TSMC sin 16nm , men i praksis må vi nesten vente til å se de første Cpu'ene og Gpu'ene produsert på disse "nm" for å se hva resultatet blir.

 

Men siden Samsung er såpass stor , har svært mange dyktige forskere har jeg på følelsen at dette kan bli bra , så får vi se hvor Amd ender opp...

Lenke til kommentar

Tkongen : på papiret så kan Samsung sin 14nm teknikk se bedre ut en TSMC sin 16nm , men i praksis må vi nesten vente til å se de første Cpu'ene og Gpu'ene produsert på disse "nm" for å se hva resultatet blir.

Det er veldig stor forskjell på både prosessen og for å produsere en mobil SoC på under 10W TPD og en GPU på rundt 200W. Transistorene legges også ut helt annerledes, men det er en annen sak.

 

Den varianten av TSMC sin 16nm prosess som skal brukes for GPU'er er kjent som "FinFET Plus" (16FF+). Apple A9 bruker vanlig 16FF.

 

I bunn og grunn så er Sansung 14nm og TSMC 16nm veldig like, de har begge sine styrker og svakheter. I begge prosessene så er transistorene krympet ned, men "interconnectet" som er metallagene som kobler transistorene sammen er det samme som ble brukt på 20nm.

Det er kun Intel som har en "fullverdig" 14nm prosess.

  • Liker 4
Lenke til kommentar

 

Tkongen : på papiret så kan Samsung sin 14nm teknikk se bedre ut en TSMC sin 16nm , men i praksis må vi nesten vente til å se de første Cpu'ene og Gpu'ene produsert på disse "nm" for å se hva resultatet blir.

Det er veldig stor forskjell på både prosessen og for å produsere en mobil SoC på under 10W TPD og en GPU på rundt 200W. Transistorene legges også ut helt annerledes, men det er en annen sak.

 

Den varianten av TSMC sin 16nm prosess som skal brukes for GPU'er er kjent som "FinFET Plus" (16FF+). Apple A9 bruker vanlig 16FF.

 

I bunn og grunn så er Sansung 14nm og TSMC 16nm veldig like, de har begge sine styrker og svakheter. I begge prosessene så er transistorene krympet ned, men "interconnectet" som er metallagene som kobler transistorene sammen er det samme som ble brukt på 20nm.

Det er kun Intel som har en "fullverdig" 14nm prosess.

 

Men samsung sin 14nm lager mindre brikker enn TSMC 16nm... Apple bruker begge, og A9 er mindre hos samsung, enn hos TSMC... Da regner jeg med at strømforbruket er litt mindre på 14nm til samsung. Intel har 14nm i bånn og topp, mens samsung og TSMC har 20nm i bånn?

Lenke til kommentar

Men samsung sin 14nm lager mindre brikker enn TSMC 16nm...

Ikke nødvendigvis, det sprøs hvordan du legger ut transistorene. For både TSMC og Samsung så er hovedutfordringen hvor tett interconnectet tillater deg å plassere transistorene.

Hvis du hadde produsert to "identiske" brikker på TSMC og Samsung sin 20nm prosess ville de også blitt forskjellige i størrelse, selv om begge prosessene markedsføres som 20nm.

 

Apple bruker begge, og A9 er mindre hos samsung, enn hos TSMC... Da regner jeg med at strømforbruket er litt mindre på 14nm til samsung.

Strømforbruket er ganske identisk. Selv om du kan putte transistorene litt tettere på Samsung sine brikker så blir lekkasjen mellom transistorene litt større. Yield er også en utfordring begge disse prosessene, kanskje i litt høyere grad hos Samsung. Det er en av grunnene til at Apple bruker begge leverandører.

 

Blir ikke overasket hvis Apple i løpet av et par år også begynner å produsere brikker hos Intel.

 

Intel har 14nm i bånn og topp, mens samsung og TSMC har 20nm i bånn?

Jepp, det er en forenklet måte å si det på... :)
  • Liker 1
Lenke til kommentar

Samsung og TSCM sine A9 brikker ER forskjellig størrelse:

ChipworksA9.jpg

 

Så kommer forhåpentligvis en test som undersøker hvem som er best på hva, osv. 14 nm i seg selv er jo ikke en garanti for at det er bedre, og som HKS sier så er det jo bare Intel som har skikkelig 14 nm.

Veldig off-topic, men den testen du etterlyser har kommet nå...

 

We asked John Poole of Primate Labs, the developers of Geekbench, for any insight into the dramatic differences being observed in some cases, and he noted there have been rumors of TSMC's 16-nanometer process being "superior" to Samsung's 14-nanometer process in power consumption.

http://www.macrumors.com/2015/10/07/tsmc-samsung-a9-battery-tests/

 

Det ser faktisk ut som at TSMC sin 16nm prosess har bedre energieffektivitet enn Samsung sin 14nm prosess, så lavere er ikke alltid best! :)

Lenke til kommentar

Veldig off-topic, men den testen du etterlyser har kommet nå...

 

We asked John Poole of Primate Labs, the developers of Geekbench, for any insight into the dramatic differences being observed in some cases, and he noted there have been rumors of TSMC's 16-nanometer process being "superior" to Samsung's 14-nanometer process in power consumption.

http://www.macrumors.com/2015/10/07/tsmc-samsung-a9-battery-tests/

 

Det ser faktisk ut som at TSMC sin 16nm prosess har bedre energieffektivitet enn Samsung sin 14nm prosess, så lavere er ikke alltid best! :)

 

 

Viktig å påpeke at dette er bare en enkelt test og det er ikke sikkert at man får utnyttet "brikken" på en måte som viser det faktiske energiforbruket til den.

Sånn sett må man nesten avvente til softwaren er på plass og er mer modent for å teste ut dette ordentlig.

Lenke til kommentar

 

Det er en stund siden denne artikkelen ble lagt ut.

Men ser at det fortsatt er bevegelse på tråden.

Så her er min tolkning av sammenligningen som ble presentert i denne artikkelen.


------------------------------------------------------------- 

 MINIMUM-FPS-List...: 
------------------------------------------------------------- 

------------------------------------------------------------- 

 RED-Zone (0-FPS -> 23-FPS)...: 
------------------------------------------------------------- 

 Metro: Last Light - "4k" (3840*2160)...: "Nvidia GeForce GTX 980" = MINIMUM-FPS = 11,50-FPS (MAXIMUM-FPS = 19,50-FPS) 
 Metro: Last Light - "4k" (3840*2160)...: "Sapphire Radeon R9 Fury Tri-X" = MINIMUM-FPS = 13,00-FPS (MAXIMUM-FPS = 26,00-FPS) 
 Metro: Last Light - "4k" (3840*2160)...: "Nvidia GeForce GTX 980 Ti" = MINIMUM-FPS = 13,20-FPS (MAXIMUM-FPS = 32,00-FPS) 
 Hitman: Absolution - "4k" (3840*2160)...: "Nvidia GeForce GTX 980" = MINIMUM-FPS = 14,60-FPS (MAXIMUM-FPS = 18,40-FPS) 
 Hitman: Absolution - "4k" (3840*2160)...: "Sapphire Radeon R9 Fury Tri-X" = MINIMUM-FPS = 18,20-FPS (MAXIMUM-FPS = 26,40-FPS) 
 Hitman: Absolution - "4k" (3840*2160)...: "Nvidia GeForce GTX 980 Ti" = MINIMUM-FPS = 20,00-FPS (MAXIMUM-FPS = 26,00-FPS) 
 Metro: Last Light - WQXGA (2560*1600)...: "Nvidia GeForce GTX 980" = MINIMUM-FPS = 22,00-FPS (MAXIMUM-FPS = 45,00-FPS) 
------------------------------------------------------------- 

------------------------------------------------------------- 

 ORANGE-Zone (24-FPS -> 47-FPS)...: 
------------------------------------------------------------- 

 Metro: Last Light - WQXGA (2560*1600)...: "Sapphire Radeon R9 Fury Tri-X" = MINIMUM-FPS = 25,00-FPS (MAXIMUM-FPS = 48,00-FPS) 
 Battlefield 4 - "4k" (3840*2160)...: "Nvidia GeForce GTX 980" = MINIMUM-FPS = 26,00-FPS (MAXIMUM-FPS = 37,00-FPS) 
 Hitman: Absolution - WQXGA (2560*1600)...: "Nvidia GeForce GTX 980" = MINIMUM-FPS = 27,10-FPS (MAXIMUM-FPS = 39,30-FPS) 
 Battlefield 4 - "4k" (3840*2160)...: "Sapphire Radeon R9 Fury Tri-X" = MINIMUM-FPS = 29,00-FPS (MAXIMUM-FPS = 45,60-FPS) 
 Metro: Last Light - WQXGA (2560*1600)...: "Nvidia GeForce GTX 980 Ti" = MINIMUM-FPS = 30,00-FPS (MAXIMUM-FPS = 55,00-FPS) 
 Hitman: Absolution - WQXGA (2560*1600)...: "Sapphire Radeon R9 Fury Tri-X" = MINIMUM-FPS = 33,00-FPS (MAXIMUM-FPS = 50,00-FPS) 
 Hitman: Absolution - WQXGA (2560*1600)...: "Nvidia GeForce GTX 980 Ti" = MINIMUM-FPS = 33,50-FPS (MAXIMUM-FPS = 46,50-FPS) 
 Battlefield 4 - "4k" (3840*2160)...: "Nvidia GeForce GTX 980 Ti" = MINIMUM-FPS = 34,00-FPS (MAXIMUM-FPS = 48,00-FPS) 
 Metro: Last Light - FULL-HD (1920*1080)...: "Nvidia GeForce GTX 980" = MINIMUM-FPS = 36,00-FPS (MAXIMUM-FPS = 79,00-FPS) 
 Metro: Last Light - FULL-HD (1920*1080)...: "Sapphire Radeon R9 Fury Tri-X" = MINIMUM-FPS = 41,00-FPS (MAXIMUM-FPS = 80,00-FPS) 
 Metro: Last Light - FULL-HD (1920*1080)...: "Nvidia GeForce GTX 980 Ti" = MINIMUM-FPS = 41,00-FPS (MAXIMUM-FPS = 104,00-FPS) 
 Hitman: Absolution - FULL-HD (1920*1080)...: "Nvidia GeForce GTX 980" = MINIMUM-FPS = 46,00-FPS (MAXIMUM-FPS = 66,50-FPS) 
------------------------------------------------------------- 

------------------------------------------------------------- 

 YELLOW-Zone (48-FPS -> 71-FPS)...: 
------------------------------------------------------------- 

 Battlefield 4 - WQXGA (2560*1600)...: "Nvidia GeForce GTX 980" = MINIMUM-FPS = 51,00-FPS (MAXIMUM-FPS = 67,86-FPS) 
 Hitman: Absolution - FULL-HD (1920*1080)...: "Sapphire Radeon R9 Fury Tri-X" = MINIMUM-FPS = 51,50-FPS (MAXIMUM-FPS = 77,50-FPS) 
 Battlefield 4 - WQXGA (2560*1600)...: "Sapphire Radeon R9 Fury Tri-X" = MINIMUM-FPS = 52,00-FPS (MAXIMUM-FPS = 77,00-FPS) 
 Battlefield 4 - WQXGA (2560*1600)...: "Nvidia GeForce GTX 980 Ti" = MINIMUM-FPS = 59,00-FPS (MAXIMUM-FPS = 80,00-FPS) 
 Hitman: Absolution - FULL-HD (1920*1080)...: "Nvidia GeForce GTX 980 Ti" = MINIMUM-FPS = 60,00-FPS (MAXIMUM-FPS = 83,00-FPS) 
------------------------------------------------------------- 

------------------------------------------------------------- 

 GREEN-Zone (72-FPS -> 95-FPS)...: 
------------------------------------------------------------- 

 Battlefield 4 - FULL-HD (1920*1080)...: "Sapphire Radeon R9 Fury Tri-X" = MINIMUM-FPS = 84,00-FPS (MAXIMUM-FPS = 118,00-FPS) 
 Battlefield 4 - FULL-HD (1920*1080)...: "Nvidia GeForce GTX 980" = MINIMUM-FPS = 89,00-FPS (MAXIMUM-FPS = 108,00-FPS) 
------------------------------------------------------------- 

------------------------------------------------------------- 

 SUPER-GREEN-Zone (96-FPS -> 119-FPS)...: 
------------------------------------------------------------- 

 Battlefield 4 - FULL-HD (1920*1080)...: "Nvidia GeForce GTX 980 Ti" = MINIMUM-FPS = 105,00-FPS (MAXIMUM-FPS = 134,20-FPS) 
------------------------------------------------------------- 

Ikke alle vil være enig med meg i min tolkning...,men det er helt i orden.
Det er tross alt...min tolkning...,og som kjent så tenker ikke alle likt. 

Endret av BizzyX78
Lenke til kommentar

Det er veldig interessant hvis TSCM sin 16 nm prosess er mer energieffektiv. Ikke på den måten at det er urealistisk. TSCM har jo alltid hatt en ledelse på Samsung, men ble grundig slått til 14/16 nm nå. Noe som utvilsomt var overraskende for dem.

 

Så det er godt mulig at TSCM bare lagde 16 nm FinFET, og fokuserte på å lage det så godt som mulig, mens Samsung fokuserte mer på å gjøre det raskere, og dermed ikke perfeksjonerte teknikken på samme måte som TSCM.

 

Selv om de altså nå er ferdige, så har de fortsatt ikke nok kapasitet til å lage chips for Apple alene. Jeg har sett tall som viser at de første var rundt 60/40 til TSCM, mens det nå er mer 50/50. Det kan jo være en god grunn til at SD 820 enda ikke har kommet ut, til tross for hvor utrolig mye Qualcomm har lyst å få den ut. Det har jo kommet en rekke telefoner, som nexus og Sony som gjerne skulle hatt 820. GPUer kommer jo og ut på samme tid ca. Så det virker som om det de venter på er at TSCM skal få stor nok kapasitet til å produsere for dem.

 

Samtidig så er det ubekreftede rapporter om at Samsung har fått en stor økning i inntekt takket være salgs av chips. Uansett om Samsung sin 14 nm er bedre eller dårligere enn TSCM sin 16 nm er det jo irrelevant for Samsung. De har fått langt bedre SoCer enn noen andre i alle sine produkter i hvertfall et halvt år, og enda lengre for Android tlfer. Og de har solgt mye, og produsert mye. Det eneste de måtte slå med god margin var 20nm, og det har de klart.

 

Det som er trist er vel at vi muligens aldri får en skikkelig sammenligning. Batteritesten som ble gjort, og varmetesten er jo begge stappfulle av usikkerhetsmomenter. For å teste de skikkelig er det jo og nødvendig å komme rundt SW til Apple. Vi vet jo ikke hvordan Apple behandler de forskjellige SoCene. Det at TSCM sin er et par grader kaldere, og har lengre batteritid, kan det f.eks bety at Samsung sin versjon kjører på høyere frekvenser? Eller har Apple cappet begge strengt til oppgitt frekvens? (noe Intel sin turbo boost viser at ikke er direkte smart). Det kommer altså og mye an på hva Apple har gjort. Når Anandtech tester SoCer grundig så installerer de jo custom Linux-greier, noe de ikke kan gjøre for iOS enheter.

 

EDIT: Den brukeren fra reddit som postet resultatene  har SIM i den ene, og ikke i den andre....

Tror nok det er bedre å stole på testene fra den kinesiske siden for en pekepinn. De viser langt mindre forskjell og tester bedre (kjører benchmark som stresser SoC max, som minsker andre usikkerhetsfaktorer).

Endret av TKongen
Lenke til kommentar

Ganske overraskende uttalelse fra Apple. Hadde ikke ventet det. Merk at de aldri nevnte selskap, de har ikke bekreftet hvilken versjon som er bedre enn den andre i batteri. En del av forskjellen kan og forklares med design.

 

Tviler ellers på at de vil forsvare Samsung, tror heller de vil forsvare seg selv. Forbrukere liker ikke ulike modeller, som skulle vært like. Selv om det skjer hele tiden, bare at folk ikke merker det. De vil nok unngå at folk driver å sender inn telefoner med Samsung SoCer. Det blir dyrt med så mange returnerte telefoner!

Lenke til kommentar
  • 1 år senere...

For en misvisende artikkel. R9 Fury yter ikke bedre enn GTX 980, dessverre. Hvorfor tar dere å tester spill som er 2-3 år gamle opp mot dette kortet da testen ble gjort? Hva slkags drivere ble brukt for AMD og Nvidia? Forundrer meg ikke om det er en veldig subjektiv test. Faktum er at R9 Fury ikke burde være på topp 10 listen over skjermkort.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...