Gå til innhold

AMD Radeon R300-serien/fiji diskusjon og spekulasjon


Anbefalte innlegg

Videoannonse
Annonse

En annen ting du vil se eller lese er QS (Quick Switch) den er konfigurert med default eller opsjonelt ruting. En slags enten eller der kun en downstream port er aktiv.

Funker ved deteksjon av innsatt pci-e kort

 

 

Her er en skisse på et X79 kort med to 8747 sammen med Quick switch

Tell opp lane count på plx8747 5 porter (4 brukt) og du ser 48 på begge plx som:

16x <-> Cpu , 16x+8x+8x <-> slots

post-35394-0-19382100-1435279350.jpg

 

 

post-35394-0-19382100-1435279350_thumb.jpg

 

Lenke til kommentar

Da har Anandtech omsider kommet med sin test av Fury X:

 

http://anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/

 

Anandtech har en rekke ting å sette fingeren på, men gir kortet ros for lavt støynivå. Sakset fra konklusjonen:

 

The problem for AMD is that the R9 Fury X is only 90% of the way there [sammenlignet med 980 Ti], and without a price spoiler effect the R9 Fury X doesn’t go quite far enough. At 4K it trails the GTX 980 Ti by 4%, which is to say that AMD could not manage a strict tie or to take the lead. To be fair to AMD, a 4% difference in absolute terms is unlikely to matter in the long run, and for most practical purposes the R9 Fury X is a viable alternative to the GTX 980 Ti at 4K. None the less it does technically trail the GTX 980 Ti here, and that’s not the only issue that dogs such a capable card.

 

At 2560x1440 the card loses its status as a viable alternative. AMD’s performance deficit is over 10% at this point, and as we’ve seen in a couple of our games, AMD is hitting some very real CPU bottlenecking even on our high-end system.

 

... The last issue that dogs AMD here is VRAM capacity. At the end of the day first-generation HBM limits them to 4GB of VRAM, and while they’ve made a solid effort to work around the problem, there is only so much they can do. 4GB is enough right now, but I am concerned that R9 Fury X owners will run into VRAM capacity issues before the card is due for a replacement even under an accelerated 2 year replacement schedule.

 

... The acoustic performance is absolutely amazing, and while it’s not enough to overcome some of the card’s other issues overall, if you absolutely must have the lowest load noise possible from a reference card, the R9 Fury X should easily impress you.

 

... At the end of the day one could do just fine with the R9 Fury X, it’s just not what I believe to be the best card at $649.

 

 

 

 

Det ser ut til at Tom's Hardware er en av de få (eneste?) teststedene som har kunnet vise til resultater der Fury X er like rask som 980 Ti i 4K, i de andre testene kommer 980 Ti litt bedre ut i 4K og lavere oppløsninger (dette har naturligvis sammenheng med de ulike innstillingene og oppsettene som er brukt, osv.).

Lenke til kommentar

Synn at fury x ikkje funker med mantle da..

The situation then is that in discussing the performance results of the R9 Fury X with Mantle, AMD has confirmed that while they are not outright dropping Mantle support, they have ceased all further Mantle optimization. Of particular note, the Mantle driver has not been optimized at all for GCN 1.2, which includes not just R9 Fury X, but R9 285, R9 380, and the Carrizo APU as well. Mantle titles will probably still work on these products – and for the record we can’t get Civilization: Beyond Earth to play nicely with the R9 285 via Mantle – but performance is another matter. Mantle is essentially deprecated at this point, and while AMD isn’t going out of their way to break backwards compatibility they aren’t going to put resources into helping it either. The experiment that is Mantle has come to an end.

Lenke til kommentar

Synn at fury x ikkje funker med mantle da..

The situation then is that in discussing the performance results of the R9 Fury X with Mantle, AMD has confirmed that while they are not outright dropping Mantle support, they have ceased all further Mantle optimization.

For oss som har holdt på med dette lenge så er det et kjent problem med slike proprietære lavnivå API'er. Hardware-endringer krever ofte at man patcher både applikasjon/spill og driver. Dette var også et kjent problem med 3Dfx sitt Glide API.

 

Mantle har uansett gjort jobben og vært et vellykket PR-stunt for AMD.

  • Liker 1
Lenke til kommentar

Synn at fury x ikkje funker med mantle da..

The situation then is that in discussing the performance results of the R9 Fury X with Mantle, AMD has confirmed that while they are not outright dropping Mantle support, they have ceased all further Mantle optimization. Of particular note, the Mantle driver has not been optimized at all for GCN 1.2, which includes not just R9 Fury X, but R9 285, R9 380, and the Carrizo APU as well. Mantle titles will probably still work on these products – and for the record we can’t get Civilization: Beyond Earth to play nicely with the R9 285 via Mantle – but performance is another matter. Mantle is essentially deprecated at this point, and while AMD isn’t going out of their way to break backwards compatibility they aren’t going to put resources into helping it either. The experiment that is Mantle has come to an end.

 

Bra at det blir litt mer klarhet i dette i alle fall.

Jeg har faktisk hatt glede av Mantle i de få spillene som støtter dette , heldigvis så kommer nå DX12 på banen som forhåpentligvis vil sørge for bedre ytelse.

Men det er fortsatt et problem som gjenstår og som jeg tror Amd vil slite med , det er jo tydelig at inntill spillene begynner å ta i bruk DX12 så vil Amd sine gpu'er utnyttes i langt mindre grad enn om de hadde vært langt bedre optimaliserte (noe Nvidia kan skryte av) , så man kan jo si at Amd har fortsatt mye å hente inn rent software messig om de kan få til langt bedre drivere og løse mange av de problemene de har hatt over lengre tid.

 

Det er der jeg personlig har en fordel når jeg har et R9 280 som i bunn og grunn er et 7950 kort, det har jo nå per dags dato ( nesten 4 år etter lansering, noe som absolutt ikke er til å skryte av) trolig nådd "peak" eller oppimot "peak" ytelse av det man kan forvente fra et slikt kort og nå er det ikke mer å hente før DX12 blir implementert i spillene.

 

Fury X vil derfor ikke se at det får et vesentlig ytelseforbedring før spillene implementerer via oppdateringer og nylanseringer DX12 samt selvsagt langt bedre og optimaliserte drivere. Kjenner jeg Amd rett vil vi se den første 25% økningen i ytelse ved juletider.

Lenke til kommentar

Vulkan er i hovedsak basert på Mantle, så det er ingen grunn til å videreutvikle Mantle som proprietært API.

Det er det ikke.

Mantle ble brukt som et tidlig utkast på hvordan selve programmeringsinterfacet til Vulkan runtime kunne se ut. Det samme skjedde også med OpenCL, der ble mye av programmeringsinterfacet basert på CUDA 2.0. Det er veldig mye annet "under panseret" som ikke har noe med Mantle å gjøre i det heletatt, og Vulkan er heller ikke ferdig standardisert før tidligst mot slutten av året. Khronos har jobbet med Vulkan siden juni 2014, og arbeidsgruppen inneholder folk fra Intel, Nvidia, AMD, ARM, Samsung, Imagination, Apple, Sony, Qualcomm, etc.

 

https://www.khronos.org/assets/uploads/developers/library/overview/2015_vulkan_v1_Overview.pdf

  • Liker 1
Lenke til kommentar

Fury X vil derfor ikke se at det får et vesentlig ytelseforbedring før spillene implementerer via oppdateringer og nylanseringer DX12 samt selvsagt langt bedre og optimaliserte drivere. Kjenner jeg Amd rett vil vi se den første 25% økningen i ytelse ved juletider.

Tviler sterkt på at det er så mye å hente... Men, det har jo blitt standard prosedyre hos AMD brukere å snakke om de "magiske driverene" som er "rett rundt hjørnet".
  • Liker 1
Lenke til kommentar

 

Fury X vil derfor ikke se at det får et vesentlig ytelseforbedring før spillene implementerer via oppdateringer og nylanseringer DX12 samt selvsagt langt bedre og optimaliserte drivere. Kjenner jeg Amd rett vil vi se den første 25% økningen i ytelse ved juletider.

Tviler sterkt på at det er så mye å hente... Men, det har jo blitt standard prosedyre hos AMD brukere å snakke om de "magiske driverene" som er "rett rundt hjørnet".

 

 

Dette vet jeg ALT om som drivertester  :xmas:

Lenke til kommentar

 

Fury X vil derfor ikke se at det får et vesentlig ytelseforbedring før spillene implementerer via oppdateringer og nylanseringer DX12 samt selvsagt langt bedre og optimaliserte drivere. Kjenner jeg Amd rett vil vi se den første 25% økningen i ytelse ved juletider.

Tviler sterkt på at det er så mye å hente... Men, det har jo blitt standard prosedyre hos AMD brukere å snakke om de "magiske driverene" som er "rett rundt hjørnet".

 

 

Nja, jeg vil anta at arkitekturen blir bedre utnyttet ved DX 12 (noe som gjelder for Nvidia også) og min erfaring er at det er alltid noe å hente på nye drivere , selv om det ikke alltids er i ren ytelse.

 

Har jeg snakket om en magisk driver? Nei , jeg støtter bare opp utsagnet til Nizzen og andre brukere om at det er faktisk litt å hente på nye drivere hos Amd og sånn har det vært så lenge jeg har erfart , noen serier skjermkort blir selvsagt mer prioritert enn andre , men dette kan på ingen måte sammenlignes med en Magisk driver.

 

Jeg forventer faktisk å se opp mot 25% forbedring ved lansering av Windows 10 og DX12 , men kun i visse spill og kombinasjoner av hardware , jeg vil også anta at Nvidia kan få en god forbedring (om ikke mer?) med W10 + DX12.

Lenke til kommentar

Nja, jeg vil anta at arkitekturen blir bedre utnyttet ved DX 12 (noe som gjelder for Nvidia også) og min erfaring er at det er alltid noe å hente på nye drivere , selv om det ikke alltids er i ren ytelse.

Det stemmer, mye av ansvaret for god ytelse blir flyttet over fra driverutviklere til spillmotor og spillutviklere. Det er ikke uten grunn at Nvidia de siste årene har økt budsjettene for supporttjenester til spillutviklere kraftig.

 

Har jeg snakket om en magisk driver? Nei , jeg støtter bare opp utsagnet til Nizzen og andre brukere om at det er faktisk litt å hente på nye drivere hos Amd og sånn har det vært så lenge jeg har erfart

Kommentaren var heller ikke rettet mot deg... :)

 

Jeg forventer faktisk å se opp mot 25% forbedring ved lansering av Windows 10 og DX12 , men kun i visse spill og kombinasjoner av hardware , jeg vil også anta at Nvidia kan få en god forbedring (om ikke mer?) med W10 + DX12.

I enkelte scenarioer kan man sikkert få mer også. Det spørs hvor flaskehalsen ligger. Er den på CPU vil man selvsagt få en god forbedring, men hvis flaskehalsen er minnemengde eller båndbredde på en GPU (som den typisk kan være i 4K) eller ROP-kapasitet på en GPU så vil DX12 hjelpe lite.
Lenke til kommentar

 

Jeg forventer faktisk å se opp mot 25% forbedring ved lansering av Windows 10 og DX12 , men kun i visse spill og kombinasjoner av hardware , jeg vil også anta at Nvidia kan få en god forbedring (om ikke mer?) med W10 + DX12.

I enkelte scenarioer kan man sikkert få mer også. Det spørs hvor flaskehalsen ligger. Er den på CPU vil man selvsagt få en god forbedring, men hvis flaskehalsen er minnemengde eller båndbredde på en GPU (som den typisk kan være i 4K) eller ROP-kapasitet på en GPU så vil DX12 hjelpe lite.

 

 

Jeg tror at med noen optimaliseringer så vil ikke 4K være et problem, det er med engang man beveger seg mot 5K at problemene dukker opp for Fury X , flere spill som har vist at de kan fungere fint i 4k med kun 4Gb , men jeg skal være enig i at det er definitivt på kanten og Amd må få ut fingeren og sørge for at videre optimaliseringer blir gjort for å sørge for maks ytelse i 4K.

Lenke til kommentar

 

 

 

Jeg forventer faktisk å se opp mot 25% forbedring ved lansering av Windows 10 og DX12 , men kun i visse spill og kombinasjoner av hardware , jeg vil også anta at Nvidia kan få en god forbedring (om ikke mer?) med W10 + DX12.

I enkelte scenarioer kan man sikkert få mer også. Det spørs hvor flaskehalsen ligger. Er den på CPU vil man selvsagt få en god forbedring, men hvis flaskehalsen er minnemengde eller båndbredde på en GPU (som den typisk kan være i 4K) eller ROP-kapasitet på en GPU så vil DX12 hjelpe lite.

Jeg tror at med noen optimaliseringer så vil ikke 4K være et problem, det er med engang man beveger seg mot 5K at problemene dukker opp for Fury X , flere spill som har vist at de kan fungere fint i 4k med kun 4Gb , men jeg skal være enig i at det er definitivt på kanten og Amd må få ut fingeren og sørge for at videre optimaliseringer blir gjort for å sørge for maks ytelse i 4K.

Kanskje få til bedre ytelse i 1440p først?

Lenke til kommentar

Jeg tror at med noen optimaliseringer så vil ikke 4K være et problem, det er med engang man beveger seg mot 5K at problemene dukker opp for Fury X , flere spill som har vist at de kan fungere fint i 4k med kun 4Gb , men jeg skal være enig i at det er definitivt på kanten og Amd må få ut fingeren og sørge for at videre optimaliseringer blir gjort for å sørge for maks ytelse i 4K.

Det tror ikke jeg.

Jeg tror ingen kort denne generasjonen er gode nok til å dra 4K med maks detaljer over hele fjøla med spill, i alle fall ikke i en høy nok framerate som tilfredsstiller de som faktisk bruker så mye penger på hardware.

 

Når det gjelder 4GB diskusjonen, så tror jeg ikke det er noe problem hvis man bytter GPU hvert år, men hvis man planlegger å ha kortet et par år så tror jeg det kan bli mer problematisk. Noe av det som taler mot 4GB er at både XB1 og PS4 har over 4GB, det samme gjelder alle Nvidia sine ultra high-end kort.

Lenke til kommentar

 

I enkelte scenarioer kan man sikkert få mer også. Det spørs hvor flaskehalsen ligger. Er den på CPU vil man selvsagt få en god forbedring, men hvis flaskehalsen er minnemengde eller båndbredde på en GPU (som den typisk kan være i 4K) eller ROP-kapasitet på en GPU så vil DX12 hjelpe lite.

 

 

AMD har uttalt at valget av ant. ROPs på Fiji er pga begrensningene i GCN, men at dette ikke burde være noen hindring i ytelsen til GCN arkitekturen da antall triangler som skal rendres uansett er den samme uavhengig av oppløsning. Det som vil være forskjellen vil ligge i antall piksler, og her har AMD gjort jobben. Derfor, visstnok, tar Fiji en mindre "knekk" i ytelsen prosentmessig ved økning av oppløsning.

 

 

Jeg tror at med noen optimaliseringer så vil ikke 4K være et problem, det er med engang man beveger seg mot 5K at problemene dukker opp for Fury X , flere spill som har vist at de kan fungere fint i 4k med kun 4Gb , men jeg skal være enig i at det er definitivt på kanten og Amd må få ut fingeren og sørge for at videre optimaliseringer blir gjort for å sørge for maks ytelse i 4K.

Det tror ikke jeg.

Jeg tror ingen kort denne generasjonen er gode nok til å dra 4K med maks detaljer over hele fjøla med spill, i alle fall ikke i en høy nok framerate som tilfredsstiller de som faktisk bruker så mye penger på hardware.

 

Når det gjelder 4GB diskusjonen, så tror jeg ikke det er noe problem hvis man bytter GPU hvert år, men hvis man planlegger å ha kortet et par år så tror jeg det kan bli mer problematisk. Noe av det som taler mot 4GB er at både XB1 og PS4 har over 4GB, det samme gjelder alle Nvidia sine ultra high-end kort.

 

 

Det er dette som er argumentet til AMD, at 4GB skal være nok fortsatt i dag... (konsoll). Men helt enig at det er kanskje litt optimistisk å spå fremtiden og tekniske behov, flere har brent seg på det før...

Lenke til kommentar

 

Fury X vil derfor ikke se at det får et vesentlig ytelseforbedring før spillene implementerer via oppdateringer og nylanseringer DX12 samt selvsagt langt bedre og optimaliserte drivere. Kjenner jeg Amd rett vil vi se den første 25% økningen i ytelse ved juletider.

Tviler sterkt på at det er så mye å hente... Men, det har jo blitt standard prosedyre hos AMD brukere å snakke om de "magiske driverene" som er "rett rundt hjørnet".

 

Tycker AMD har bevisat att de klarar att förbättra ytelse genom drivare. Se på 290x sedan det kom. Det var ju långt efter 970 när 970 kom, idag är det förbi.

Lenke til kommentar

Synn at fury x ikkje funker med mantle da..

The situation then is that in discussing the performance results of the R9 Fury X with Mantle, AMD has confirmed that while they are not outright dropping Mantle support, they have ceased all further Mantle optimization. Of particular note, the Mantle driver has not been optimized at all for GCN 1.2, which includes not just R9 Fury X, but R9 285, R9 380, and the Carrizo APU as well. Mantle titles will probably still work on these products – and for the record we can’t get Civilization: Beyond Earth to play nicely with the R9 285 via Mantle – but performance is another matter. Mantle is essentially deprecated at this point, and while AMD isn’t going out of their way to break backwards compatibility they aren’t going to put resources into helping it either. The experiment that is Mantle has come to an end.

Det er ingen overraskelse, Mantle er død og begravet.

 

Jeg forventer faktisk å se opp mot 25% forbedring ved lansering av Windows 10 og DX12 , men kun i visse spill og kombinasjoner av hardware , jeg vil også anta at Nvidia kan få en god forbedring (om ikke mer?) med W10 + DX12.

Vi får vente og se. Men jeg tror det blir svært få spill som har eksakt samme grafikk implementert i en like optimalisert pipeline for både versjon 11 og 12 så du får direkte sammenlignet. En del spillmotorer blir generelt gradvis mer optimalisert, og det kommer uansett til å være en større faktor enn hvilken Direct3D-versjon som benyttes.
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...