Gå til innhold

AMD Polaris & Vega og midlertidig (?) Navi


ExcaliBuR
Gjest

 

Anbefalte innlegg

Videoannonse
Annonse

Neeh, har EVGA 1070 FTW som jeg får stabilt på 2.1Ghz med 107% power limit, så er nok ikke det. Har den på stock settings da jeg liker lite støy og ikke har vannkjøling :-/ . Eneste jeg overklokker er [email protected] og ram til 3200cl16.

 

Men ja, liker å holde meg minst mulig biased.

Er dere ikke enige om at det er dårlig av AMD og ikke ha alt av drivere klart når de faktisk lager et gaming-kort av Vega-chippen? Synes det er enormt godt jobbet av AMD å klatre seg til en god posisjon på alle fronter der GPUer brukes, men da burde drivere og være klare.

Personlig mener jeg at ved lansering bør 75% eller mer av funksjonalitet være klart, ytelseforbedringer kan komme i etterkant.

 

Amd har ikke gjort en bra jobb med Vega lanseringen og har brukt allerede for lang tid uten at det har skjedd så mye nytt på driver fronten.

 

Mangelen på Cf er heller ikke bra.

Lenke til kommentar

Om CX drivere er ikke klare så har de egentlig levert et utestet produkt, det er nokså surt for de som har kjøpt flere kort.

Har du egentlig sjekket hvor mange som har et high end kort i Sli/Cf? Nvidia har selv gjort det samme med Sli og 1080 der man måtte registrere seg for å få Sli driver, støtte for 3x forsvant for vanlige dødelige.

 

Edit: og gjett hva 1060 mangler...

 

Spørsmålet er heller om de har bevist valgt å nedprioritere Cx for å fokusere på mer pressende problemer ved lansering.

Endret av Malvado
  • Liker 2
Lenke til kommentar

Småfeil og bugs er det alltids, både hos nvidia og amd. Den ene er på ingen måte noe værre enn den andre nå tildags, og muligens de siste 5+ årene.

Vega er i så fall et stort skritt i feil retning to "major features" (Draw Stream Binning Rasterizer

& Primitive Shaders) er angivelig enda ikke støttet, og Crossfire støtten er også nedprioritert.

 

Personlig mener jeg at ved lansering bør 75% eller mer av funksjonalitet være klart, ytelseforbedringer kan komme i etterkant.

75% av funksjonaliteten er uakseptabelt, jeg kunne ha gått med på 90%. Har kanskje ikke så god hukommelse, men kan ikke huske sist gang AMD (eller Nvidia) lanserte et produkt som ikke var tilnærmet 100% i funksjonalitet.
  • Liker 2
Lenke til kommentar

 

Småfeil og bugs er det alltids, både hos nvidia og amd. Den ene er på ingen måte noe værre enn den andre nå tildags, og muligens de siste 5+ årene.

Vega er i så fall et stort skritt i feil retning to "major features" (Draw Stream Binning Rasterizer

& Primitive Shaders) er angivelig enda ikke støttet, og Crossfire støtten er også nedprioritert.

 

Personlig mener jeg at ved lansering bør 75% eller mer av funksjonalitet være klart, ytelseforbedringer kan komme i etterkant.

75% av funksjonaliteten er uakseptabelt, jeg kunne ha gått med på 90%. Har kanskje ikke så god hukommelse, men kan ikke huske sist gang AMD (eller Nvidia) lanserte et produkt som ikke var tilnærmet 100% i funksjonalitet.

 

 

Tja, når Nvidia ga ut 1060 kortet i to varianter var det ikke så mye fokus på at 3Gb kortet faktisk hadde 10% mindre hardware aktivt og svært mange brukere trodde at den eneste forskjellen var mengden minne.

 

Men vi mennesker er jo kjent for å ha selektiv hukommelse så vi velger å fjerne ting som ikke er så morsomt, mangelen på SLI støtte på 1060 kortene ( nettopp fordi 2 x 1060 trolig ville kanskje gi bedre ytelse enn 1x1070 og av og til 1080 )  fordi Nvidia fjernet SLI brua er jo noe annet vi egentlig ikke tenker så mye på.

 

Nå har jeg ikke tenkt å forsvare mangelen på funksjonalitet på Vega 64, som jeg påpekte tidligere burde mesteparten ha fungerte ved lansering, forskjellen her er at man vil trolig få denne funksjonaliteten over tid, inkludert Crossfire mens man hos Nvidia aldri vil få det på noen kort pga at det var et bevist valg fra de som designet kortene.

  • Liker 1
Lenke til kommentar

Tja, når Nvidia ga ut 1060 kortet i to varianter var det ikke så mye fokus på at 3Gb kortet faktisk hadde 10% mindre hardware aktivt og svært mange brukere trodde at den eneste forskjellen var mengden minne.

 

Men vi mennesker er jo kjent for å ha selektiv hukommelse så vi velger å fjerne ting som ikke er så morsomt, mangelen på SLI støtte på 1060 kortene ( nettopp fordi 2 x 1060 trolig ville kanskje gi bedre ytelse enn 1x1070 og av og til 1080 )  fordi Nvidia fjernet SLI brua er jo noe annet vi egentlig ikke tenker så mye på.

 

Nå har jeg ikke tenkt å forsvare mangelen på funksjonalitet på Vega 64, som jeg påpekte tidligere burde mesteparten ha fungerte ved lansering, forskjellen her er at man vil trolig få denne funksjonaliteten over tid, inkludert Crossfire mens man hos Nvidia aldri vil få det på noen kort pga at det var et bevist valg fra de som designet kortene.

Det er ingen funksjonsmessig forskjell på GTX 1060 6GB og GTX 1060 3GB, det er ingen forskjell på CUDA-støtte, antall skjermer, maksimal oppløsning, OpenCL-støtte, eller noe annet, den eneste forskjellen er at 1060 6GB kan utføre funksjonene litt raskere.

 

SLI på midrange-kort har forøvrig aldri fungert like bra som et kraftigere kort, og de som ønsker mer ytelse fra et GTX 1060 eller RX 480 burde aldri vurdere å gå for CFX/SLI uansett. Det blir rett og slett ikke en god opplevelse, spesielt når både Nvidia og AMD reduserer fokuset på å få til god driverstøtte for slike løsninger.

 

Hvis det er noen ytelsesforbedrende funksjoner i Vega som ikke er aktivert per dags dato bør AMD la dem være deaktivert, og heller lansere nye SKUs med denne funksjonaliteten aktivert senere. Det vil faktisk være dårlig PR å gjøre noe annet. Om AMD ikke har fått driverne til å fungere "skikkelig" etter et helt år med tilgang, er det liten grunn til å forvente at to-tre måneder vil gjøre noen forskjell.

Lenke til kommentar

 

Tja, når Nvidia ga ut 1060 kortet i to varianter var det ikke så mye fokus på at 3Gb kortet faktisk hadde 10% mindre hardware aktivt og svært mange brukere trodde at den eneste forskjellen var mengden minne.

 

Men vi mennesker er jo kjent for å ha selektiv hukommelse så vi velger å fjerne ting som ikke er så morsomt, mangelen på SLI støtte på 1060 kortene ( nettopp fordi 2 x 1060 trolig ville kanskje gi bedre ytelse enn 1x1070 og av og til 1080 )  fordi Nvidia fjernet SLI brua er jo noe annet vi egentlig ikke tenker så mye på.

 

Nå har jeg ikke tenkt å forsvare mangelen på funksjonalitet på Vega 64, som jeg påpekte tidligere burde mesteparten ha fungerte ved lansering, forskjellen her er at man vil trolig få denne funksjonaliteten over tid, inkludert Crossfire mens man hos Nvidia aldri vil få det på noen kort pga at det var et bevist valg fra de som designet kortene.

Det er ingen funksjonsmessig forskjell på GTX 1060 6GB og GTX 1060 3GB, det er ingen forskjell på CUDA-støtte, antall skjermer, maksimal oppløsning, OpenCL-støtte, eller noe annet, den eneste forskjellen er at 1060 6GB kan utføre funksjonene litt raskere.

 

SLI på midrange-kort har forøvrig aldri fungert like bra som et kraftigere kort, og de som ønsker mer ytelse fra et GTX 1060 eller RX 480 burde aldri vurdere å gå for CFX/SLI uansett. Det blir rett og slett ikke en god opplevelse, spesielt når både Nvidia og AMD reduserer fokuset på å få til god driverstøtte for slike løsninger.

 

Hvis det er noen ytelsesforbedrende funksjoner i Vega som ikke er aktivert per dags dato bør AMD la dem være deaktivert, og heller lansere nye SKUs med denne funksjonaliteten aktivert senere. Det vil faktisk være dårlig PR å gjøre noe annet. Om AMD ikke har fått driverne til å fungere "skikkelig" etter et helt år med tilgang, er det liten grunn til å forvente at to-tre måneder vil gjøre noen forskjell.

 

 

Nei, det var ingen som påstå det heller, men at Nvidia var litt sleip og informerte heller ikke så mye om at kortet i utgangspunktet var litt slakkere enn 1060 med 6Gb minne er heller ikke noe man kan unngå.

 

Det er slikt vi bør sette ned foten på, både hos Amd som ikke lanserer et ferdigstilt produkt ( mangelen på en del funksjonalitet i Vega som ble annonsert før lansering er bekymringsverdig) og hos Nvidia når noe lignende skjer.

Lenke til kommentar

http://www.anandtech.com/show/11797/acer-reveals-predator-orion-9000-gaming-desktop

 

Litt artig med denne da som skryter av at her er det støtte for 4 vega kort i crossfire x

 

Hvertfall med tanke på crossfire sin fremtid... virker jo som det en gang vil komme til vega, men har jo lest et eller annet sted (husker ikke linken) at det ser ut som SLI og CROSSFIRE blir et fjernt minne. Mulig at det er borte for gått allerede ved neste generasjon.

 

Hvis ikke 4k på 38" ultra brede @ 120hz skjermer skyter fart for teknologien igjen da... Er vel en stundt til ett skjermkort klarer det? Men er vel en stund til vi får slike skjermer også?

Endret av Goodall
Lenke til kommentar

Tja, når Nvidia ga ut 1060 kortet i to varianter var det ikke så mye fokus på at 3Gb kortet faktisk hadde 10% mindre hardware aktivt og svært mange brukere trodde at den eneste forskjellen var mengden minne.

Hva har det med saken å gjøre? Det ene handler om å deaktivere funksjoner i hardware, og det andre handler om å ikke ha implementert funksjonalitet som påstås å være i hardware.

 

Nvidia har heller aldri påstått noe annet, da forskjellene helt fra starten av har kommet helt tydelig frem på nettsider og i tester. De har heller aldri påstått at ekstra cores "kanskje en gang" skal bli aktivert i en driver.

 

Men vi mennesker er jo kjent for å ha selektiv hukommelse så vi velger å fjerne ting som ikke er så morsomt, mangelen på SLI støtte på 1060 kortene ( nettopp fordi 2 x 1060 trolig ville kanskje gi bedre ytelse enn 1x1070 og av og til 1080 )  fordi Nvidia fjernet SLI brua er jo noe annet vi egentlig ikke tenker så mye på.

Nvidia lovte heller aldri å støtte SLI på 1060. De har så vidt jeg kan ha lest vært tydelige siden Pascal ble lansert at SLI kun var en nisjefunksjonalitet som de ville ha på high-end kort.

 

Nå har jeg ikke tenkt å forsvare mangelen på funksjonalitet på Vega 64, som jeg påpekte tidligere burde mesteparten ha fungerte ved lansering, forskjellen her er at man vil trolig få denne funksjonaliteten over tid, inkludert Crossfire mens man hos Nvidia aldri vil få det på noen kort pga at det var et bevist valg fra de som designet kortene.

Har du ikke tenkt til å forsvare mangelen på funksjonalitet på Vega???

Hva er det egentlig driver med nå da?

Hvorfor drar du plutselig inn at GTX 1060 ikke støtter SLI (noe Nvidia aldri har påstått at det skal gjøre) og at GTX 1060 3GB har færre cores (noe produktspesifikasjonene heller aldri har lagt skjul på)?

  • Liker 2
Lenke til kommentar

"Ancient history" allerede. Derfor jeg spør for sikkerhets skyld hvordan det nå ble? ;)

 

Så vidt jeg husker, så var AMD veldig frempå med å skryte av AC på sine kort. Og Nvidia svarte da med at "det har jo våre kort også". Men når utviklerne av "Ashes of the Singularity" prøvde å benytte det med Nvidia kort ble det bare kluss fordi det i motsetning til hva Nvidia hadde sagt. Fremdeles var deaktivert i driveren. Og når Nvidia omsider slapp en driver der AC ikke var deaktivert, så var der så og si ingen ytelses forbedring med AC aktivert. Som igjen fikk mange til å lure på om det overhodet noensinne var/ble støtte for AC i Maxwell.

 

Edit: Står litt om det på Wiki siden til 900 serien.

Endret av Gabri3L
Lenke til kommentar

"Ancient history" allerede. Derfor jeg spør for sikkerhets skyld hvordan det nå ble? ;)

 

Så vidt jeg husker, så var AMD veldig frempå med å skryte av AC på sine kort. Og Nvidia svarte da med at "det har jo våre kort også". Men når utviklerne av "Ashes of the Singularity" prøvde å benytte det med Nvidia kort ble det bare kluss fordi det i motsetning til hva Nvidia hadde sagt. Fremdeles var deaktivert i driveren. Og når Nvidia omsider slapp en driver der AC ikke var deaktivert, så var der så og si ingen ytelses forbedring med AC aktivert. Som igjen fikk mange til å lure på om det overhodet noensinne var/ble støtte for AC i Maxwell.

 

Så vidt jeg vet så støtter Maxwell konseptet, men scheduleren gjøres i software og ikke i brikka. Men jeg kan for lite om det til å være sikker.

 

Men poenget er vel at AMD har reklamert med funksjoner fra "dag 1" med Vega som nå, etter release, viser seg mest sannsynlig å være deaktiverte. Jeg føler faktisk det er forskjell fra async-compute argumentet, reklamerte nVidia med at Maxwell hadde dette i sine launch papers?

Endret av ExcaliBuR
Lenke til kommentar

1060 var et dårlig eksempel. Men hvordan ble det egentlig med Async Compute på Maxwell?  :whistle:

Som nevnt av ExcaliBuR så ble det aldri reklamert med støtte.

 

Maxwell støtter Async Compute nå faktisk, men du må statisk allokere resurser før du starter en GPU context, alternativt må du avslutte context og re-konfigurere. Ikke veldig effektivt hvis ikke du har en ganske statisk oppgave. Vi har faktisk en workload vi bruker det på, men det er ikke mer spennende enn post-prosessering på en videostrøm.

 

Pascal støtter dynamisk switching, men de fleste spillene som bruker DX12 er ikke tunet for Nvidia hardware. 3DMark Time Spy og RoTR er et par av unntakene jeg vet om.

Lenke til kommentar

Altså, AMD hadde HW støtte for AC og reklamerte for det. Nvidia er redde for at AMD skal selge kort på et "Buzzword" som Nvidia ikke egentlig kan si at de også har. Men de sier det likevel; "joda, våre kort støtter også AC". At det må gjøres i SW, og at det i nesten alle praktiske henseender aldri kom/kommer til Maxwell i noe spill, må da vel kunne sammenliknes med at AMD selger kort i dag som ikke enda har alle features som er lovet?

 

Det er ellers også et poeng at om du kjøpte et GTX980Ti 6 måneder før Pascal ble released. Så ble du lovet AC støtte til det kortet. Det husker jeg at jeg som daværende 980Ti eier leste mens kontroversen stod på. Også denne karen fikk det med seg. Så jeg kan ikke si at jeg er enig i et argument om at det ikke ble lovet ved launch skal ha noe å si. Så lenge de lovet det senere..

 

Nvidia skulle ikke sagt; "Joda, vi støtter AC vi også.". De skulle sagt: "Våre kort trenger det ikke."

 

Edit: I nederste slide på denne siden reklamerer Nvidia for AC med 980Ti.

Endret av Gabri3L
  • Liker 3
Lenke til kommentar

 

AMD har jo lavere minnefrekvens på 4gb vs 8gb, så de himper jo litt slik Nvidia gjør.

 

På hvilket kort da? RX 580 er likt.

 

Hmm, på alle jeg har sett har 4gb 7000 MHz mens 8gb har 8000MHz, f.eks MSI og XFX sine har det.

https://us.msi.com/Graphics-card/Radeon-RX-580-ARMOR-4G-OC.html

http://www.xfxforce.com/en-us/products/amd-radeon-rx-500-series/rx-580-gts-4gb-dd-rx-580p427d6

 

På RX 480 8\4gb var det meg bekjent samme deal.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...