Gå til innhold

Nå er det duket for minnekrig i grafikkmarkedet


Anbefalte innlegg

Videoannonse
Annonse

Vel, det blir en slags krig hvis GDDR6 minnet gir veldig god ytelse for pengene, da må toppmodeller prises mer fornuftig og vi er igang med presset. Si AMD lanserer et kort som har X ytelse som svar til Nvidia med samme ytelse, men forskjellen er 1.000,-, da får vi muligens en bølgeeffekt. Alle vet at å sette lavere pris og selge større kvanta er lønnsomt ;)

Lenke til kommentar

Vel, det blir en slags krig hvis GDDR6 minnet gir veldig god ytelse for pengene, da må toppmodeller prises mer fornuftig og vi er igang med presset. Si AMD lanserer et kort som har X ytelse som svar til Nvidia med samme ytelse, men forskjellen er 1.000,-, da får vi muligens en bølgeeffekt. Alle vet at å sette lavere pris og selge større kvanta er lønnsomt ;)

Vel, GDDR6 minne gir ikke like bra båndbredde som HBM2, så det er ingen match.

Men, man har jo gjentatte ganger sett at det ikke hjelper å kaste masse båndbredde på problemet (ref. Fury) når flaskehalsen(e) ligger andre steder i arkitekturen.

 

High-end kortene som kommer vil kreve båndbredden HBM kan levere, men andre kort litt lenger ned i sjiktet trenger ikke så mye båndbredde...

Lenke til kommentar

Er ikke GPUen som generieltsett er den svakeste i spill?

 

Særlig når man spiller FPS spill på 144 hz panel.

 

Er usikker ved phyx (Grafiske effekter) og lastetider er det kanskje noe å hente på GDDR6.

Men ikke mye.

 

Tror produsentene heller bør tenke på kjøleløsningen og overklokking fremfor dette.

Særlig AMD burde prioritere dette.

 

Raijintek Morpheus GPU Cooler Review tror jeg er de beste kjølerne for AMD skjermkort om man vil overklokke mye.

 

GTX 980 TI er egentlig litt dyrt sammenlignet man får R9 290x til god pris på bruktmarkedet.

Endret av LMH1
Lenke til kommentar

Så pris er hovedfordelen med GDDR6 kontra HBM? Høres logisk ut ettersom TSV og interposer antagelig er ganske kompliserende og fordyrende. Spørsmålet er da hvor mye billigere og hvor mye båndbredde må man gi slipp på? Eller sagt på en annen måte, om det vil være verd prisen å gå for HBM?

 

Et kjapt estimat:

- Hos AMD topper GDDR5 på 6 Gbit/s/pin i Radeon R9 390X som har 512 bit bredde og dermed 384 GB/s båndbredde. Hvis GDDR6 hever nivået til 14 Gbit/s/pin så vil lignende topp-skjermkort kunne gi 896 MB/s

- AMDs modell over, RadeonR9 Fury med 1 Gbit/s/pin, 4096 bit bredde og 512 GB/s båndbredde. HBM2 skal vistnok doble båndbredden så her kan vi forvente 1024 GB/s båndbredde på tilsvarende kort.

 

Ellers så finnes det vel også en tredje konkurrent her, Micron sin Hybrid Memory Cube, HMC. Vil noen benytte det?

Lenke til kommentar

Var ikke HBM begrenset til 4 GM VRAM? Hva er begrensingen til HBM 2.0, GDDR5 og GDDR6?

Stemmer, HBM2 som kommer neste år er begrenset til 32GB.

Hvor mye minne du kan få GDDR5/6 varierer ut i fra bredden på bussen. Med en 512-but bus er maks størelse 16GB, 12GB på en 384-bit bus. Tror ikke GDDR6 endrer dette.

 

Ellers så finnes det vel også en tredje konkurrent her, Micron sin Hybrid Memory Cube, HMC. Vil noen benytte det?

HMC er ikke så godt egnet for bruk på GPU'er.

Nyeste versjon av Intel Xeon Phi (Knights Landing) som kommer til våren bruker en variant av HMC (Intel kaller det MCDRAM) sammen med vanlig DDR4 minne.

Lenke til kommentar

Stemmer, HBM2 som kommer neste år er begrenset til 32GB.

Hvor mye minne du kan få GDDR5/6 varierer ut i fra bredden på bussen. Med en 512-but bus er maks størelse 16GB, 12GB på en 384-bit bus. Tror ikke GDDR6 endrer dette.

Hva trenger man så mye minne til? Hvis du ikke snakker om teoretiske begrensinger?

 

For 4k gaming skal det mye til 8 GB ram GDDR4 er flaskehalsen i spill, selv med mye mod i skyrim eller andre spill som liker mye minne, ser ikke problemet der, kanskje med mye minne slipper man lastetider, i spill i nivåer. Som f.eks battlefield crysis etc.

Der lastetidene er kun i starten i spillet så lagres minne tilsvarende som rask SSD slik at man slipper å vente like mye.

 

Men er vel GPuen i fleste tilfeller som er flaskehalsen med beregninger av objekter, derfor tar det lengere tid\mindre detaljer i selve spillet.

 

Ta f.eks 32 eller 64 GB GDDR5 hva mener du det ville vært fordel for og komme med slike skjermkort i 2016-2017?

Med mindre man vil ting skal gå utrolig tregt i spilling og prisen for GTX 1080 TI skal være 20 000 kr for et skjermkort hvilken nytte vil det gi?

Endret av LMH1
Lenke til kommentar

Er ikke GPUen som generieltsett er den svakeste i spill?

 

Særlig når man spiller FPS spill på 144 hz panel.

 

Er usikker ved phyx (Grafiske effekter) og lastetider er det kanskje noe å hente på GDDR6.

Men ikke mye.

Lastetid? 

 

Måtte det være brett eller innlastetid på objekter så er nok ikke minnebåndbredden i nærheten av en flaskehals. 500 GB/s+ er så raskt at det ville lastet slikt tilnærmet umiddelbart. Ved innlasting av spillbrett og slikt så er det en treg SSD som gjerne klarer rundt en 0,03-0,1 GB/s som holder igjen. Mens objekter og slikt vil begrenses av treg RAM/PCI-e buss som gjerne bare klarer rundt 8-16 GB/s.

 

Jeg tror ikke det er noen klar måte å faktisk se om det er GPU eller minne som holder deg igjen. Men at du kan måle ved å endre frekvens etc... Det blir en annen sak. :)

Endret av Andrull
Lenke til kommentar

Så du har ikke mulighet å si DDR3 vs DDR4 blir samme sammenligning mot GDDR4 vs GDDR5 i gaming?

 

Det blir bedre resultat i programmer som:

PerformanceTest 8.0

 

3dmark firestrike (Hvis man bruker 8k)

 

 

Da burde mye rask minne hjelpe særlig om det gir 8k oppløsning i skjermkortet som i tillegg blir konvertert til 4k da det ikke finnes 4k skjermer, elller man ha 4x 4k skjermer som blir totalt 8k oppløsning i eyefinity.

 

Men det er uansett GPUen som vil slite, det ser man fort. Da dette har blitt prøvd i SLI oppsett.

 

Hjelper lite å ha jetmotor bil hvis føreren ikke er rask nok, samme blir det med skjermkort.

Hvis ikke bruken er CAD eller grafisk tegning på 8k der trenger man kanskje ikke like mye GPU som ram?

Eller vet noen andre hva mye rask ram kan ha nytte av til hvilken bruk videoredigering?

Endret av LMH1
Lenke til kommentar

Så du har ikke mulighet å si DDR3 vs DDR4 blir samme sammenligning mot GDDR4 vs GDDR5 i gaming?

Nærmeste jeg kan komme på vil måtte være microstuttering eller lav FPS. 

 

Husk at GDDR i motsetning til DDR, er skreddersydd til sin aktuelle GPU, og bruksområdet av kortet er i de fleste tilfeller rimelig lett å forutse. Og med mindre AMD eller Nvidia har gjort en brøler hvor de har designet et lite balansert kort, så vil hverken GPU eller Minnebåndbredde være flaskehalsen. Unntaket ville vært om man brukte skjermkortet til noe helt annet enn tiltenkt bruk. Da er all bets off, selv om jeg ikke kjenner til noen bruk av skjermkort hvor minnebåndbredden er i nærheten av å bli en flaskehals.

 

Og selv om det kanskje hentes ut litt ekstra ytelse på å f.eks overklokke minnet, så betyr det jo uansett ikke at det er snakk om en flaskehals. En flaskehals av vesentlig betydning vil gi en omtrentlig omvendt proposjonal økning av ytelsen når du minker flaskehalsen. Dvs. Om du overklokker minnet 10 %, så ville også ytelsen økt rundt 10 %. Uavhengig av oppløsning  og i de fleste spilltester så har dette ikke vært tilfelle.

 

Det kan kanskje hende det er skjermkort i lavere klasser som har litt mer ubalanserte oppsett, da de ikke er like høyt prioriterte og selger ofte mer på specs enn på ytelse. Derfor har de også tidvis kommet i forskjellige versjoner med både GGDR3 og GDDR5 osv... 

På toppmodeller så har Nvidia og AMD stålkontroll på dette. Så fordelen med at vi får se raskere minne etter hvert er jo at de på sikt også lettere kan skalere opp GPUene, uten at de skal holde igjen.

 

Når det kommer til mengden minne, så er forskjellen langt mer situasjonsbestemt, så her kan det gjerne være en del variasjon av hva som passer best.  

Lenke til kommentar

Dette virker som enda en felle for AMD, som det virker som om de går rett i. Hvorfor det? La meg forklare:

 

Først navnet, som blir GDDR5X, ikke GDDR6:

For å si det først, det kommer ingen GDDR6. Det kan dere rette opp på tek, fordi det stemmer ikke. GDDR standarden er det JEDEC som står for, og det er Micron som utvikler dette. De kan ikke lage GDDR6 uten at det er godkjent av JEDEC (altså selve navnet, ikke teknologien). JEDEC har derimot godkjent GDDR5X. Det var en annen nettside som også skrev om dette, og de ble kontaktet av Micron, altså produsenten. De avkreftet at det var GDDR6. Det er GDDR5X som er navnet.

Kilde: http://wccftech.com/gddr6-memory-coming-2016-gpus/

 

Hva er egentlig denne GDDR5X, og hva skiller den fra GDDR5?

 

Micron-GDDR5X-Memory-Standard.png

 

 

Ytelse og pris

Det er jo klart at HBM minne er raskere og bedre enn GDDR5 minne.  Det er det som er fremtiden, og som vil bli brukt i toppmodellene. HBM krever jo derimot litt mer når det kommer til kostnad. Du må jo ha både VRAM og GPU på en interposer for å route alle forbindelsene der de skal. De ligger ganske tett når VRAM ligger så tett også. Så det koster klart mer. Derfor vil de jo bare bli brukt i toppkort.

 

Så hvorfor er jeg bekymret for AMD?

Som det har blitt nevnt tidligere her. Hva er poenget med 32 GB VRAM? 16 GB VRAM? Hva er poenget med en 8 GB VRAM R9 390? Den yter beviselig ikke bedre enn 4GB versjonene. Og med så mye VRAM så er ikke GPUen ellers raskt nok til å utnytte det uansett. Har du så heavy textures og mod til Skyrim, så er VRAM det minste problemet ditt. AMD har jo tradisjonelt ligget litt under Nvidia i pris for å selge sine GPUer. R9 390 derimot ligger over. Hvorfor? Vel det koster mer med 4 GB VRAM ekstra. AMD sine partnere skal rulle ut 4 GB versjoner av R9 390 til det kinesiske markedet nå. Gjett hva? De kan plutselig konkurrere med Nvidia i pris, og tilby R9 390 til samme pris som GTX 970 (eller kanskje lavere?). AMD var og svært ivrige med å bruke HBM gen 1 for sine Fury kort. Samtidig slo de ikke Nvidia i ytelse, og de var låst for overklokking. Vannkjøling + HBM gjorde at de ikke kunne selges billig heller. Og Nvidia tjener garantert mer på et GTX 980 Ti enn AMD på et Fury X. Samtidig var begrensningen på OC noe som gjorde at alle som kjøper toppkort og OC for å få maksimal ytelse, eller bare for gøy bare hadde et valg. Det lett overklokkbare GTX 980 Ti, som da klart slo Fury X.

 

Så hvis AMD nå fortsetter med å ha ekstra mye HBM minne (si et 12 eller 16GB VRAM kort). Eller at de introduserer HBM i langt flere modeller enn Nvidia, der Nvidia går for den billigere GDDR5X i overgang mellom HBM og GDDR5 kort. Da vil du få et segment der Nvidia har GDDR5X og AMD HBM, som vil være en prisfordel til Nvidia, uten at båndbredden er et reelt problem for Nvidia. (Nvidia har nesten alltid hatt lavere båndbredde enn AMD på kort, AMD liker å sette romslig båndbredde). GTX 670 (tror jeg) ble jo antatt ikke kunne OC så høyt pga lav bånbredde (hvis det ikke var 660 Ti). AMD sine kort derimot hadde mye å gå på. Så det er ikke ulik AMD å overkompensere, mens Nvidia gjør akkurat det de trenger, men ikke lager det dyrere enn nødvendig. Det er og to produsenter av HBM minne nå. AMD kjøper bare fra SK Hynix, som de gjør nå. Med HBM 2.0 er derimot Samsung og inne på banen. Nvidia vil sannsynligvis kjøpe HBM minne fra både SK Hynix og Samsung. Som igjen viser at Nvidia har et klart større fokus på økonomi. Sørge for å holde prisene nede, få to produsenter som leverandør for å få bedre pris. Ikke bruke unødvendig mye VRAM, eller unødvendig raskt. Hos AMD derimot virker det som om de er mest opptatte av det tekniske aspektet, og få mest mulig inn i hvert kort. Det er kult og bra, men fungerer dårlig i lengden. Noe vi ser på budsjettene til selskapene. Nvidia har nå utrolig mye mer penger å bruke enn AMD.

 

Det har vært endringer siden de skilte seg ut som Radeon Technology Group (de er fortsatt AMD), så forhåpentligvis så legger de om strategien ellers også på dette feltet. ellers tror jeg AMD styrer videre nedover. De kan ikke satse på å slå Nvidia på ytelse. De må satse på å slå dem på pris. (F. eks ikke lansere en helt ny arkitektur for Fury kort for å slå Nvidia i ytelse, ikke klare det og ikke selge noen Fury kort omtrent, mens deres aldrende arkitektur og høye mengde VRAM gjør at de blir knust av Nvidia i resten av GPU lineupen, mye pga av pris)

  • Liker 4
Lenke til kommentar

Jeg har sett Nvidia kort komme med DDR3. Nei, jeg skrev ikke det feil, DDR3 er det de kom med. Disse hadde klart lavere ytelse enn GDDR5 versjonene. Det er jo snakk om low-end kort her selvfølgelig. Ingen GTX branda kort kommer jo ikke med begrensning her. Det er generelt ikke et problem i det hele tatt. Det kunne blitt i high end, men nå har vi jo HBM, så det blir ikke.

 

Ellers har jo AMD og DDR3 for GPU. F.eks deres APUer. Da bruker de jo samme RAM som CPU, som er DDR3.

 

Ellers er det veldig lett å bevise forskjellen i RAM og VRAM. Vel, en av dem. Hvis du har en APU fra AMD kan du først teste den med 1333 Mhz RAM. Du tar en CPU test og en GPU test. Deretter overklokker du RAM til si 2600 Mhz. Det å overklokke RAM fører også til økt latency. For CPU nuller det ut fordelene med økt båndbredde, og du vil få ganske likt resultat i CPU testen. GPU derimot bryr seg lite om økt latency. Den vil bare ha ren båndbredde og opplever en stor økning i fps, eller score i benchmarkprogram.

Lenke til kommentar

Kommer AMD med noe nytt, da?

 

Blir 400-serien noe annet enn en rehash av 300-serien, som igjen var en rehash av 200-serien, som igjen var en rehash av 7000-serien.....

Det gjør de, de vil komme med ny arkitektur for de aller fleste kortene ville jeg tro. Det er enten det eller å gi opp GPU helt. Overgangen her er så stor at både Nvidia og AMD helt klart har jobbet mot dette en stund, og har god arkitektur for å produseres på 14 nm FinFET.

Lenke til kommentar

Det gjør de, de vil komme med ny arkitektur for de aller fleste kortene ville jeg tro. Det er enten det eller å gi opp GPU helt. Overgangen her er så stor at både Nvidia og AMD helt klart har jobbet mot dette en stund, og har god arkitektur for å produseres på 14 nm FinFET.

AI er nok primært en overgang fra 28nm til 14nm FinFET. Etter hva jeg har blitt fortalt av AMD så er ikke de arkitekturtelle forskjellene så store. Hovedprioriteten til AMD i 2016 er Zen for servere og workstation. Det går dessverre på bekostning av K12 (ARM) og GPU/APU.
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...