Gå til innhold

AMDs kraftigste «prosessorgrafikk» noen sinne


Anbefalte innlegg

 

 

Den klarer faktisk GTA på low, med decent framerate. Ja, det er 720p, men det er jo mye av det på konsoller også.

Et mistekrav må være å kjøre spill i native oppløsning. Å kjøre et 720p-spill på en 1080p-skjerm vil gi et veldig uklart bilde. At konsoller gjør det gjør det ikke greit.

 

 

Det får være opp til hver enkelt å bestemme hva som er minstekrav for seg selv.

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

Lurer på hvorfor disse rabiate nVidia- og intelfanboysa føler behov for å fortelle hvor "rævva" AMD er. 

 

AMD tilbyr sine produkter. Hvorvidt du kjøper dem er opp til deg. På skjermkortfronten har dem majoriteten av tiden opprettholdt best ytelse per krone frem til GTX 9XX serien til nVidia.

 

Om AMD skulle gå konkurs (med hjelp av rabiate fanboys som føler behovet for å misinformere alle de kommer over) er vi som har over snittet interesse for datamaskiner "screwed". 

 

Intel har, siden AMD falt av lastet på CPU-fronten, melket kundene sine med generasjon etter generasjon med minimale ytelsesøkninger. Hvis det var reell konkurranse hadde nok R&D avdelingen til Intel fått fart på sakerne. 

Endret av Judgement
  • Liker 5
Lenke til kommentar

Det er et faktum at AMDs CPU-utvalg er underlegent i dag. Det er irrasjonelt av informerte kjøpere å velge en AMD-CPU slik situasjonen er nå, og det vil være selve definisjonen på en fanboy.

Hvordan er det irrasjonelt? Det er også et kjent faktum at AMDs CPUer gir langt bedre price/performance. En FX-8350 koster 1600,- nå, som er ganske billig. Et annet kjent faktum er at DX12, som Mantle, kommer med

optimaliseringer som gjør forskjellen mellom en FX-8350 og en i7 4770K minimal i oppgaver som gaming

 

Det er også mange som velger AMD av prinsipielle grunner (som meg selv). At Intel år etter år lanserer desktop-CPUer med 0-3% bedre ytelse totalt sett, i tillegg til å hele tiden introdusere unødvendig nye sokler for at vi kunder skal kjøpe nye hovedkort, er jo et eksempel på dette. Eller hva med den forferdelige skitne taktikken nVidia kjører gjennom Gameworks, der de regelrett saboterer for AMDs skjermkort (Project Cars og The Witcher 3 er nylige eksempler)? Eller G-Sync mot AMDs åpne løsning Freesync?

 

Faktum er at AMD gir utrolig gode produkter for deres priser. De har vært ut av CPU-markedet i lang tid nå, og vil nok ikke være relevant inntil de lanserer Zen-CPUen sin neste år. Men i skjermkortmarkedet tilbyr de kjempegode produkter. I tillegg er det AMD som kommer til å tjene mest på DX12, når det kommer, da nVidias skjermkort gir betydelig bedre ytelse under DX11 enn AMDs kort.

 

Må si jeg finner det utrolig trist, om ikke forkastelig, at et selskap som AMD, som har kolossalt mye mindre R&D budsjett enn Intel på CPU-markedet og nVdia på skjermkort-markedet, og i tillegg har vært hovedgrunnen til at konkurransen holdes oppe og at vi får GPUer med 20-30% bedre ytelse hvert år, blir regelrett angrepet av brukere som deg. Det er faktisk lov å tenke utenfor benchmarks og se på dette fra et mer fremtidsrettet og brukerbasert perspektiv: et AMD ut av GPU-markedet går i hovedsak utover oss selv.

 

I tillegg gjør dere dette i en artikkel om APUer; en teknologi dere bortkaster som ubrukelig, men som vil være ledende i årene framover. Med DX12 og den store ytelsesforbedringen disse har hvert år, samstundes med den kjempebillige prisen, vil de fort bli et fantastisk alternativ for budsjettgamere. 

Endret av La Menthe
  • Liker 5
Lenke til kommentar

Med hjelp av rabiate fanboys som føler behovet for å misinformere alle de kommer over) er vi som har over snittet interesse for datamaskiner "screwed". 

 

Intel har, siden AMD falt av lastet på CPU-fronten, melket kundene sine med generasjon etter generasjon med minimale ytelsesøkninger. Hvis det var reell konkurranse hadde nok R&D avdelingen til Intel fått fart på sakerne. 

Skal man kjøpe noe som er langt dårligere bare for å støtte underlegne produkter?

R&D på Intel har nok full fart. Det er bare at de trenger ikke å lansere noe råere siden de allerede er best.

Dette vil jo også føre til dårligere salg for Intel siden folk klarer seg med det som er 3-4 år gammelt i forhold til nyeste konsumer CPU.

Lenke til kommentar

 

Med hjelp av rabiate fanboys som føler behovet for å misinformere alle de kommer over) er vi som har over snittet interesse for datamaskiner "screwed". 

 

Intel har, siden AMD falt av lastet på CPU-fronten, melket kundene sine med generasjon etter generasjon med minimale ytelsesøkninger. Hvis det var reell konkurranse hadde nok R&D avdelingen til Intel fått fart på sakerne. 

Skal man kjøpe noe som er langt dårligere bare for å støtte underlegne produkter?

R&D på Intel har nok full fart. Det er bare at de trenger ikke å lansere noe råere siden de allerede er best.

Dette vil jo også føre til dårligere salg for Intel siden folk klarer seg med det som er 3-4 år gammelt i forhold til nyeste konsumer CPU.

 

 

Såklart vil jo de ikke gjør det. Når de har monopol på markedet (og er altså det eneste alternativet) og i tillegg lanserer nye CPUer med nye sokler hele tiden, så vil de alltid klare å selge mer. Det er sant at det er fullstendig ubrukelig å oppgradere CPUen, om en har en 4 år gammel i5 2500K eller i7 2600K. Men du er ikke klar over hvor mange mennesker det er i teknologiske forum som faktisk gjør det likevel. Og da snakker vi om de som er bekjent med dette og er fullstendig klar over hva de gjør; folk som er klar over sine valg, men velger likevel å gjøre seg frivillig offer til konsumerismen. Det er enda verre for generelle gamere.

Endret av La Menthe
Lenke til kommentar

Hvordan er det irrasjonelt? Det er også et kjent faktum at AMDs CPUer gir langt bedre price/performance. En FX-8350 koster 1600,- nå, som er ganske billig.

Det er usant. Det finnes bedre kjøp enn FX-8350, som f.eks. i5-4430 og [https://prisguiden.no/produkt/intel-core-i5-4460-208615%5Di5-4460[/url]. Hvis sammenligningen skal være rettferdig så må det plusses på 200 kr ekstra pga. økt kjølebehov for FX-CPUene, og da blir de ikke prisgunstige. På toppen av dette er de som kjent mindre egnet til spilling.

 

Et annet kjent faktum er at DX12, som Mantle, kommer med optimaliseringer som gjør forskjellen mellom en FX-8350 og en i7 4770K minimal i oppgaver som gaming.

i5 og i7 er fremdeles bedre, og i noen tilfeller også i3.

 

Det er også mange som velger AMD av prinsipielle grunner. At Intel år etter år lanserer CPUer med 0-3% bedre ytelse totalt sett, i tillegg til å hele tiden introdusere nye sokler for at vi kunder skal kjøpe nye hovedkort, er jo et eksempel på dette.

AMD har da ikke kommet med noen større forbedringer i mellomtiden. Og hvem gidder å oppgradere en maskin med en CPU som er noen få prosent bedre? Det er er rimelig søkt scenario du tegner.

 

Eller hva med den forferdelige skitne taktikken nVidia kjører fram med Gameworks for å ødelegge for AMDs skjermkort (Project Cars og The Witcher 3 er nylige eksempler)? Eller G-Sync mot AMDs åpne løsning Freesync?

Jeg kan nevne en lang liste over AMDs synder også, f.eks. avvik i Direct3D-, OpenGL- og OpenCL-implementasjonene som gjør at programmer skrevet for AMD får problemer ellers, dette er spesielt ille for OpenCL. Mantle er ikke så åpent som de skal ha det til, og det er minst like "ødeleggende" for Nvidia som Gameworks "ødelegger" for andre. I tillegg har AMD en mindre god Linux-driver for den som driver med det. Microstuttering og store CrossFire-problemer. Jeg kunne nevnt mye mer, men poenget her er å vise at AMD har minst like mange klandringspunkter som Nvidia.

 

Faktum er at AMD gir utrolig gode produkter for deres priser.

På CPU-fronten tilbyr Intel bedre produkter fra low-end til high-end. På GPU-fronten tilbyr AMD noen produkter som er konkurransedyktige på pris, men som er underlegne i f.eks. energiforbruk.

 

Men i skjermkortmarkedet tilbyr de kjempegode produkter.

Gjør de virkelig det? Det meste de har er tre år gammelt, og det som er nyere er fremdeles en tre år gammel arkitektur som er omtrent konkurransedyktig med Kepler.

 

I tillegg er det AMD som kommer til å tjene mest på DX12, når det kommer, da nVidias skjermkort gir betydelig bedre ytelse under DX11 enn AMDs kort.

Det er alltid moro når det spekuleres om fremtidige gevinster. Faktum er at DirectX 12 vil la spills tilpassninger til GPU-arkitekturer vises tydligere, så vi kan forvente at spill i større grad enten yter bedre med AMD eller Nvidia, avhengig av hvilken produsent som har "sponset" utviklingen. Dette er en konsekvens av at Direct3D 12 får noe mindre overhead, da vil effektiviteten til spillmotorer bli tydeligere. Endret av efikkan
Lenke til kommentar

Må si jeg også er lei av disse DirectX 12 greiene. Jeg har sett så mange tester og påstander nå. Åpenbart skal DirectX gjøre alt som er dårlig bra. De skal gjøre at AMD slår ut NVIDIA og Intel med langt dårligere HW. DirectX 12 kommer til å gjøre alt minst 300% bedre, og alt kommer til å yte likt fordi det er ekstra ytelse til de som ligger bak....... Nå er ikke det jeg skriver helt sant, men det er heller ikke påstandene om DirectX. Anbefaler deg å lese den aktuelle artikkelen. Tallene som AMD presenterer er jo helt fullstendig gale, og utrolig sterkt overdrevet. Slik er tradisjonen, slik er det alltid. Jeg ser ikke hvordan DirectX 12 skal være annerledes. Vi får se når det kommer ut. Det hjelper dessuten ikke på alle spill som i dag IKKE er directX, og det vil ta litt tid før spill blir directX 12.

 

Ellers så sier du en FX-8350 er billig? En 1600 kr CPU som blir slått av en 1100 kr CPU fra Intel. Du betaler 500 kr premium for et strømslukende beist fra CPU-museumet. Det er helt ærlig ingen måte AMD kan konkurrere. Selvfølgelig vil jeg ha konkurranse, og støtter ikke Intel sin monopolisering. Likevel er en det ikke bra å holde AMD kunstig i live med å kjøpe CPUer som er dårligere på alle måter, og koster mer. Du er fanboy om du kjøper AMD CPU, ettersom det ikke finnes noen objektiv grunn for å kjøpe det. Jeg har diskutert det før, og ingen har klart å bevise at AMD er bedre. Det ender alltid opp med "men men Intel monopol". Den beste måten er å få AMD sin CPU avdeling til å gå konk og selge det ut. Det går jo rykter om krysslisensiering fra Intel som hindrer dette. Da er det åpenbart at amerikanske myndigheter har en jobb i så fall for å fikse opp. Det er klart at AMD ikke har inntekten eller kapitalen til å slå Intel noen gang. De kommer ikke i nærheten en gang når Intel nesten ikke gjør noe.

 

Nvidia er litt foran på GPU marked, men AMD har mange gode produkter der. De har og styrker og kommet lengre enn NVIDIA når det kommer til noen deler. Et eksempel er samarbeidet med SK Hynix om HBM. Dermed fortsetter AMD trenden om å ha mye bedre båndbredde for minne, noe som gjør at de gjør det sterkt ved høyere oppløsning, i forhold til NVIDIA som gjør det bra på 1080p. Det er viktig for kommende 4K skjermkort, og kan gjøre at AMD vinner på 4K, selv om det ikke vinner på 1080p mot NVIDIA sitt 980 Ti. Dermed burde de og kutte ut CPU pengesluket, og satse på GPU. Det er noe de kan, og noe de er i toppen på, men de trenger absolutt pengene for å sloss mot NVIDIA.

Lenke til kommentar

Når de har monopol på markedet (og er altså det eneste alternativet) og i tillegg lanserer nye CPUer med nye sokler hele tiden, så vil de alltid klare å selge mer.

Ny CPU arkitektur er ny sokkel ja. Sandy Bridge og Ivy Bridge er samme sokkel. Haswell og Broadwell er samme sokkel. Skylake som er en ny arkitektur igjen får en ny sokkel.

 

Det samme gjør også AMD. De har bare ikke kommet med noen ny CPU arkitektur på en stund. Men når "Zen" kommer til neste år så kommer de til å kreve ny sokkel.

Lenke til kommentar

De har og styrker og kommet lengre enn NVIDIA når det kommer til noen deler. Et eksempel er samarbeidet med SK Hynix om HBM. Dermed fortsetter AMD trenden om å ha mye bedre båndbredde for minne, noe som gjør at de gjør det sterkt ved høyere oppløsning, i forhold til NVIDIA som gjør det bra på 1080p. Det er viktig for kommende 4K skjermkort, og kan gjøre at AMD vinner på 4K, selv om det ikke vinner på 1080p mot NVIDIA sitt 980 Ti. Dermed burde de og kutte ut CPU pengesluket, og satse på GPU. Det er noe de kan, og noe de er i toppen på, men de trenger absolutt pengene for å sloss mot NVIDIA.

Mye bedre båndbredde hjelper nødvendigvis ikke. Ta for eksempel 290X. Dette kortet har mye mer båndbredde, og også mye mer teoretisk regnekraft enn GTX 980. Allikevel så er ytelsen på 980 bedre.

 

Nvidia er også involvert i HBM standarden, de har bare valgt å ikke implementere 1. generasjon av HBM, da de mener at 4GB er for lite minne i et ultra high-end skjermkort. Jeg ville vært skeptisk til om 4GB minne er en begrensning for fremtidige spill i 4K.

 

GPU avdelingen til AMD gjør det dessverre ikke veldig bra de heller, markedsandelen er rekordlav. Problemet er at de sløser bort tid på produkter som Fiji, som primært er et PR-stunt, og ikke noe de kommer til å tjene penger på. De burde kommet med nye revisjoner av GCN for å konkurrere med GM107 og GM206. Det er i dette markedet det er penger å hente.

Lenke til kommentar

 

Mye bedre båndbredde hjelper nødvendigvis ikke. Ta for eksempel 290X. Dette kortet har mye mer båndbredde, og også mye mer teoretisk regnekraft enn GTX 980. Allikevel så er ytelsen på 980 bedre.

 

Nvidia er også involvert i HBM standarden, de har bare valgt å ikke implementere 1. generasjon av HBM, da de mener at 4GB er for lite minne i et ultra high-end skjermkort. Jeg ville vært skeptisk til om 4GB minne er en begrensning for fremtidige spill i 4K.

 

GPU avdelingen til AMD gjør det dessverre ikke veldig bra de heller, markedsandelen er rekordlav. Problemet er at de sløser bort tid på produkter som Fiji, som primært er et PR-stunt, og ikke noe de kommer til å tjene penger på. De burde kommet med nye revisjoner av GCN for å konkurrere med GM107 og GM206. Det er i dette markedet det er penger å hente.

 

Likevel har jo AMD tradisjonelt høyere ytelse på høyere oppløsninger, over 1080p. Jeg er enig i at det ikke er mye, men det er noe AMD gjør bedre enn NVIDIA. AMD vinner selvfølgelig heller ikke mot AMD når det kommer til det beste kortet. Det betyr ikke at resten av kortene deres er dårlige produkter sammenlignet med nvidia. De har lav markedsandel, men det betyr ikke at produktene er dårlige. Har selv NVIDIA, og når jeg kjøpte dem var de det beste valget på mange områder. Nvidia er jo og bedre på software, som GeForce Experience, som er et veldig nyttig program. Det betyr likevel ikke at jeg vil utelukke AMD ved neste kjøp. Spesielt ikke siden jeg ikke er ute etter mest ytelse, uansett kostnad. 970 gir jo helt klart mer verdi for pengene enn 980 for eksempel.

 

edit: Svarte jeg deg forresten noen gang i Core-M diskusjonen?

Endret av TKongen
Lenke til kommentar

 

De har og styrker og kommet lengre enn NVIDIA når det kommer til noen deler. Et eksempel er samarbeidet med SK Hynix om HBM. Dermed fortsetter AMD trenden om å ha mye bedre båndbredde for minne, noe som gjør at de gjør det sterkt ved høyere oppløsning, i forhold til NVIDIA som gjør det bra på 1080p. Det er viktig for kommende 4K skjermkort, og kan gjøre at AMD vinner på 4K, selv om det ikke vinner på 1080p mot NVIDIA sitt 980 Ti. Dermed burde de og kutte ut CPU pengesluket, og satse på GPU. Det er noe de kan, og noe de er i toppen på, men de trenger absolutt pengene for å sloss mot NVIDIA.

Nvidia er også involvert i HBM standarden, de har bare valgt å ikke implementere 1. generasjon av HBM, da de mener at 4GB er for lite minne i et ultra high-end skjermkort. Jeg ville vært skeptisk til om 4GB minne er en begrensning for fremtidige spill i 4K.

 

Det er det hynix og AMD som har utviklet HBM. Litt artig at Nvidia må ty til teknologi i fra AMD, for å henge med på racet i fremtiden :)

Lenke til kommentar

 

 

Det er det hynix og AMD som har utviklet HBM. Litt artig at Nvidia må ty til teknologi i fra AMD, for å henge med på racet i fremtiden :)

 

De bruker jo ikke teknologi fra AMD i så fall, de bruker fra Hynix. SK Hynix er jo en av verdens ledende selskaper innenfor RAM, og de var tungt inne i utvikling av DDR4. Det er nok de som har teknologien, og AMD som har stått for implementeringen. Dermed vil jo NVIDIA kjøpe av Hynix, og så finne en måte å implementere det på. Det er jo ingen hemmelighet hvordan AMD har gjort det, så er ikke akkurat vanskelig.

De er tross alt nummer 2 på dette området, bare bak Samsung: http://en.wikipedia.org/wiki/SK_Hynix

 

De aller fleste selskaper som lager slike produkter er avhengig av andre. Apple som er et av verdens største elektronikkselskaper er jo 100% avhengig av andre selskaper som utvikler og produserer nye HW for dem. Deres nye CPU vil ikke bli skikkelig god, med mindre de får en avtale med Samsung. Er det morsomt? Jeg ville sagt at det er helt normalt. Til tross for hva selskaper sier, så er det mye som er utviklet av andre, og ikke dem selv. Det gjelder spesielt for amerikanske selskaper, ettersom det meste av produksjon og utvikling på dette området foregår i SK/JP/TW. Det viser jo til en viss grad dette bildet: http://www.moneyballeconomics.com/wp-content/uploads/2015/02/semis5b.png

Lenke til kommentar

 

Med hjelp av rabiate fanboys som føler behovet for å misinformere alle de kommer over) er vi som har over snittet interesse for datamaskiner "screwed". 

 

Intel har, siden AMD falt av lastet på CPU-fronten, melket kundene sine med generasjon etter generasjon med minimale ytelsesøkninger. Hvis det var reell konkurranse hadde nok R&D avdelingen til Intel fått fart på sakerne. 

Skal man kjøpe noe som er langt dårligere bare for å støtte underlegne produkter?

R&D på Intel har nok full fart. Det er bare at de trenger ikke å lansere noe råere siden de allerede er best.

Dette vil jo også føre til dårligere salg for Intel siden folk klarer seg med det som er 3-4 år gammelt i forhold til nyeste konsumer CPU.

 

 

Nei man skal ikke kjøpe noe som er underlegent bare for å støtte ett selskap man ikke har noe personlig forhold til. Men å påstå at GPU delen av AMD er underlegen nVidia samt at Intel alltid har vært og alltid kommer til å være overlegen AMD er bare bs. 

 

Jeg er fullt klar over at AMD sliter på CPU siden da jeg selv sitter med Intel. På den andre siden var det ingen grunn for meg å velge nVidia når jeg kjøpte skjermkort.

Lenke til kommentar
 
Jeg kan nevne en lang liste over AMDs synder også, f.eks. avvik i Direct3D-, OpenGL- og OpenCL-implementasjonene som gjør at programmer skrevet for AMD får problemer ellers, dette er spesielt ille for OpenCL. Mantle er ikke så åpent som de skal ha det til, og det er minst like "ødeleggende" for Nvidia som Gameworks "ødelegger" for andre. I tillegg har AMD en mindre god Linux-driver for den som driver med det. Microstuttering og store CrossFire-problemer. Jeg kunne nevnt mye mer, men poenget her er å vise at AMD har minst like mange klandringspunkter som Nvidia.

 

Jeg er enig i at D3D, OpenGL og OpenCL-implementasjonene til AMD har vært spesielle til tider og har medført problemer for AMD's kunder. Linuxdriveren trenger polish, selv om jeg har opplevd mindre problemer i ubuntu samt arch med AMD enn nVidia (har 3 forskjellige linuxboxer). 

 

Det du ser ut til å ha misforstått er påstanden til La Menthe; han snakker ikke om AMD's problemer i software som leveres til egne kunder, men om rivaliserende selskaper som bruker sin markedsposisjon samt pengesekk til å direkte påvirke AMD's ytelse.

 

Jeg kan kort nevne Intel's blunder med compileren rundt 2009-2010 (og tidligere for den del).

 

Videre har vi nVidias gameworks som leveres som en blackbox til kunde, uten tilgang til kildekode og uten muligheter til å optimalisere mot andre leverandører (og siden vi i praksis har to leverandører er det AMD som "lider"). 

 

Når ble det greit at nVidia leverer en feature til ett spillselskap som kjører med kode som er direkte laget for å ødelegge ytelsen til AMD? Tesselering med en faktor på 64 (i Witcher 3's HairWorks) som i praksis kun kan gjøres på GTX 9XX serien uten massivt ytelsestap, mens en faktor på 16 eller til og med 8 er tilstrekkelig?

 

En kan selvfølgelig argumentere for at AMD også leverer slike løsninger til utviklere, f. eks til Crystal dynamics (Square Enix). Forskjellen er bare at kildekoden er tilgjengelig å tillater utviklere å optimalisere mot begge leverandører.

 

 

 

Lenke til kommentar

 

 

Det er det hynix og AMD som har utviklet HBM. Litt artig at Nvidia må ty til teknologi i fra AMD, for å henge med på racet i fremtiden :)

 

De bruker jo ikke teknologi fra AMD i så fall, de bruker fra Hynix. SK Hynix er jo en av verdens ledende selskaper innenfor RAM, og de var tungt inne i utvikling av DDR4. Det er nok de som har teknologien, og AMD som har stått for implementeringen. Dermed vil jo NVIDIA kjøpe av Hynix, og så finne en måte å implementere det på. Det er jo ingen hemmelighet hvordan AMD har gjort det, så er ikke akkurat vanskelig.

De er tross alt nummer 2 på dette området, bare bak Samsung: http://en.wikipedia.org/wiki/SK_Hynix

 

De aller fleste selskaper som lager slike produkter er avhengig av andre. Apple som er et av verdens største elektronikkselskaper er jo 100% avhengig av andre selskaper som utvikler og produserer nye HW for dem. Deres nye CPU vil ikke bli skikkelig god, med mindre de får en avtale med Samsung. Er det morsomt? Jeg ville sagt at det er helt normalt. Til tross for hva selskaper sier, så er det mye som er utviklet av andre, og ikke dem selv. Det gjelder spesielt for amerikanske selskaper, ettersom det meste av produksjon og utvikling på dette området foregår i SK/JP/TW. Det viser jo til en viss grad dette bildet: http://www.moneyballeconomics.com/wp-content/uploads/2015/02/semis5b.png

 

Du har nok rett der :) Men AMD skal ha honør for at de har pushet på for å få frem mange spennende teknologier fra andre selskaper :)

Lenke til kommentar

 

 

Du har nok rett der :) Men AMD skal ha honør for at de har pushet på for å få frem mange spennende teknologier fra andre selskaper :)

 

Stemmer det, var det jeg ville ha frem også. Det er ikke bare NVIDIA som utelukkende ligger foran AMD, AMD er og gode på noen områder og slår NVIDIA på dem. Hvis AMD ikke hadde vist interesse  og jobbet aktivt sammen med SK Hynix hadde vi ikke hatt HBM så raskt som vi kommer til å få det. Så AMD skal absolutt ha litt ære her for utviklingen av HBM minne til GPUer.

Lenke til kommentar

 

Skal vel ikke stikke under en stein at AMDs salgsteknikk de siste årene har vært å justere på forrige teknologien littegrann og gi det ut under nytt navn med lavere pris. Korrekter meg om jeg tar feil.

Det nøyaktig samme gjør nVidia. Bortsett fra toppkortene (GTX 980, 780, etc.) så har alle kortene deres vært "rebrands" (970 rebrand av 780, 960 rebrand av 770, osv.)

 

 

På hvilken planet er dette?

  • Liker 1
Lenke til kommentar

 

Skal vel ikke stikke under en stein at AMDs salgsteknikk de siste årene har vært å justere på forrige teknologien littegrann og gi det ut under nytt navn med lavere pris. Korrekter meg om jeg tar feil.

 

Det nøyaktig samme gjør nVidia. Bortsett fra toppkortene (GTX 980, 780, etc.) så har alle kortene deres vært "rebrands" (970 rebrand av 780, 960 rebrand av 770, osv.)

Feil, ingen kort i GTX 900 hittil serien har vert rebrands. 960=GM206 (maxwell), 970=GM204 (maxwell, kuttet ned versjon av 980), 980=GM204. Hvis 970 var en 780, ville 970 hatt en GK110 gpu som da er Kepler, ikke Maxwell arkitektur. Du har litt rett, siden 770 (GK104) var en rebrand av 680 (GK104), og 760 (GK104) var en kuttet ned versjon av 670 (GK104).

Lenke til kommentar

 

Du har nok rett der :) Men AMD skal ha honør for at de har pushet på for å få frem mange spennende teknologier fra andre selskaper :)

 

Stemmer det, var det jeg ville ha frem også. Det er ikke bare NVIDIA som utelukkende ligger foran AMD, AMD er og gode på noen områder og slår NVIDIA på dem. Hvis AMD ikke hadde vist interesse  og jobbet aktivt sammen med SK Hynix hadde vi ikke hatt HBM så raskt som vi kommer til å få det. Så AMD skal absolutt ha litt ære her for utviklingen av HBM minne til GPUer.
Jo, det hadde vi hatt, men de hadde droppet Gen1 HBM minne, da Nvidia mener at 4GB er for lite, spesielt til GPGPU bruk. Gen2 HBM som kommer i 2016 støtter opp til 32GB.

Når 20nm ble kansellert som en High-performance prosess ble det siste spiker i kisten for HBM Gen1 for Nvidia. Det er ikke plass til nok ALU'er på en 28nm die til at minnebåndbredde blir en flaskehals, selv om mesteparten av DP ALU'ene også ble tatt ut av GM200.

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...