Gå til innhold

RYKTE: Har AMD omsider fått has på varmeproblemene sine?


Anbefalte innlegg

 

Jeg vil tro fordelen med async compute vil variere ganske mye fra spill til spill, avhengig av shader koden og generelt hvordan GPU'en blir brukt mtp flaskehalser.

Du er også avhengig av at det faktisk er "hull" som må fylles i arkitekturen.

 

Hvis man titter på tester av async compute så ser man i flere tilfeller at Hawaii (2. gen GCN) har større prosentandel utbytte enn hva for eksempel Fiji (3. gen GCN) har. Jeg snakket med en spillutvikler på GTC om dette, og han mente at neste generasjon GPU'er som har mye større fokus på å forbedre IPC ville ha enda mindre utbytte av async compute. Da det blir vanskeligere å finne ledige SM/CU.

 

 

Men du vet like godt som meg at på samme måte som IPC til Intel / AMD sine cpu'er så er det en topp man kommer til der denne ikke vil kunne øke så veldig mye, da er det over til andre områder der man kan få bedre ytelse. Har man i det minste på plass arkitekturen og kan benytte seg av fordeler som Async compute så har man i det minste flere måter å forbedre ytelsen på.

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

 

 

 

At Rise of the tombraider har DX12 er en sanhet med sterke modifikasjoner. Det kom en patch med DX12 til Rise of the tombraider som gjorde at spille fløt dårliger da det antaglig er en dårlig konvergering fra DX11 til DX12. Dette spille er jo også en Gameworks titel som ikke har gjort det bedre for AMD.

 

Kall meg gjerne troll hvis det hjelper saken din, men hersketeknikk som det hjelper ikke på seriøsiteten...

 

 

 

 

 

 

http://www.hardocp.com/article/2016/03/28/rise_tomb_raider_dx11_vs_dx12_review/1

 

 

Ja DX12 vil ikkje redde verden, men det tror mange. Spill vil ikkje yte 50% mere plutselig pga noen DX12 instruksjoner. Derfor er det ikkje all verdens viktig å ha med så mange DX12 spill enda med dagens hardware.

 

Du skrev:

Bare gamel spill da

 

 

Det er det ikkje. 

Hvorfor slakter du DX12 hele tiden nizzen? Er klar over at du sitter med 900-serien til nvidia, men du trenger ikke å se så negativt på DX12, selv om nvidia ikke klarer å utnytte DX12 enda :p Du får bare leve i din egen DX11-verden i fremtiden^^ DX12 er fremtiden, og den er ikke dårligere enn DX11, som du desperat prøver å fortelle oss ... DX12 en stor flopp? Hvorfor er DX12 en stor flopp i fremtiden? Hvorfor er DX11 så mye bedre?

Endret av Koven
  • Liker 1
Lenke til kommentar

 

 

 

 

At Rise of the tombraider har DX12 er en sanhet med sterke modifikasjoner. Det kom en patch med DX12 til Rise of the tombraider som gjorde at spille fløt dårliger da det antaglig er en dårlig konvergering fra DX11 til DX12. Dette spille er jo også en Gameworks titel som ikke har gjort det bedre for AMD.

 

Kall meg gjerne troll hvis det hjelper saken din, men hersketeknikk som det hjelper ikke på seriøsiteten...

 

 

 

 

 

 

http://www.hardocp.com/article/2016/03/28/rise_tomb_raider_dx11_vs_dx12_review/1

 

 

Ja DX12 vil ikkje redde verden, men det tror mange. Spill vil ikkje yte 50% mere plutselig pga noen DX12 instruksjoner. Derfor er det ikkje all verdens viktig å ha med så mange DX12 spill enda med dagens hardware.

 

Du skrev:

Bare gamel spill da

 

 

Det er det ikkje. 

Hvorfor slakter du DX12 hele tiden nizzen? Er klar over at du sitter med 900-serien til nvidia, men du trenger ikke å se så negativt på DX12, selv om nvidia ikke klarer å utnytte DX12 enda :p Du får bare leve i din egen DX11-verden i fremtiden^^ DX12 er fremtiden, og den er ikke dårligere enn DX11, som du desperat prøver å fortelle oss ... DX12 en stor flopp? Hvorfor er DX12 en stor flopp i fremtiden? Hvorfor er DX11 så mye bedre?

 

 

Ser ikkje ut som om du har quota meg med det du skriver der...

  • Liker 2
Lenke til kommentar

Tkongen : Kan du være så snill å sette deg i det minste litt inn i Freesync før du kommer med en blunder på at det er nøyaktig det samme som adaptive sync, fakta er at det er forskjell da programvaren til Amd passer på drivernivå at den informasjonen som blir sent til skjermen fører til at spillet fungerer uten "lagging" eller treghet (dette er en veldig grov forenkling fra min side).

Freesync er selvsagt ikke mulig uten at man har en skjerm som støtter Adaptive sync.

 

http://support.amd.com/en-us/search/faq/214

http://support.amd.com/en-us/search/faq/216

http://support.amd.com/en-us/search/faq/224

 

Freesync er ikke Adaptive sync , freesync bruker derimot programvare for å utnytte Adaptive sync for å gi de som eier et Amd skjermkort en så bra opplevelse som mulig uten tearing.

Det er ingenting som hindrer Intel eller Nvidia til å utvikle egen programvare som kan utnytte Adaptive sync teknologien på de skjermene som støtter dette , ved å velge en lignende løsning som Amd kan man unngå de samme problemene som Vsync byr på , altså tearing , lag osv.

 

 

 

Du sier egentlig selv hva jeg egentlig mener her :)

 

Jeg mente ikke at FreeSync direkte er adaptive sync. Det er åpenbart ikke så lett som å bare plugge en AdaptiveSync monitor med DP til et AMD kort og så fungerer det. Selvfølgelig har AMD SW på sin side som gjør at dette fungerer, og at det fungerer bra. 

 

Det jeg mente er at AMD bruker adaptive sync for dette, og ikke noe spesielt som Nvidia sin G-Sync modul. Nvidia har ellers sin egen adaptive sync implementasjon i laptops, så de har det samme som FreeSync egentlig.

 

Poenget mitt med posten var at jeg ønsket at Intel, Nvidia og AMD droppet alle navnene sine, og bare si de hadde støtte for adaptive sync. Så kan de alle fikse drivere ol. slik at alle skjermer med adaptive sync støtte fungerer med Intel/AMD/Nvidia. Selvfølgelig så gjør jo AMD det best i dag. Intel har ikke kommet med det, og til desktop krever Nvidia mye ekstra for en brikke til det som gjør samme jobb. AMD bruker jo standarden og gjør det riktig, eneste jeg har å klage på der er navnet. Burde bare hete adaptive sync, vi trenger ikke en milliard markedsføringsterminologier. Ikke at det kommer til å skje, det var bare et personlig ønske :) Nvidia kommer nok til å fortsette med G-sync navnet sitt uansett. Intel finner nok på et navn de og.... og alle tre kommer (forhåpentligvis) til å bruke den samme teknologien, med individuelle drivertilpasninger.

  • Liker 1
Lenke til kommentar

Angående Async compute:

 

 

Asynkront er noe som ideelt sett er ekstremt bra. Når du gjør det synkronisert kommer du ikke unna at det blir stopp diverse plasser, da noe må vente. Når vi overklokker CPU overklokker vi kun en frekvens. Til tross for at CPUen har mange interne deler med ulik frekvens. Den frekvensen som folk overklokker er den globale synkrone frekvensen, som ikke kan være raskere enn den tregeste delen i CPUen. Hvis vi hadde gjort CPUene asynkrone kunne vi individuelt overklokket forskjellige deler av CPUen, og du hadde sluppet unna begrensningen med den globale, synkroniserte klokkefrekvensen.

 

Gjett hva? Vi lever ikke i en ideell verden.... Det å gjøre det asynkront er ekstremt vanskelig. Det er derfor nesten alt av elektronikk er laget synkront, med en felles synkronisert klokkefrekvens. Det å gjøre det asynkront er kult, men du må fortsatt holde kontrollen på alt. Du må få inn de riktige tallene på riktig tid. Det er oftest så vanskelig å få til at fordelene med asynkront blir til en ulempe og det går bare saktere, eller tar for mye plass. I slutten av dagen så finner folk ut at det faktisk er lettere og bedre å gjøre det synkront. Selv om det betyr at det blir venting på steder der det kunne vært mer effektivt.

 

Det er åpenbart lettere å få til med GPUer, fordi de har så parallellisert workload. Likevel, alle benchmarks av Nvidia kort viser tap i ytelse ved async compute. Nvidia lager til enhver tid kortene sine optimale for gjeldende forhold, da er selvfølgelig et mål å holde alle kjerner i arbeid. Hvis du får dette til veldig bra med synkronisert, så må du gjøre en veldig stor jobb for å få det til bedre med async. Og har folk sett på kvaliteten på spill som slippes for tiden? Ikke imponerende i mange tilfeller. Og tenk på hvor mange ulike grafikkort folk sitter på. Si at noen lager et bra spill. Det er en god økning i ytelse for Pascal og Polaris. Derimot så får Kepler kort et ytelsestap på 10% av akkurat samme kode... Som HKS sier så responderer selv ikke AMD sin CGN arkitektur likt på async compute. For at async skal være skikkelig må det egentlig lages på et kort for kort basis. Det kommer aldri noensinne til å skje. Og se på Ashes of Singularity. De har brukt så mye tid å krefter på å spesifikt optimalisere for nyeste gen AMD kort. Likevel, resultatene er ikke imponerende. Som Nizzen sin video viste så er fordelen av dette i Hitman relativt liten. Hva da med vanlige spill? Hvor mange prosent blir det? Kommer de engang til å gidde å gjøre async compute skikkelig? Spesielt når de garantert vil senke ytelsen til en stor del av spillerbasen sin og. Med mindre du jobber med AMD, er det verdt å senke ytelsen for de klart mest populære kortene på Steam?

 

 

Og som videoen til nizzen så korrekt sier: Hvis du har mye som ikke er brukt, og du får brukt det og får ytelsesøkning av async compute, så er det ikke et resultatet av planlegging for fremtiden. Det betyr jo at AMD ikke har klart å utnytte og bruke kortene sine i veldig mange år. Noe som ikke er en nyhet. Før Async compute var det og mulig å vise at AMD hadde mye mer idling på kjerner enn Nvidia. Det er jo heller ikke så ulikt CPU satsingen i praksis. Det async compute kan gjøre for AMD er å prøve å fikse et problem som er mye større enn det burde vært. Et problem som er langt mindre hos Nvidia. Likevel, dette problemet må fikses av spillutviklere.... jeg er ikke så sikker på om jeg ville overlatt spillytelsen til kortene mine i hendene på utviklere. Spesielt ikke med noe så avansert og vanskelig som async compute.

 

 

Det er jo godt mulig det er sant det du sier om IPC Malvado. Det vil være en grense, og da må en finne andre måter å gjøre det på. Da vil async compute mye mulig bli viktig for å løse det problemet. Likevel, vi er langt ifra å være der i dag. Nvidia hadde ingen krymping, de fjernet kjerner og har bedre ytelse i Maxwell. Så er det egentlig noe vi trenger i dag? Nvidia trenger det jo åpenbart ikke, men AMD gjør. Si at vi møter IPC veggen om ikke veldig lenge. to generasjoner fra nå så øker bare IPC med 5%. Da kan jo fint Nvidia legge til flere kjerner for async compute. Så lenge taket for IPC ikke er nådd, og du fint kan oppnå store ytelsesforbedringer med økning i dette, hvorfor begynne med masse ekstra kjerner? Er det ikke bedre å bruke plassen på bedre kjerner, enn utrolig mange? Spesielt når du overlater utnyttelsen av mange av kjerne til programutviklerne, som du gjør med async compute.

 

Blir spennende å se nå da med kommende DX12 titler, og hvordan Nvidia gjør det i Pascal. De får nok garantert mer kjerner, da de har mer plass, men kommer AMD også til å bare legge til flere kjerner med minimale IPC forbedringer?

 

Og hvis AMD benytter seg av async compute, så kommer ytelsen deres til å variere mye basert på spill og hvor bra de får til async. Det er bra å begynne med async tidlig, og bra det er i DX12 slik at folk blir bedre og bedre på det. Det å ha en arkitektur som utnytter dette fra dag 1 derimot... eller å satse på dette for å få god ytelse fremover allerede nå? Det synes jeg er veldig risikabelt, og alt for tidlig. Hjelper jo lite om AMD egentlig har ganske mye kraft i kortene sine, om kraften ikke kan brukes. Det er og lite vits i å bygge for et stykke frem i tid, hvis du aldri er god akkurat nå.

 

Det er jo det Nvidia alltid gjør. De gjør det bra på det som er mest aktuelt nå. Eksempelvis i 1080p. Nvidia er best på 1080p og AMD er bedre på 1440p og 2160p. Og hva er det nesten alle i verden har? 1080p. Med Maxwell nå så har toppkortene blitt veldig gode i 1440p og forskjellen der er ikke så stor lengre. Og innen den tid async compute blir utbredt og du får en grei boost av den i det meste av spill, er det ikke ganske sannsynlig at Nvidia da også har endret arkitekturen slik at de utnytter det? I slutten av dagen er det jo ytelse i de spillene folk spiller, på den skjermen de har som betyr noe. Det er det AMD må slå Nvidia på. Async compute, masse kjerner for parallell osv er jo kult og fancy, og du kan vise stor forbedring ved bruk av dette. Likevel, hvis du ikke kan vise til bedre ytelse i spill folk spiller, så har det ingenting å si. Og hvis den trenger det for å være på nivå med Nvidia, hva skjer når du ikke har async compute? For meg virker det hvertfall ikke som en altfor god beslutning å gå for async compute så tidlig. Får håpe ikke AMD kommer med flere kjerner enn 4000 for neste gen. Så lenge de holder seg på 4000, så tror jeg det vil gå ganske bra. De klarer jo fint å konkurrere med 980 Ti med Fury X som det er i dag. Og kjerner i CPU og GPU er ikke det samme. I CPU kan de faktisk bare stå ubrukte, i GPU blir de bare brukt mindre effektivt.

  • Liker 1
Lenke til kommentar

Det er en relativ stor forskjell mellom hva som er fokuset til Amd og Nvidia.

 

Ser du på denne tabellen (Gpu's) bør det gå opp et lys eller to for deg : https://en.wikipedia.org/wiki/Transistor_count

 

Hvem er det som hele tiden har et lavere antall med transistorer? Det er med andre ord en ganske så stor forskjell på implementeringen til Amd / _Intel og Nvidia.

 

Mens Amd trodde at utviklerne ville hoppe tidlig over til flere kjerner når det gjelder Cpu'er for å kunne fordele lasten langt bedre enn kun ved å bruke rå arbeidskraft ( høy IPC per kjerne ) så valgte Intel å fokusere på å øke hastigheten og dermed skape et produkt som kanskje ikke var så "langsiktig" men som sørget for at de fleste opplevde at pcen "fungerte kjappere". Hopp flere år fremover i tid og man ser at med nyere OS og bedre utnyttelse av kjerner så greier fortsatt AMD sine cpu'er å henge "såvidt" med i svingen uten at det blir alt for ille. ( Husk her snakker vi om både forbedret IPC hos Intel + flere kjerner mens Amd har så og si stått stille siden FX 8xxx ).

Sammenligner man med de tidligere i2500K så ser ting faktisk ikke så ille ut om man velger W10 og en Amd Cpu i FX83xx serien eller bedre.

 

Det samme ser man jo på papiret skjedde også med Nvidia, de valgte å øke IPC og antall transistorer per kjerne mens Amd prøvde å fordele arbeidslasten på flere områder , noe som gjenspeiler seg i langt høyere økning i ytelse i DX12 enn det de fikk ut av DX11.

 

Hvis Nvidia satser 1 eller 2 generasjoner til på kun rå IPC så kan det faktisk være at AMD takket være bedre arbeidsfordeling på nyere programvare og ikke minst en del problemer med DX12 og Nvidia ( ser i alle fall sånn ut) faktisk kan greie å vise at kortene deres yter bedre og har sine klare fordeler og dermed ta tilbake en god del av de tapte markedsandelene de har hatt i forhold til Nvidia.

 

Amd vil trolig ikke greie å dominere på kort sikt markedet , men med tanke på at de allerede har fått på plass mange Apu'er i både Xbox og PS4 vil vi trolig se i fremtiden spillporteringer som fungerer bedre på Amd enn på Nvidia, noe som igjen kan bidra til økt markedsandel på lengre sikt for dem.

Lenke til kommentar

 

Med dette i tankane er 16000kr ein ganske absurd pris.

 

 

Kjenner jeg nå blir skeptisk til prisene på Pascal og Polaris, når Radeon Pro Duo (som er "nytt") blir priset til hele 16k. Da blir vel resten av de nye topp-kortene sikkert priset deretter.

 

At Polaris vil bli noe billigere mister jeg trua på nå må jeg si. Blir polaris billigere så resulterer jo det kun i at AMD brenner inne med en haug Pro Duo kort, noe jeg tviler på at AMD er interessert i.

Endret av 93MiChr
Lenke til kommentar

 

He he, med 80% markedsandel er det også 4 ganger så stor sjanse for å møte på "fanboys" fra andre leiren. :p

 

Personlig har jeg vekslet mellom AMD og nvidia og har hatt omtrent like mange skjermkort fra begge produsenter, men man trenger ikke være fanboy for å ha fått med seg at nvidia har levert bedre kort enn AMD de siste årene. Jeg håper dog dette er noe som snur, både på gpu og cpu siden.

Har selv også bytta fram og tilbake. Nå sist kjøpte jeg et fanless Power på 500watt og noctua vifter så da har jeg opptatt av å få stappa inn en GPU kort som brukte lite strøm og kunne kjøre viftene mest mulig stille under lav belastning og klarte seg med godt under 500Watt under max belastning på hele oppsettet.

Lenke til kommentar

Helt enig med deg i det du sier her. Det AMD lager er nok utvilsomt slik ting vil se ut i fremtiden. Og det er jo ikke slik at det å skifte fokus over bare tar en generasjon. Det at Nvidia har satset på 1080p ser man jo fortsatt, og  de skulle nok helst sett at de hadde litt bedre 1440p og 2160p ytelse nå selv om det kommer seg. Jeg tror og du har rett i at om Nvidia fortsetter med IPC, så vil det ikke ta lang tid før de fleste spill blir slik at AMD sannsynligvis ha høyere ytelse. Selv om de muligens ligger bak nå, så tror jeg og de har mer å hente på optimalisering enn Nvidia. Hvis de får utnyttet dette så kan de fort overta Nvidia.

 

Grunnen til negativiteten i posten min er egentlig på grunn av bekymring. Hvis vi får bedre utnyttelse og bedre GPUer, og bedre konkurranse er det supert. Problemet er hvis AMD sin langsiktighet ikke betaler seg. Enten ved at Nvidia fortsatt klarer å komme med mer forbedringer og tilpasse seg slik at AMD aldri får en fordel, men fortsetter å ligge likt (og vi ser hvordan det går når de ligger likt...), eller at de har tapt så mye innen det skjer at de har for mange andre problemer.

 

Som du sier så gir 8 kjerner mye mer mening nå. Problemet er at det er en god del år for sent... i3-6100 er jo omtrent likt som FX-8350 i spill. Likevel, om du skal streame, gjøre andre ting samtidig, spiller GTA 5, Battlefield er jo FX bedre igjen. En 8 kjerners Zen til prisen av en i5 med en del bedre IPC enn FX serien kan absolutt gi mening nå. Samme problemet som jeg er bekymret for meg GPU derimot. Er det for sent? Selv om Zen er bra og vil være et godt valg, klarer det å overvinne bildet om at Intel er en del av en PC. Og som du (eller noen andre) tidligere har sagt, så vet jo ikke folk at konsoller har AMD APUer. Blir spennende å se hvor mye AMD vil dra nytte av optimaliseringen fra konsoller. Et eksempel på det er vel Shadow of Mordor. Når jeg tenker over det så virker det som om AMD har gjort det ganske bra i nyere konsoll titler. Hadde blitt spennende å hvis Polaris, sammen med DX 12 og konsoll førte til både bedre AMD GPUer, sammen med bedre utnyttelse og optimalisering. Da vil de jo ha god mulighet til å slå ut Nvidia i de fleste nye titler, og det er de som er viktigst å ha høy ytelse i. Eldre titler vil jo kunne kjøre bra uansett. Blir veldig spennende å se Polaris, og spesielt på noen skikkelige DX 12 spill. Selv om jeg fortsatt er skeptisk, og tror Nvidia vil komme over AMD nå, så ser jeg absolutt muligheten for at AMD kan komme øverst også.

Lenke til kommentar

Om vi vinkler det litt annerledes kan det plutselig se litt bedre ut, mens Amd sakte men sikkert har fått på plass flere kjerner både på Cpu og Gpu ( + Apu) så har Intel og Nvidia fokusert hovedsakelig på IPC , når Amd nå har fått finpusset Zen så vil vi se de første cpu'ene (med integrert grafikk )  med minst 8 kjerner som trolig vil være mainstream og så vil man trolig se opp til 32 kjerner fordelt på forskjellige markeder.

 

Jeg vil personlig anta at Zen starter på 8 kjerner og har varianter med 10/12 og 14/16 kjerner for main og entusiaster , videre så vil trolig andre segmenter av markedet få enda flere kjerner som er tilpasset deres behov (server osv).

 

Om Intel sine cpu'er viser seg å yte marginalt bedre ( 10 - 20% ) per kjerne men henger etter i antall kjerner så tar det ikke lang tid før man kan se en teoretisk fordel for Amd sine cpu'er. Kommer Intel med en 8 kjerners behøver Amd kun å kontre med en 10 kjerners osv. Og mye tyder på at programvaren nå endelig begynner å komme på plass der man utnytter bedre antall kjerner både i Os / Programvare og spill.

 

Men igjen det blir spennende å se hva som virkelig slår an. Min personlige mening er at Nvidia er flinke til å få mest mulig ut av lommebøkene våre og er fokusert på å levere produkter som gir bra ytelse nå men som bør skiftes ut i fremtiden , noe som de viser fint med de ekstra detaljene mange av spillene som støtter Nvidia sin hardware kommer med som Witcher 3.

Lenke til kommentar

Har selv brukt amd i mange år. Hadde det ikke vært for at den nye driveren er søppel så hadde jeg ikke gått over til 980ti

 

Crimson = Søppel?

 

Gidder du å forklare litt mer hva som var problemet ditt der?

Her fungerer Crimson 16.4.1 helt greit , grensesnittet er derimot helt forskjellig fra CCC , men den er både raskere og fungerer bedre her i alle fall.

Lenke til kommentar

Enig der, perspektivet du ser det med har veldig mye å si for hvem som har den lyseste fremtiden av Nvidia, Intel og AMD.

 

Jeg er og svært enig i at Nvidia er veldig gode til å få penger ut av lommebøkene til folk. Det er og nettopp derfor jeg har størst tro på Nvidia. Jeg liker helt klart AMD sin retning og filosofi bedre. Intel og Nvidia viser på mange felt det verste innenfor amerikansk kapitalisme. Det er derimot heller ingenting som stopper dem fra det i USA, hvor alle tre er. Intel og Nvidia blir dømt i Europa, men i USA er alt greit.

 

Nvidia er veldig flinke til å finne grunner til å kjøpe deres produkter, kjøpe nye produkter, bruke pengene på Nvidia. Og i slutten er det salgstall, penger og inntekter som er det som teller. Disse er dessverre ikke direkte relatert til produktene på noen måte. Selv om AMD gjør det teknisk bra, og leverer bra produkter, så slår det nødvendigvis ikke ut i regnskapet. På Nvidia sin side derimot så lager de og bra produkter, men de er samtidig langt bedre å selge og lage profitt av produktene sine. De selger jo og produkter som Titan, prisene på 780 og 780 Ti var ganske ekstreme, G-Sync osv. De skaper monopolistiske tilstander i markedet, og priser deretter. Drømmen til amerikanske kapitalister, marerittet for europeiske styresmakter.

Lenke til kommentar

Vanskelig å si hva som kommer til å skje i fremtiden , men jeg tror :

 

1 : Brorparten av eierne av et Nvidia kort har et 970 kort. Disse har faktisk gitt en del problemer i Windows 10 ( ikke så ille nå ) og vært en del kontroverser rundt de. Mange som faktisk opplever litt "stuttering / lagging" selv om det egentlig ikke burde være et problem.

 

Utifra akkurat denne gruppens erfaring med Nvidia kort så kan det være at om denne er negativ så kan de ta turen over til Amd fronten igjen , ting som dårlig støtte for DX12 på en ordentlig måte ( Asynchronous Shaders ) , spill som gir en dårlig opplevelse , generell brukeropplevelse på W10 og andre ting kan være avgjørende i fremtiden ( 16/17) for om de kjøper på nytt Nvidia eller Amd.

 

2 : Så har man jo også svært mange eiere av spillkonsoller som PS4 og Xbox One som er klar over at det er en Amd Apu der inne og at den neste oppgraderingen vil gi enda bedre grafikk i høyere oppløsning , selvsagt på pc verdenen så har vi mye å skryte av sånn sett , men vi ser jo stadig vekk porteringer fra konsoll til PC og der vil Amd sine Apu'er ha en direkte innflytelse på hvor bra spillet yter på en pc.

 

Akkurat nå så tenker jeg at det skal ikke så veldig mye til før ting faktisk snur kraftig i rettning Amd , men samtidlig kan man spørre seg om det vil være i tide og om det er nok. Vanskelig å si.

 

 

Og lurer du på hvorfor jeg ikke nevner toppkortene ( 980 titan osv? )? Vel Steam sin brukeranalyse fra Desember 2015 viser jo soleklart at GTX 970 har mesteparten av kaka mens resten av kortene er mainstream / low end produkter : http://wccftech.com/nvidia-geforce-gtx-970-steam-survey/

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...