Gå til innhold

RYKTE: Har AMD omsider fått has på varmeproblemene sine?


Anbefalte innlegg

 

 

 

Det er veldig tydelig at AMD har hatt en annen fokus i det siste, og at det kommer til å betale seg nå! Du kan ikke nekte for at spillemarkedet havner i AMD sin favør fremover!

 

Hvorfor kommer det til å betale seg nå?

 

Hvorfor havner spillmarkedet i AMD sin favør? Jeg ser ingen grunner til dette.

 

Konsoll er mye større enn PC! PC-markedet er bare på 12%.... Nvidia har bare PC-markedet, og der må dem konkurrere mot AMD og intel! Syns du at 700-serien til nvidia er så mye bedre enn 200-serien til AMD? 

Hvorfor bruker du så mye utropstegn! Hele tiden?!

 

Vet det virker useriøst... Gjør det kun for å provosere 2-3 brukere som hater AMD^^ 

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

Folk må roe ned at DX12 er så utrolig viktig. I år blir det lite fest med dx12. Det er mere håp neste år. Dog ikkje forvent FOR mye da heller. Jeg tipper Battlefield 5 blir første dx12 referanse.

Hadde jeg spillt spesielt mye av de tittelen så er jeg enig, men det gjør jeg ikke. Venter på BF 5 og Star Citizen så da bør jeg bry meg om DX12 og Vulkan for den del. Blir sikkert nytt skjermkort rundt de tider også (tidlig 2017).

Lenke til kommentar

 

 

For alt det der betyr lite, men mindre aller blir prinsippfaste, skaper en stor bevegelse og presser nvidia over på åpen adaptive sync.

 

Det jeg poengterer er at de punktene du listet opp over i praksis ikke er vesentlige i det hele tatt (foruten prinsippbevegelsen ovenfor). Det er to skjermkortprodusenter, det er to teknologier som leverer adaptive synk funksjonalitet. Og man må ha en skjerm som passer til skjermkortet. Freesync kan være så åpen du bare vill, du er fremdeles i praksis låst til AMD om du kjøper en slik skjerm. Intel er i denne sammenheng ikke relevant i det hele tatt.

 

Uansett hvorfor det er slik, man er i praksis låst om man velger den ene eller andre teknologien. Og, dette vil med stor sannsynlighet ikke endres før det er på tide å bytte ut skjermen og i alle fall skjermkortet du kjøper i dag.

 

Det er ingenting som hindrer Intel eller Nvidia til å utvikle egen programvare som kan utnytte Adaptive sync teknologien på de skjermene som støtter dette , ved å velge en lignende løsning som Amd kan man unngå de samme problemene som Vsync byr på , altså tearing , lag osv.

 

Jo, og jeg argumenterer ikke mot dette. Jeg ville helt klart sett en fordel av å kunne betale 8K+ for en skjerm for så å ikke behøve å bry meg om hvilken skjermkortleverandør jeg senere benytter meg av.

 

Men, det jeg sier er at det i praksis ikke er relevant for forbrukeren. Nvidia virker å forholde seg til G-sync. AMD vil forholde seg til FreeSync. Uavhengig av hva som er hva så sitter vi som forbrukere tilbake med den ene eller andre pakkeløsningen. Om den ene er fritt fram å bruke for alle og den andre kun er låst til Nvidia betyr i praksis ingen verdens ting så lenge det kun er to aktører.

 

Det eneste som jeg ser for meg vil kunne snu opp ned på Nvidias holdninger er om AMD og FreeSync skjerm salget plutselig eksploderer. Men de gir nok heller bort G-sync enn å støtte FreeSync, i det minste som første utvei. Kommer AMD med bedre kort slik at Nvidia virkelig begynner å tape terreng så vil det kanskje endre seg mer. Men vi er ikke akkurat der enda.

Lenke til kommentar

 

Ingen som har postet litt rykte benchmarks enda?

 

 

 

 

 

 

Hva hadde skjedd med nummerene om man hadde overklokka begge max?

980ti @ 1500-1550mhz

Duo @ 1100mhz ?

 

Kan fortelle at jeg er oppe i ca 115fps i 1080p på Heaven med ett Titan X @ ~1530mhz til sammenlikning.

 

2stk stock Titan X gir ca 130fps i The division med ultrasettings og 1080p til sammenlikning.

Bare gamle spill da. Give moren DX12.

 

 

Hvilke spill er veldig mye nyere enn disse spilla?

Crysis 3 er det eneste spillet som er "gammelt"

 

The Division =2016

GTA V pc = 2015

Witcher 3 =2015

Rise of the tombraider pc = 2016 og har DX 12 i seg.

 

Så hvilke andre spill ville du ha testet som er DX 12, eller bare poster du for å trolle?  :hmm:

Lenke til kommentar

XFX Radeon Pro Duo 8GB HBM Skjermkort, PCI-Express 3.0, HDMI, 3xDP

15.999,-    :evil: 

 

 

https://www.komplett.no/product/889038/datautstyr/skjermkort/pci-express/xfx-radeon-pro-duo-8gb-hbm

 

Hm... Er det noe grunn til å ikke velge 2x 980 TI i SLI istede om man har mulighet til det? Man får vel bedre ytelse til en billigere penge. Mulig strømbruken går opp litt, men hvem bryr seg særlig om det.

  • Liker 1
Lenke til kommentar

Skjønner ikke at AMD har ryktet for å være problematisk med varme. Kjøpte et r9 280x lett brukt med kjøler fra Asus for 1500kr for 2 år siden. Dette er fremdeles på "recommended" på samme spill som Nvidia 970 og holder seg jevnt på rundt 80 grader under spill. Allikevel ser de fleste jeg kjenner på AMD som om det var pesten. Noen som kan forklare meg hva som er så grusomt med AMD?

 

Vel, for å sammenligne ligger de fleste 970'er på under 50 grader ved gaming, med gpu boost på.

Lenke til kommentar

 

 

 

Man setter knapt opp spenning ved overklokk av Maxwell :) Maxwell brenner ikkje opp selv om man prøver, men det vet du ;)

Det skal sies at det er rimelig imponerende ytelse per watt på DUO.

Da må du nesten få til en overklokk på 25 til 50% om du skal greie å knuse disse tallene og det tror jeg virkelig du ikke får til på et vanilla kort uten å modifisere det til å gi litt mer strøm.

 

Og neida , "brenne opp" var vel litt satt på spissen, men om du virkelig kan overklokke uten problemer 50% over tid uten at kortet tar kvelden så er det et utrolig produkt som Nvidia har.

 

Men økt watt kommer du ikke bort fra og der VIL kortet ikke kunne konkurrere mot 14nm.

Virker som om du ikkje vet hvorfor "alle" vil ha 970 og 980ti. Det er jo pga overklokk på 1500mhz uansett. Helt utrolig faktisk at du ikkje visste dette...

 

 

Det er på vann. Mine 980ti med vifteprofil "jetfly" klarer 1430MHz i "The Division". Prøver jeg å holde støynivå nede så krasjer spillet på den hastigheten. Stabil OC med levelig støynivå er en "offset" på 125MHz. Noe som må kunne kalles en svært patetisk OC når man tenker på at kortet mitt boostet til 1281MHz ut av boksen.

Hvilken produsent?
Lenke til kommentar

 

 

Ingen som har postet litt rykte benchmarks enda?

 

 

 

 

 

 

Hva hadde skjedd med nummerene om man hadde overklokka begge max?

980ti @ 1500-1550mhz

Duo @ 1100mhz ?

 

Kan fortelle at jeg er oppe i ca 115fps i 1080p på Heaven med ett Titan X @ ~1530mhz til sammenlikning.

 

2stk stock Titan X gir ca 130fps i The division med ultrasettings og 1080p til sammenlikning.

Bare gamle spill da. Give moren DX12.

 

 

Hvilke spill er veldig mye nyere enn disse spilla?

Crysis 3 er det eneste spillet som er "gammelt"

 

The Division =2016

GTA V pc = 2015

Witcher 3 =2015

Rise of the tombraider pc = 2016 og har DX 12 i seg.

 

Så hvilke andre spill ville du ha testet som er DX 12, eller bare poster du for å trolle?  :hmm:

 

 

At Rise of the tombraider har DX12 er en sanhet med sterke modifikasjoner. Det kom en patch med DX12 til Rise of the tombraider som gjorde at spille fløt dårliger da det antaglig er en dårlig konvergering fra DX11 til DX12. Dette spille er jo også en Gameworks titel som ikke har gjort det bedre for AMD.

 

Kall meg gjerne troll hvis det hjelper saken din, men hersketeknikk som det hjelper ikke på seriøsiteten...

 

 

1459120058TzyrWq0uVk_6_1.gif

 

1459120058TzyrWq0uVk_7_1.gif

 

http://www.hardocp.com/article/2016/03/28/rise_tomb_raider_dx11_vs_dx12_review/1

  • Liker 1
Lenke til kommentar

 

 

At Rise of the tombraider har DX12 er en sanhet med sterke modifikasjoner. Det kom en patch med DX12 til Rise of the tombraider som gjorde at spille fløt dårliger da det antaglig er en dårlig konvergering fra DX11 til DX12. Dette spille er jo også en Gameworks titel som ikke har gjort det bedre for AMD.

 

Kall meg gjerne troll hvis det hjelper saken din, men hersketeknikk som det hjelper ikke på seriøsiteten...

 

 

 

 

 

 

http://www.hardocp.com/article/2016/03/28/rise_tomb_raider_dx11_vs_dx12_review/1

 

 

Ja DX12 vil ikkje redde verden, men det tror mange. Spill vil ikkje yte 50% mere plutselig pga noen DX12 instruksjoner. Derfor er det ikkje all verdens viktig å ha med så mange DX12 spill enda med dagens hardware.

 

Du skrev:

Bare gamel spill da

 

 

Det er det ikkje. 

Endret av Nizzen
Lenke til kommentar

 

 

 

 

Man setter knapt opp spenning ved overklokk av Maxwell :) Maxwell brenner ikkje opp selv om man prøver, men det vet du ;)

Det skal sies at det er rimelig imponerende ytelse per watt på DUO.

Da må du nesten få til en overklokk på 25 til 50% om du skal greie å knuse disse tallene og det tror jeg virkelig du ikke får til på et vanilla kort uten å modifisere det til å gi litt mer strøm.

 

Og neida , "brenne opp" var vel litt satt på spissen, men om du virkelig kan overklokke uten problemer 50% over tid uten at kortet tar kvelden så er det et utrolig produkt som Nvidia har.

 

Men økt watt kommer du ikke bort fra og der VIL kortet ikke kunne konkurrere mot 14nm.

Virker som om du ikkje vet hvorfor "alle" vil ha 970 og 980ti. Det er jo pga overklokk på 1500mhz uansett. Helt utrolig faktisk at du ikkje visste dette...

 

 

Det er på vann. Mine 980ti med vifteprofil "jetfly" klarer 1430MHz i "The Division". Prøver jeg å holde støynivå nede så krasjer spillet på den hastigheten. Stabil OC med levelig støynivå er en "offset" på 125MHz. Noe som må kunne kalles en svært patetisk OC når man tenker på at kortet mitt boostet til 1281MHz ut av boksen.

Hvilken produsent?

 

 

EVGA'ene som står i signaturen min. ;)

Lenke til kommentar

 

Nvidia klarer jo ikke å få kortene sine til å drive mer enn fire skjermer, og jeg har seks. Så da er AMD eneste alternativ. DX12 ytelsen til AMD er også imponerende, har nVidia sovet i timen?

 

Det ser ut som at Nvidia har kommet seg i Ashes of the Singularity ihvertfall. Man skal nok også være forsiktig med å ikke forvirre skuffende DX11 ytelse med imponerende DX12 ytelse. 

 

http://www.hardocp.com/article/2016/04/19/dx11_vs_dx12_intel_cpu_scaling_gaming_framerate/5#.Vx6tN_l97mF

 

 

http://hardocp.com/article/2016/04/01/ashes_singularity_day_1_benchmark_preview/4#.VyDlzmO3dGQ

 

De ligger fortsatt bak DX12-ytelsen sin.

Lenke til kommentar

 

 

AMD kommer nok også til å satse på flere svakere kjerner enn én kraftig i fremtiden hvor hver kjerne samarbeider på en mye bedre måte enn XFire eller SLI idag. Kan på en måte sammenlignes med RAID oppsett hvor flere GPU kjerner vil fremstå som én GPU for utvikler. Dette ligger nok litt lenger frem, men det kommer.

Når man da kan benytte mindre GPU kjerner enn store, så vil man få mye bedre yield pr. waffer som igjen senker prisene og øker fortjenesten til AMD.

 

Jeg kommer ihvertfall til å kjøpe en AMD GPU neste gang jeg oppgraderer.

 

Thank you! Nokon som har forstått det. (Har du sett dette på AdoredTV kanalen på youtube kanskje? :))

 

Spillutviklere er late. Viss dei kan utvikle spillet ein gong og kjøre det på alle platformer (XBox, PS4, Wii og PC) så gjer dei det. AMD har APUene sine på alle konsollene så åpenbart vil utviklerene optimalisere spillene i forhold til AMD sin hardware.

 

DX12 og Vulkan åpner opp for asynchronous compute (frå mantle), noko som auker ytelsen kraftig på AMD sine GPUer på grunn av den parallelle arkitekturen dei har på GPUane. Det er derfor AMD eiger i alle dei nye DirectX 12 og Vulkan spillene. NVidia kan ikkje få denne ytelsesauken på grunn av at arkitekturen er bygd totalt rundt singlethreading access til GPUen. DX12 og Vulkan er ein oppgradering som kun gagner AMD positivt, gitt dagens situasjon og AMD er milevis foran NVidia med arkitekturen sin på dette området. Spillutviklerene vil dra nytte av async compute på konsollene for å kunne utnytte APUen til sitt fulle. Disse optimaliseringene vil også brukes på pc-versjonene av spillene. Då sliter Nvidia med å holde tritt.

 

 

Mtp markedsandelen til Nvidia på PC markedet så er dette noe spill utviklerene ikke vil ignorere. Nvidia hjelper også utviklerene med å optimalisere spill. Men dårlige hastverk porter, som nok Quantium Break faller inn under, vil gjerne ha en fordel på AMD GPU'er. Det er et spill som visnok ikke bruker async compute.
 
Parallelle arbeidsoppgaver er nettopp hva GPU'er generelt er sterke på. Det er derfor dem har så mange kjerner (CUDA cores hos Nvidia og stream processors hos AMD) og hvorfor ytelsen skalerer såpass bra med med antall shader ALU'er, TMU'er og ROP'er. Async compute vil hjelpe med å utnytte disse kjernene mer effektivt, lignende hyperthreading for CPU, men å si at det øker ytelsen kraftig er å si at at disse kjernene har vært og er kraftig underbrukt uten async compute, noe ihvertfall jeg syns virker lite trolig. 
Det er forsatt for tidlig til å si noe definitivt om alt dette.

 

Ashes of the Singularity er eit eksempel på spel som bruker async compute. http://www.extremetech.com/gaming/223567-amd-clobbers-nvidia-in-updated-ashes-of-the-singularity-directx-12-benchmark

Her ser du at når async compute blir skrudd av så ligger 980Ti mykje nærmere Fury X. Med async compute påskrudd, har ikkje nvidia sjangs. Men ja. nvidia vil ikkje bli ignorert heller. Men AMD vil ha overtaket på alle spel som benytter seg av async compute frem til nvidia kjem med ny gpu arkitektur som har støtte for det.

 

Eg har personlig programmert med OpenGL og har programmert compute shadere. Eg er fullt klar over at GPUer er parallelle av natur. Det eg meinte med singlethread access på nvidia sine gpuer er at kommunikasjonen mellom gpuen og cpuen er i hovedsak singlethreaded på nvidia gpuer. Det er "GigaThread" scheduleren til nvidia som tar seg av å fordele oppgaver til gpu kjernene. I praksis så betyr dette at nvidia sine gpuer ikkje har støtte for async shading så dei må emulere det i software (nvidia driveren). GCN arkitekturen til AMD er den einaste arkitekturen som har støtte for dette. Dette er ikkje noko nvidia kan berre lure seg rundt med driveroppdateringer, dei må endre heile arkitekturen til gpuene sine.

https://www.reddit.com/r/Amd/comments/457ke8/hitman_to_feature_amd_dx12_exclusive_feature/ (les øverste innlegget)

 

Async compute er ikkje det samme som hyperthreading. Hyperthreading går ut på å kjøre to tråder på ei cpu kjerne. Async compute handler om å kunne kjøre fleire shader program samtidig på gpuen. Altså du kan kjøre compute (for eksempel fysikksimulering) samtidig som du rendrerer til skjermen. Du kan overføre data som f.eks teksturer parallellt med andre oppgaver. Uten async compute må du gjere desse oppgavene den eine etter den andre, som i praksis betyr at gpuen må vente ein del på kommunikasjon med cpuen, så gpuen sitter idle i mellomtiden.

  • Liker 2
Lenke til kommentar

Ashes of the Singularity er eit eksempel på spel som bruker async compute. http://www.extremetech.com/gaming/223567-amd-clobbers-nvidia-in-updated-ashes-of-the-singularity-directx-12-benchmark

 

 

Mtp markedsandelen til Nvidia på PC markedet så er dette noe spill utviklerene ikke vil ignorere. Nvidia hjelper også utviklerene med å optimalisere spill. Men dårlige hastverk porter, som nok Quantium Break faller inn under, vil gjerne ha en fordel på AMD GPU'er. Det er et spill som visnok ikke bruker async compute.
 
Parallelle arbeidsoppgaver er nettopp hva GPU'er generelt er sterke på. Det er derfor dem har så mange kjerner (CUDA cores hos Nvidia og stream processors hos AMD) og hvorfor ytelsen skalerer såpass bra med med antall shader ALU'er, TMU'er og ROP'er. Async compute vil hjelpe med å utnytte disse kjernene mer effektivt, lignende hyperthreading for CPU, men å si at det øker ytelsen kraftig er å si at at disse kjernene har vært og er kraftig underbrukt uten async compute, noe ihvertfall jeg syns virker lite trolig. 
Det er forsatt for tidlig til å si noe definitivt om alt dette.

 

Her ser du at når async compute blir skrudd av så ligger 980Ti mykje nærmere Fury X. Med async compute påskrudd, har ikkje nvidia sjangs. Men ja. nvidia vil ikkje bli ignorert heller. Men AMD vil ha overtaket på alle spel som benytter seg av async compute frem til nvidia kjem med ny gpu arkitektur som har støtte for det.

 

Eg har personlig programmert med OpenGL og har programmert compute shadere. Eg er fullt klar over at GPUer er parallelle av natur. Det eg meinte med singlethread access på nvidia sine gpuer er at kommunikasjonen mellom gpuen og cpuen er i hovedsak singlethreaded på nvidia gpuer. Det er "GigaThread" scheduleren til nvidia som tar seg av å fordele oppgaver til gpu kjernene. I praksis så betyr dette at nvidia sine gpuer ikkje har støtte for async shading så dei må emulere det i software (nvidia driveren). GCN arkitekturen til AMD er den einaste arkitekturen som har støtte for dette. Dette er ikkje noko nvidia kan berre lure seg rundt med driveroppdateringer, dei må endre heile arkitekturen til gpuene sine.

https://www.reddit.com/r/Amd/comments/457ke8/hitman_to_feature_amd_dx12_exclusive_feature/ (les øverste innlegget)

 

Async compute er ikkje det samme som hyperthreading. Hyperthreading går ut på å kjøre to tråder på ei cpu kjerne. Async compute handler om å kunne kjøre fleire shader program samtidig på gpuen. Altså du kan kjøre compute (for eksempel fysikksimulering) samtidig som du rendrerer til skjermen. Du kan overføre data som f.eks teksturer parallellt med andre oppgaver. Uten async compute må du gjere desse oppgavene den eine etter den andre, som i praksis betyr at gpuen må vente ein del på kommunikasjon med cpuen, så gpuen sitter idle i mellomtiden.

 

Anbefaler alle å se denne i sin helhet, for de som lurer litt på det mystiske Async Compute:

 

 

En ting å nevne, det er ikkje bare å kaste inn Async Compute, så yter spillet fantastisk :p Dette virker jammen med tidkrevende og vanskelig.

Endret av Nizzen
  • Liker 2
Lenke til kommentar

Ashes of the Singularity er eit eksempel på spel som bruker async compute. http://www.extremetech.com/gaming/223567-amd-clobbers-nvidia-in-updated-ashes-of-the-singularity-directx-12-benchmark Her ser du at når async compute blir skrudd av så ligger 980Ti mykje nærmere Fury X. Med async compute påskrudd, har ikkje nvidia sjangs. Men ja. nvidia vil ikkje bli ignorert heller. Men AMD vil ha overtaket på alle spel som benytter seg av async compute frem til nvidia kjem med ny gpu arkitektur som har støtte for det.

 

 

Eg har personlig programmert med OpenGL og har programmert compute shadere. Eg er fullt klar over at GPUer er parallelle av natur. Det eg meinte med singlethread access på nvidia sine gpuer er at kommunikasjonen mellom gpuen og cpuen er i hovedsak singlethreaded på nvidia gpuer. Det er "GigaThread" scheduleren til nvidia som tar seg av å fordele oppgaver til gpu kjernene. I praksis så betyr dette at nvidia sine gpuer ikkje har støtte for async shading så dei må emulere det i software (nvidia driveren). GCN arkitekturen til AMD er den einaste arkitekturen som har støtte for dette. Dette er ikkje noko nvidia kan berre lure seg rundt med driveroppdateringer, dei må endre heile arkitekturen til gpuene sine.

https://www.reddit.com/r/Amd/comments/457ke8/hitman_to_feature_amd_dx12_exclusive_feature/ (les øverste innlegget)

 

Async compute er ikkje det samme som hyperthreading. Hyperthreading går ut på å kjøre to tråder på ei cpu kjerne. Async compute handler om å kunne kjøre fleire shader program samtidig på gpuen. Altså du kan kjøre compute (for eksempel fysikksimulering) samtidig som du rendrerer til skjermen. Du kan overføre data som f.eks teksturer parallellt med andre oppgaver. Uten async compute må du gjere desse oppgavene den eine etter den andre, som i praksis betyr at gpuen må vente ein del på kommunikasjon med cpuen, så gpuen sitter idle i mellomtiden.

 

 

Jeg sa ikke det var det samme som hyperthreading, men lignende. CPU og GPU er ganske forskjellige, men hyperthreading og async compute har begge som mål å holde CPU/GPU opptatt med arbeid med en jevn strøm av instruksjoner.
 
Jeg vil tro fordelen med async compute vil variere ganske mye fra spill til spill, avhengig av shader koden og generelt hvordan GPU'en blir brukt mtp flaskehalser.
Lenke til kommentar

Jeg vil tro fordelen med async compute vil variere ganske mye fra spill til spill, avhengig av shader koden og generelt hvordan GPU'en blir brukt mtp flaskehalser.

Du er også avhengig av at det faktisk er "hull" som må fylles i arkitekturen.

 

Hvis man titter på tester av async compute så ser man i flere tilfeller at Hawaii (2. gen GCN) har større prosentandel utbytte enn hva for eksempel Fiji (3. gen GCN) har. Jeg snakket med en spillutvikler på GTC om dette, og han mente at neste generasjon GPU'er som har mye større fokus på å forbedre IPC ville ha enda mindre utbytte av async compute. Da det blir vanskeligere å finne ledige SM/CU.

  • Liker 3
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...