Gå til innhold

AMD har lansert kraftkaren «Fury X» og nye Radeon-kort


Anbefalte innlegg

 

Vel, svaret fra AMD her er jo alt for lite og alt for sent. Men det finnes tilfeller der dette på ingen måte er dårlig. Hvis vi setter pris inn i bildet og legger til ting som FreeSync monitor og Mantle. Så er jo dette gode tilbud for folk på budsjett som ønsker å kaste pengene sine på AMD. Folk som for eksempel sitter på en svak CPU men som ønsker å oppgradere skjermkortet først kan jo få økt ytelse i Mantle spill. FreeSync skjermene er gjerne en tusenlapp billigere enn sine G-Sync søsken. 

 

Problemet er ikke ytelsen. R9 390X kommer jo nærme GTX 980. Problemet er prisen. R9 390X koster altfor mye i forhold til ytelsen. R9 390 legger seg på nivå med GTX 970. R9 380 ligger på nivå med GTX 960. Med disse kortene vil du jo ha en CPU som er i3 eller bedre. Da får du usle 5-7% i BF4 og Thief. Samtidig overklokker NVIDIA sine kort langt bedre. Kjøper du en GHZ edition av 970 er den jo langt bedre enn en R9 390. Deretter kan du fortsatt overklokke dem videre. AMD gjør det ikke dårlig med sin 300-serie, men de legger seg på samme nivå med NVIDIA.  Det å lansere noe sent og så legge seg på samme nivå som konkurrenten er ikke et godt tegn. Det er heller ikke noe som gir deg mye penger. Slik det er nå kan du fritt velge AMD/NVIDIA, og selv om det er forskjeller så stiller de ganske likt.

Priser:

GTX 980: 4799 kr: https://prisguiden.no/produkt/galax-geforce-gtx-980-soc-4gb-225820

R9 390X: 4490 kr: https://prisguiden.no/produkt/MjYxXjIxOTE0MQ

R9 390: 3490 kr: https://prisguiden.no/produkt/MjYxXjIxOTE0NQ

GTX 970: 2999 kr: https://prisguiden.no/produkt/galax-geforce-gtx-970-oc-222991 (altså gir 970 mye bedre verdi for pengene enn R9 390 med disse prisene!)

R9 380: 2149 kr: https://prisguiden.no/produkt/MV44NDYzOTk

GTX 960: 1790 kr: https://prisguiden.no/produkt/kfa2-geforce-gtx-960-2gb-oc-itx-225055 (altså gir også GTX 960 mye verdi for pengene kontra R9 380)

 

980 er litt raskere, 970 litt svakere og 960 litt raskere. Alle NVIDIA kort hadde mer å gå på med OC til 200-serien. Dette har naturlig nok økt med 300 siden det er rebrand. OC kort, eller manuell OC vil derfor gi best ytelse med NVIDIA. NVIDIA har og lavere strømforbruk. forventer at disse lanseringsprisene går litt ned, og at de blir på samme nivå som nvidia omtrent. Så i praksis stiller de altså ganske så likt.

Lenke til kommentar
Videoannonse
Annonse

"According to AMD executive Richard Huddy, the only reason AMD built the Nano to a six-inch form factor is because that’s the length of an x16 PCI-Express graphics slot. Without that limit, the company could have knocked roughly another inch off the design."

 

Samt synd at dette bare er "proof of concept". Jeg hadde kjøpt en slik rigg.

Endret av Theo343
Lenke til kommentar
Gjest Slttet+1234654

Du lurer kanskje på hvorfor overheaden blir mindre med optimaliseringer? Utviklere snakker ofte om "draw calls" som er én type API-kall, men for hvert objekt som tegnes gjøres det en rekke API-kall; som å binde teksturer og meshes, aktivere shadere og til slutt det faktiske tegnekallet. Hvert API-kall medfører en viss overhead, spesielt pga. intern validering av tilstander i driveren. Men alle som har kjennskap til grafikkprogrammering vet at løsningen på dette er å tegne ting i batches som lar GPUen jobbe mye mer effektivt og faktisk eliminerer API-kall, fremfor å fokusere på reduksjon i overhead for hvert enkelt kall. Så for de som maksimerer antall API-kall vil Direct3D 12, Mantle, Vulkan og et subsett av OpenGL være kjærkomment, men bare fordi at de skriver dårlig kode.

Å utan vidare seie at mindre overhead kun gir gevinst for dei som skriv dårleg kode er ein tanke som er heilt feil. Alle brukarar av API-et vil dra nytte av mindre drivar-overhead. Ein av dei store fordelane med dei nye grafikk APIa er det knapt nok er tilstand internt i drivaren. Å måtte optimalisere kode mot eit dårleg API kan vere nødvendig, men eg vil vel neppe påstå at det er spesielt god/elegant kode.

 

Nei tvert imot. Hvis du leser det jeg skrev over til Malvado så kan CPUen som flaskehals håndteres med å utnytte GPUen på en mer effektiv måte. API-overhead blir først problematisk når utvikleren prøver å maksimere antall drawcalls, og dette er noe som er ganske typisk for konsollutviklere som er vant med lav overhead. Men gevinsten vi oppnår med å optimalisere for programmeringsteknikker som er utgått på dato er minimal, vi oppnår ekstremt mye mer med å optimalisere spillmotorene i stedet. Dette er én av grunnene til at jeg sterkt misliker konsollenes sterke innvirkning på mange spillselskaper.

OpenGL-biblioteket er i stor grad utvikla for å kunne utnytte GPU i størst mogleg grad, og har i blitt utvida med extensions i hytt og vær for å kunne gjere dette. API-et ikkje spesielt elegant, og det er vel heller ingen som har implementert det 100% rett (og nei, Nvidia implementerer ikkje ting slik som dei står i specen). Det foregår mykje magi magi bak kulissane. Hovedgevinsten med Vulkan, Mantle og Dx12 er at drivaren skal blir meir forutsigbar. OpenGL som API er gammaldags, og det er på tide å gå vidare, ikkje minst fordi OpenGL ikkje samsvarar så godt med moderne grafikk-hardware.

 

Vulkan er spesielt kjærkomment i mobile og embedded der API-overhead til no har vore ei utfordring. Dette er vel også i dag der OpenGL er mest utbreidd, men då ofte i form av Open GL ES. Om ein reduserer CPU-arbeidet her, vil ein ofte få ein betre grafikkyting då dei 2 watt SoC har tilgjengeleg kan rettast mot GPU-en i staden (Intelligent Power Allocation).

 

No er vel ikkje desse problemstillingane topp aktuelle i desktopverda (då kan ein heller snakke om at Vulkan har ein veldig fin modell for MT, noko som er heilt horribelt i OpenGL). Det er svært mange missoppfatningar i denne tråden. For oss som jobbar med dette er klart at frå både GPU-HW og -SW sida er det Vulkan som er framtida, og det blir spannande å sjå kva moglegheiter dette gir.

Endret av Slttet+1234654
Lenke til kommentar

Å utan vidare seie at mindre overhead kun gir gevinst for dei som skriv dårleg kode er ein tanke som er heilt feil. Alle brukarar av API-et vil dra nytte av mindre drivar-overhead. Ein av dei store fordelane med dei nye grafikk APIa er det knapt nok er tilstand internt i drivaren.

Du misforstår, så la meg konstruere et eksempel.

La oss si at du tegner noe med 2.000 API-kall, og i det tilfellet vil en svak CPU kanskje gjøre at GPUen ikke jobber optimalt og taper ~25% ytelse. Så optimaliseres APIet og driveren og du får redusert overheaden og hentet inn en del av disse 25%.

 

Men la oss si at du i stedet optimaliserer koden din ordentlig og tegner ting i batches, så kanskje du får redusert 2.000 API-kall til f.eks. 50. Og plutselig har du faktisk også redusert overheaden med 97.5%, og da vil optimaliseringer i selve APIet ha mindre gevinst(men det betyr ikke at de er verdiløse, spesielt for embedded). Dette er den eksakte grunnen til at en rekke spill oppnår marginale forskjeller med f.eks. Mantle. En viktig bonus av å rendre ting mer effektivt i batches er at GPUen får bedre køer som den kan selv effektivt fordele, som igjen gir bedre utnyttelse av GPUens regnekraft. Akkurat dette vil aldri reduksjon av overhead i APIet i seg selv kunne gjøre.

 

Dette kan ytterligere forbedres med å ta i bruk mer moderne funksjonalitet for å eliminere unødvendige API-kall. Nvidia har nevnt at de vil legge til støtte for bindless graphics i sin Direct3D 12-implementasjon, uten at jeg har så langt sett det fra AMD. Bindless graphics går enkelt ut på å la GPUen refere til data(teksturer, vertices osv.) direkte som pekere og lar GPUen selv effektivt utnytte cache og hente riktig data i tide(slik som en prefetcher i en CPU gjør). Dette eliminerer altså den unødvendige bindingen av ressurser til cache, og reduserer cache misses betraktelig. Dette har vi i flere år hatt i OpenGL, og så tidlig som på Tesla-generasjonen demonstrerte Nvidia at de kunne øke VBO-ytelsen 7.5 ganger. Det interessante er at det gjør faktisk programmeringen mye enklere, både i koden som kjøres på CPU og ikke minst GLSL-biten. Dessverre hevdet AMD i mars at Vulkan kun skal få bindless graphics som et tillegg.

 

Hovedgevinsten med Vulkan, Mantle og Dx12 er at drivaren skal blir meir forutsigbar. OpenGL som API er gammaldags, og det er på tide å gå vidare, ikkje minst fordi OpenGL ikkje samsvarar så godt med moderne grafikk-hardware.

Mantle og Vulkan er subsett av funksjonalitet fra Direct3D 12, og Direct3D 12 kommer åpenbart til å være et mye større API enn disse to. Hovedproblemet med OpenGL er at det har aldri vært ryddet opp i gammelt skrot. Og selv om det finnes nye og effektive funksjoner, så vet utviklere flest ikke om disse og svært få bruker de. Jeg vil tro at langt over 80% av funksjonaliteten som er der kunne vært kuttet bort, og selvsagt hadde OpenGL hatt godt av å bryte litt kompatibilitet for å rydde opp i hvordan driveren fungerer.

 

Men dessverre gjør ingen av de mye for å utnytte moderne GPUer optimalt. Helt siden OpenGLs og Direct3Ds opprinnelse har de fungert med GPUen som en slave som kontinuerlig får alle instrukser fra CPUen. Shading har heldigvis flyttet mye kompleksitet til GPUen, men vi er fremdeles ikke der hvor du kan laste et shaderprogram som essensielt styrer hele pipeline. Det jeg ønsker er altså bare å overføre et sett med tilstander til GPUen, og så skal GPUen selv bestemme hva som skal tegnes og laste de respektive programmene. Når vi kommer til det punktet vil vi ikke trenge et API med spesielt mye funksjonalitet i det hele tatt, bare et veldig fleksibelt GPU-språk som essensielt er C med styring av pipeline; som GPU threads, issue av vertices osv.

  • Liker 2
Lenke til kommentar

"According to AMD executive Richard Huddy, the only reason AMD built the Nano to a six-inch form factor is because that’s the length of an x16 PCI-Express graphics slot. Without that limit, the company could have knocked roughly another inch off the design."

 

Samt synd at dette bare er "proof of concept". Jeg hadde kjøpt en slik rigg.

Synes fortsatt det er underlig at de har valgt Intel som CPU i disse, har de ikke trua på sitt eget?

Lenke til kommentar

 

Du klarer virkelig ikke å fatte poenget.

 

Når vi har en situasjon som i CPU-markedet hvor AMD dessverre er totalt underlegne i dag, så er det kontraproduktivt at AMD har en fanskare som bevisst handler dårligere alternativer. Det betyr at AMD kan lene seg tilbake og kutte i risikable investeringer og holde seg til å selge underlegne produkter til sine fans, noe de nylig faktisk har gjort. Når vi har et de facto monopol som i CPU-market i dag, så burde alle slutte med å kjøpe underlegne produkter. Det vil tvinge de som er underlegne til å ta seg sammen eller bukke under. For det er ikke noen konkurranse når situasjonen er som i dag, og da gagner det selvsagt heller ingenting for oss som konsumenter. Den som tror det er konkurranse på CPU-fronten i dag lever i en fantasiverden.

 

 

 

 

Jeg klarer å fatte det bedre enn deg. Du går rundt og preker om kontraproduktiv markedsføring ved at noen tar siden til Kandidat B, når Kandidat A produserer bedre varer. Basisen for argumentet ditt er altså at et valg av Kandidat B ikke er avledet av årsaker om hva som er det beste produktet for en bruker, og at det dermed gjør hele ideen om et konkurransedyktig marked, laissez-faire, ubrukelig. Det du ettertrakter er det Adam Smith omtalte som Den usynlige hånd, der han identifiserer det viktige markedsøkonomiske prinsippet at et individ som ene og alene handler til nytte for seg selv også indirekte handler til nytte for samfunnet -- i vårt tilfelle konkurranse.

 

Det du derimot ikke ser ut til å skjønne er at kapitalisme av typen lagt frem av filosofer som Adam Smith, av typen som du lærer i lærebøker i undervisningstimer på skolen, har ingen samsvar med vi ser i virkelighetn. Det fins ikke noe sånt som innovasjon eller konkurranse i vestlig økonomi. Helt siden 1700-tallet har proteksjonisme dominert, og har vært hovedgrunnen for den økonomiske velstanden. Ta for eks. USA, hjemlandet til Intel og AMD, gjerne kjent som det frie markedets fyrtårn: uten ekstreme og bevissste forstyrrelser av markedet, er det tvilsomt at den amerikanske bil- og stålindustrien, verktøymaskiner, halvledere og andre ville ha overlevd japansk konkurranse eller vært i stand til å smi videre på nye teknologier, de siste 50 årene. Ta for eks. den nylige finanskrisen: hva tror du det var Obama gjorde for å holde sektorer i økonomien fra å falle sammen? General Motors kunne ha vært oppløst og ikke-eksisterende i dag hvis ikke amerikanske skattepenger ble sprøytet inn i bilindustrien. I dine prinsipper går dette under "kontraproduktiv markedsføring". I realiteten er dette proteksjonisme, en sterkt bedyret politikk her i vårt eget hjemland, Norge, og en av de sterkste grunnene til at vi har så sterk og selvstendig økonomi.

 

Vi lever ikke i et marked der Kandidat A vinner over Kandidat B fordi Kandidat A er bedre. Verden fungerer ikke sånn, selv om du liker å pakke det i en slik søt og liten Hollywood-hjerte. Vi lever i en verden full av tollmurer, subsidier, reklame, kvoter og andre teknikker/reguleringer som hindrer noen form for produktiv markedsføring. Kandidat A er ofte bedre enn Kandidat B som resultat av slike teknikker/reguleringer.

 

La oss ta CPU-markedet. Du og jeg vet at Intel ikke er skyld i den manglende utviklingen av CPU-teknologie; det er ikke (bare) "monopol-tyranni", men faktisk manglende løsninger på selve feltet. Men det er ingen legitim påskudd for hvorfor de har lansert nye generasjoner på generasjoner med prosessorer til desktop-markedet hvert eneste år, når de i stedet kunne ha latt være. Hvorfor gjør de det? Hvorfor lanserer de 3770K? 4790K? 5770K? Det er tross alt snakk om marginale IPC-forbedringer, 0-3% hver generasjon? Greit nok, det mobile markedet har tjent på strømgjerrige prosessorer over tiden. Men mainstream desktop-markedet har stått stille siden Sandy Bridge. Hvorfor lanserer de nye prosessorserier hele tiden for da?

 

Kaller du det produktiv markedsføring? Eller fanboysene som hvert eneste år går på agnet og kjøper en ny prosessor fra Intel, når de faktisk ikke har bruk for det? Er ikke det kontraproduktivt?

 

La oss også gå inn på det med subsidier igjen; som tross alt er noen av de mest konkurransefiendtlige og proteksjonistiske metodene du finner der ut. Du er vel godt klar over at Intel regelrett får skattepenger fra statlige institusjoner, som den amerikanske eller israelske staten, kastet etter seg? For jeg håper du ikke er så naiv i å tro at høyteknologi er født ut av konkurranse, og ikke statlig finansiering? Vi kan se på dette fra det andre perpektivet og: Intel selv bedriver med subsidiering for å kunstig fremme sitt intreden i markeder. Intel har jo pøst framover som et vogntog i det mobile markedet, i et korstog mot ARM. Hvert eneste år har de utviklet og utviklet seg nærmere og nærmere et konkurransedyktig posisjon, alt for å stjele markedsandeler fra ARM. Alt det mens de går på et tap: i 2014, for eks., gikk de på et tap på hele $4 milliarder, der de regelrett har påtvunget så mye som 40 millioner prosessorer i nettbrett og mobiltelefoner av ulike typer. Likevel fortsetter de, mens de går på tap: er dettte produktivt for markedet, kanskje? Et Intel som går på tap av størrelsesorden som AMD ikke engang kan nærme seg? Likevel er det AMD du skal kritisere, ikke Intel? 

Du skriver at "Den som tror det er konkurranse på CPU-fronten i dag lever i en fantasiverden." Men faktum er at INGEN tror at det er noe konkurranse på CPU-fronten i desktop-segmentet. Det er de få av oss som ønsker konkurransen tilbake; som ønsker AMD tilbake. Konkurranse er bedre en ingen konkurranse. I en verden som dette, er regulering gjennom støtte til den svakere parten -- med intensjoner om fremme konkurranse -- langt mer produktivt for brukere i lengden enn å la monopolet gå sin gang.

 

Det mest oppsiktsvekkende er dog argumentet ditt for hvorfor vi ikke skal gjøre dette. Argumentet du får ut av dette er at det gjør en selskap lat i sine bestrebelser etter innovasjon og utvikling.

 

Dette argumentet er noe av det mest vanvittige jeg noensinne har lest. Ikke fordi det gir absolutt ingen mening i det hele tatt, selv på papiret. Man at det også på absolutt ingen måter er realistisk med den faktiske situasjonen: både på hvor godt AMD har det (som ikke er så godt, for å si det mildt), og for hvor mye bra de faktisk gjør. Se på AMD, se på dets markedsandeler, se på dets R&D-budsjett. Kom så tilbake til meg og fortell meg hvorvidt det er AMD eller nVidia som gjør mest ut av sitt budsjett. Det samme gjelder Intel.

 

Du er tydeligvis en fanboy av ulike sorter, og bærer et stort nag mot AMD. Og det er helt greit; slike barnslige mennesker skal få lov til å like/mislike det de ønsker. Men det er en spesiell kvalitet brukere som deg ofte mangler, og det er nøkternhet. Det er kanskje best at du holder hovenheten din begrenset til tekniske detaljer om hardware. Utover det, ender du bare opp med å gjøre deg til mål for de brukere som ikke finner oppførselen din veldig fornøyende, og som gledelig besvarer deg med den samme pompøse frekkheten tilbake. Slik jeg gjør nå, og slik jeg har gjort tidligere i innlegg om emner som du kan absolutt ingenting om.

  • Liker 7
Lenke til kommentar

 

Igjen er techspot sin test langt grundigere enn de andre testene her. Hvis du tar mitt eksempel, der 960 er byttet ut med 280X. I Battlefield får du 5% høyere ytelse ved 1200p, og i Thief får du 7%. Det er jo absolutt respektabelt, og en god økning, men langt ifra revolusjonerende. Du må altså ned til lave oppløsninger og svake CPUer før du virkelig ser en stor forskjell. du sier at det er 25% økning for i3, men "glemmer" at du bruker offisielle tall fra AMD. Noe av det minst troverdige du kan oppdrive.

 

 

Grundigere hvordan? Her er konklusjonen Anandtech kommer fram til:

 

"At High and Low quality settings, and excluding our one Mantle performance regression, we see performance gains anywhere between 7% and 30%."

 

Dette er alle typder CPUer/GPUer med spill på alle typer oppløsninger/grafikkinstillinger, I SINGLEPLAYER. Så gjør meg tjenesten og legg fra deg den misvisende og selektive fremvisningen av Mantle. 

 

Mantle var bare AMD som lanserte noe som skulle komme i DirectX tidlig. 

 

Et postulat; en påstand uten belegg fra deg og effiaken. Det er like mye grunnlag for denne meningen som det er for meningen at Mantle har drevet fram DX12.

Endret av La Menthe
Lenke til kommentar

Jeg skal forklare hvorfor det er grundigere. Anandtech tester med kun en CPU. Der har de underklokket kraftig og deaktivert kjerner. De er alle testet med R9 290X. Techsport derimot har testet med mange FORSKJELLIGE CPUer, og FORKSJELLIGE GPUer. Det er rett og slett mer grundig gjort. Anandtech sin blir simulering. Ingen kjører BF4 med R9 290X og en Intel i7-E på low. Spar meg for tall fra simulerte situasjoner. Det viser jo bare teoretiske tall, ikke tall som folk faktisk vil oppleve. Ingen deaktiverer 2 kjerner i sin superkraftige Intel CPU og spiller på low med et R9 290X bare for å oppleve 30% ekstra ytelse i Mantle. Utrolig urealistisk. Det stemmer, jeg betviler ikke det, men det er rent teoretiske tall og blir dermed verdiløse. Akkurat som AMD sine påståtte tall. Teoretisk ytelse alt sammen.

 

effikan har lagt frem bevis på at DX12 var først. Du får lese over svarene hans igjen.

 

Jeg er helt enig i det du sier om økonomi, og enig i at det du sier stemmer. Jeg ser likevel ikke hvordan det endrer noe. Ingen kan si at Intel vant CPU krigen over AMD fordi de hadde bedre produkter. AMD tapte pga lave salgstall til tross for gode produkter. Svært negativt for konkurransen. Sannheten er jo at AMD ligger dårlig an økonomisk. De har svært overbevisende resultater til tross for lave budsjetter. Likevel så er det jo som du sier. Intel kan ta et tap på nesten hele AMD sin omsetning for å bli stor på et område. Hvis AMD skal ta Intel så trenger de ikke litt penger. De trenger VELDIG mye penger. De er og en fabless produsent, og ligger bak Intel. Dermed trengs det og massive investeringer hos Samsung/GloFou for at AMD skal kunne konkurrere. Samsung bygger jo fabrikk til 14 milliarder dollar. Den størrelsesordenen med penger trengs. Kjøp av lavmargins CPUer fra AMD....det kommer aldri til å kunne hjelpe. Du vil aldri få høye nok tall. Dermed blir det til at de bare får inn litt penger. De får penger uansett. de selger FX-8350 selv om den koster mer enn i3 og er dårligere. Dette tjener jo ikke noe formål. AMD må gjøre noe drastisk med CPU avdelingen sin. Ellers er det ingen måte de kan slå Intel. Selv om folk begynte å støtte AMD er det en dråpe i havet av hva AMD trenger. De trenger noe massivt. Salgene av CPU hindrer åpenbart AMD i å se at dette ikke fungerer, vi bør få til en avtale eller selge. Dermed så bidrar det til mindre konkurranse. Hvis de ikke hadde salg, då hadde de blitt tvunget til å gjøre noe! Akkurat nå gjør de ingenting annet enn å holde sånn halveis på og forsette å lansere dårlige produkter. Forklar meg hvordan det å hjelpe dem til å lansere en anelse mindre dårlige produkter hjelper konkurransen, kontra et oppkjøp av et stort kinesisk selskap med mye ressurser f.eks?

Lenke til kommentar

 

 

Du lurer kanskje på hvorfor overheaden blir mindre med optimaliseringer? Utviklere snakker ofte om "draw calls" som er én type API-kall, men for hvert objekt som tegnes gjøres det en rekke API-kall; som å binde teksturer og meshes, aktivere shadere og til slutt det faktiske tegnekallet. Hvert API-kall medfører en viss overhead, spesielt pga. intern validering av tilstander i driveren. Men alle som har kjennskap til grafikkprogrammering vet at løsningen på dette er å tegne ting i batches som lar GPUen jobbe mye mer effektivt og faktisk eliminerer API-kall, fremfor å fokusere på reduksjon i overhead for hvert enkelt kall. Så for de som maksimerer antall API-kall vil Direct3D 12, Mantle, Vulkan og et subsett av OpenGL være kjærkomment, men bare fordi at de skriver dårlig kode.

 

Så når Oxide sier at dem gjør ting i Ashes of The Singularity som ikke hadde vært mulig uten D3D12 eller når Dice sier dem vil ha D3D12 som minimum spec i utgangen av neste år pga det vil gi store fordeler, så er det kun basert på latskap, udugelighet og/eller PR løgner? Dette er også stort sett eneste grunnen til at D3D12 (slik det er) ser dagens lys? Kanskje grunnen er  heller mer økonomisk, at det er raskere og billigere (utviklingsmessig) med å øke antall draw calls enn å skrive bedre kode.
 
Et stort antall draw calls over et punkt er vel ikke bare et problem for svake CPU'er, men også for D3D11 i seg selv? 
Dette er en kommentar fra AMD om den svake ytelse til Assassin's Creed Unity på PC:
 
"The game (in its current state) is issuing approximately 50,000 draw calls on the DirectX 11 API. Problem is, DX11 is only equipped to handle ~10,000 peak draw calls. What happens after that is a severe bottleneck with most draw calls culled or incorrectly rendered, resulting in texture/NPCs popping all over the place"
  • Liker 1
Lenke til kommentar

Du antar her at DX12 utelukkende vil bringe denne ene forbedringen. Det stemmer jo ikke, DX12 vil muliggjøre en rekke andre ting også.

 

Jeg håper ikke du tenker å bruker AC:Unity som et eksempel. Du skal lete lenge etter et spill som er kodet mer forferdelig og er mer uferdig enn det. Ukontrollerte draw calls er bare en av tingene som er gale med AC:Unity. Dette er et problem med spillet, ikke direct X.

Lenke til kommentar

Du antar her at DX12 utelukkende vil bringe denne ene forbedringen. Det stemmer jo ikke, DX12 vil muliggjøre en rekke andre ting også.

 

Jeg håper ikke du tenker å bruker AC:Unity som et eksempel. Du skal lete lenge etter et spill som er kodet mer forferdelig og er mer uferdig enn det. Ukontrollerte draw calls er bare en av tingene som er gale med AC:Unity. Dette er et problem med spillet, ikke direct X.

 

Nei, ikke utelukkende, jeg skrev "stort sett". Men jeg skulle kanskje ha moderert meg til "den største grunnen".

 

Poenget mitt med AC:Unity var mer kommentaren til AMD om antallet draw calls D3D11 kan håndtere. En svak CPU er isåfall ikke den eneste hindringen til et stort antall draw calls. D3D12 vil gi utviklerne muligheten til å gå over dette i fremtiden, men disse fremtidige spillene vil vel neppe ha en D3D11 fallback renderer path slik at en sammenligning blir vanskelig.

Endret av MistaPi
Lenke til kommentar

Når du lager spill er det mye som du ikke kan gjøre. Funksjoner som ikke er bygget inn og ikke er mulige å gjennomføre. Det å overskride hva som er mulig er bare dårlig koding. Problemet er ikke at CPU er for svak. Problemet er at det rett og slett bare er kodet veldig dårlig.

 

I Witcher 3 kan du se at det er en del ting de måte ta ut. Jeg tror en form for lyssetting var en av dem. Det var rett og slett ikke mulig å gjøre det slik. Det ble forferdelig for alle konfigurasjoner.

 

Dette er jo bare noe som hjelper for folk som koder for konsoll, eller dårlig som effikan sier. Det er dermed sånn sett noe bra, men ikke sånn sett noe stort. Det gjør at dårlig og sikkert lettere og billigere koding kjører bedre. Derfor er jo sånn sett AC:Unity et bra eksempel. Du skal lete lenge etter dårligere kodede AAA spill en dette. Problemet her er jo ikke at DX11 ikke håndterer 50.000 draw calls. Problemet er at AC:U har forferdelig kode. At utviklere kan gå over 10.000 betyr jo sannsynligvis dårligere konsoll porter blant annet. Det kan dermed og virke negativt og få utviklere til å bare kode inn masse draw calls, istedenfor å kode smart. Spill som The Withcer 3 har ikke 50.000 draw calls, men ser bedre ut enn AC:U.

 

Dermed blir ikke dette den store faktoren som gjør at de kan gjøre nye ting med spillene i DX12, men heller andre ting. Det er jo bra at det kommer, men jeg ser ikke helt hvordan dette er den store tingen som vil endre alle spill.

Lenke til kommentar

Forretningsmessig så er det kanskje lurt, om det ikkje blir for kjent :D

PCPer.com har vist også blitt "bannet" fra AMD.

 

Virker som dette er straffen for å kalle 300-serien for rebrands...

 

Trist å se at AMD driver med "skitne triks", dette var noe Nvidia også prøvde å gjøre endel år tilbake uten hell (hardocp).

  • Liker 1
Lenke til kommentar

Når du lager spill er det mye som du ikke kan gjøre. Funksjoner som ikke er bygget inn og ikke er mulige å gjennomføre. Det å overskride hva som er mulig er bare dårlig koding. Problemet er ikke at CPU er for svak. Problemet er at det rett og slett bare er kodet veldig dårlig.

 

I Witcher 3 kan du se at det er en del ting de måte ta ut. Jeg tror en form for lyssetting var en av dem. Det var rett og slett ikke mulig å gjøre det slik. Det ble forferdelig for alle konfigurasjoner.

 

Dette er jo bare noe som hjelper for folk som koder for konsoll, eller dårlig som effikan sier. Det er dermed sånn sett noe bra, men ikke sånn sett noe stort. Det gjør at dårlig og sikkert lettere og billigere koding kjører bedre. Derfor er jo sånn sett AC:Unity et bra eksempel. Du skal lete lenge etter dårligere kodede AAA spill en dette. Problemet her er jo ikke at DX11 ikke håndterer 50.000 draw calls. Problemet er at AC:U har forferdelig kode. At utviklere kan gå over 10.000 betyr jo sannsynligvis dårligere konsoll porter blant annet. Det kan dermed og virke negativt og få utviklere til å bare kode inn masse draw calls, istedenfor å kode smart. Spill som The Withcer 3 har ikke 50.000 draw calls, men ser bedre ut enn AC:U.

 

Dermed blir ikke dette den store faktoren som gjør at de kan gjøre nye ting med spillene i DX12, men heller andre ting. Det er jo bra at det kommer, men jeg ser ikke helt hvordan dette er den store tingen som vil endre alle spill.

 

Jeg bestrider ikke at AC:Unity er dårlig kodet eller at utviklerne burde holde seg innenfor begrensingene dem står ovenfor. Jeg er dog ikke så overbevist over at ytelsekostnad reduksjon med draw calls er kun positivt for dårlige konsollporter og ellers dårlig koding.
For å sitere noen brukere på Beyond3D forumet:
Simple answer : NO.
Spending less time in the API is spending more time on game's computations, which is always good.
 
- Rodéric Vicaire, Software Engineer

 

 

There are tradeoffs when you batch draw calls. Good code should leverage draw calls where necessary and batch where necessary.
 
As the scene gets more graphically complex, and you want to reach a certain level of graphical fidelity, draw calls are likely going to increase with scene complexity.
 
DX12 sin API overhead reduksjon er ihvertfall det som det har værst størst blest om. 
Endret av MistaPi
Lenke til kommentar

I videoen der så kaller han jo AMD flatt ut svindlere. Da blir det litt rart for meg at de en uke senere "griner" over at de ikke har fått et review sample av Fiji og mener bestemt at de skulle klart å gitt den en nøytral review.

 

Jeg mener det er en distinkt forskjell på å si: "Bleh, rebrands.." i stedet for: "Jøss så mye de har fått ut av Hawaii. Tenk den er snart 2 år gammel, og likevel kan den måle seg med GTX980!". Et sted i mellom der tenker jeg det finnes noe som likner på nøytralt. Men om jeg eide AMD og skulle velge hvem som får teste mine nye GPU'er, så tenker jeg at jeg hadde helt mot de siste. :p

 

Når det gjelder hele "rebrands" diskusjonen så syns jeg det er noen nyanser som kan være greie å ta med i regnestykket. Både Nvidia og AMD har såvidt jeg har forstått byttet klistremerker på sine skjermkort tidligere uten å endre en eneste ting.

 

Hvis vi ser på 390X nå, så er jo ikke det tilfellet. 290X hadde en TDP på 290W, kjører du den på 1050MHz så kan det godt tenkes at den er oppe i 320W, og legger du på 4GB med GDDR5 minne som er klokket 1000MHz (Eller 250MHz da) høyere, så kan man sikker legge på minst 20W til. Men 390X har en TDP på 275W til tross for disse endringene, og altså gått ned i TDP i forhold til 290X. Så selv om det åpenbart er mye likt, så synes jeg ikke dette er det verste eksempelet på "rebranding". Og det er ikke mange som hadde hatt mye å utsette på 390X om den ble introdusert til markedet i dag, annet enn høyt strømforbruk og lavt OC potensiale.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...