Gå til innhold

RYKTE: Nvidia skal lansere sitt kraftigste grafikkort noensinne


Anbefalte innlegg

 

Trist at slik feilinformasjon henger igjen enda...

2. generasjon Maxwell (GM20x) vil støtte async compute når vi begynner å nærme oss det tidspunktet at det kommer spill som bruker dette.

Foreløpig finnes det kun et par techdemoer som i det hele tatt bruker DX12.

 

 

Må da innrømme at Nvidia ikke akkurat har gjort sitt for å vise at dette ikke er et problem ,så der forstår jeg faktisk at det til en viss grad at det henger igjen litt feilinformasjon...

Egentlig en ganske ergerlig situasjon for oss alle og noe jeg selv irriterer meg litt over , det hjelper jo ikke akkurat forbrukerne til å få et godt innblikk på hva de virkelige styrkene og svakhetene til noen skjermkort er.

 

Uansett så dukker det opp noen spill i DX12 snart , da får vi vel en indikasjon på om benchmarkene har sitt på det rene. 

Det vil vel aldri forandre seg at massene sluker PR rått. Og spesielt ikke når det støtter underdogen, fordi alle elsker en underdog.

Lenke til kommentar
Videoannonse
Annonse

 

 

Trist at slik feilinformasjon henger igjen enda...

2. generasjon Maxwell (GM20x) vil støtte async compute når vi begynner å nærme oss det tidspunktet at det kommer spill som bruker dette.

Foreløpig finnes det kun et par techdemoer som i det hele tatt bruker DX12.

 

 

Må da innrømme at Nvidia ikke akkurat har gjort sitt for å vise at dette ikke er et problem ,så der forstår jeg faktisk at det til en viss grad at det henger igjen litt feilinformasjon...

Egentlig en ganske ergerlig situasjon for oss alle og noe jeg selv irriterer meg litt over , det hjelper jo ikke akkurat forbrukerne til å få et godt innblikk på hva de virkelige styrkene og svakhetene til noen skjermkort er.

 

Uansett så dukker det opp noen spill i DX12 snart , da får vi vel en indikasjon på om benchmarkene har sitt på det rene. 

Det vil vel aldri forandre seg at massene sluker PR rått. Og spesielt ikke når det støtter underdogen, fordi alle elsker en underdog.

Gjelder ikke i dette forumet! Det er kun et fåtall! Salgstallene viser også at du tar feil her....

Lenke til kommentar

 

Blir ikke dette litt meh likevel? Maxwell-arkitekturen støtter ikke Async Compute; så selv om det blir oooooohmp med to kjerner, så kommer vel sannsynligvis svakere AMD-kort potensielt komme til å matche de i DX12?

Trist at slik feilinformasjon henger igjen enda...

2. generasjon Maxwell (GM20x) vil støtte async compute når vi begynner å nærme oss det tidspunktet at det kommer spill som bruker dette.

Foreløpig finnes det kun et par techdemoer som i det hele tatt bruker DX12.

 

 

Som jeg skrev i en annen tråd, Maxwell trenger vel en sw scheduler for å få til async, noe AMD har i hw, og vil dette da være like effektivt?

Lenke til kommentar

 

 

 

Blir ikke dette litt meh likevel? Maxwell-arkitekturen støtter ikke Async Compute; så selv om det blir oooooohmp med to kjerner, så kommer vel sannsynligvis svakere AMD-kort potensielt komme til å matche de i DX12?

Trist at slik feilinformasjon henger igjen enda...

2. generasjon Maxwell (GM20x) vil støtte async compute når vi begynner å nærme oss det tidspunktet at det kommer spill som bruker dette.

Foreløpig finnes det kun et par techdemoer som i det hele tatt bruker DX12.

 

 

Som jeg skrev i en annen tråd, Maxwell trenger vel en sw scheduler for å få til async, noe AMD har i hw, og vil dette da være like effektivt?

Hvor mye mer effektivt er det med HW scheduler kontra SW?

Lenke til kommentar

 

 

 

 

Blir ikke dette litt meh likevel? Maxwell-arkitekturen støtter ikke Async Compute; så selv om det blir oooooohmp med to kjerner, så kommer vel sannsynligvis svakere AMD-kort potensielt komme til å matche de i DX12?

Trist at slik feilinformasjon henger igjen enda...

2. generasjon Maxwell (GM20x) vil støtte async compute når vi begynner å nærme oss det tidspunktet at det kommer spill som bruker dette.

Foreløpig finnes det kun et par techdemoer som i det hele tatt bruker DX12.

Som jeg skrev i en annen tråd, Maxwell trenger vel en sw scheduler for å få til async, noe AMD har i hw, og vil dette da være like effektivt?

Hvor mye mer effektivt er det med HW scheduler kontra SW?
Hvis noen vet noe om dette, så er det HKS. Han kommer nok innom snart :p
Lenke til kommentar

 

 

 

 

Problemet er at prisene på disse kortene er altfor høye. Min max pris for et skjermkort ligger på 3000,-

Da regner jeg med du ikke spiller på en høy oppløst high-refresh skjerm? Eller er kresen på fps? 

Man må ikke alltid spille på max instillinger vettu :), nei har en vanlig 60Hz LCD. Men mitt 960 GTX yter helt fint det.

hvaaaa? Hvordan kan man akseptere 60fps i 2015? You are krazy :)

Hvordan kan du akseptere å spille spill som Witcher 3 i drittgrafikk, for å tilfredsstille mindre vesentlig 120 FPS?

  • Liker 2
Lenke til kommentar

 

Blir ikke dette litt meh likevel? Maxwell-arkitekturen støtter ikke Async Compute; så selv om det blir oooooohmp med to kjerner, så kommer vel sannsynligvis svakere AMD-kort potensielt komme til å matche de i DX12?

Trist at slik feilinformasjon henger igjen enda...

2. generasjon Maxwell (GM20x) vil støtte async compute når vi begynner å nærme oss det tidspunktet at det kommer spill som bruker dette.

Foreløpig finnes det kun et par techdemoer som i det hele tatt bruker DX12.

 

 

Dette er fanboyisme så det holder. Du tar utgangspunkt i at alle og enhver kjøper seg nye grafikkort hvert eneste år -- noe du vet absolutt ikke er tilfelle. De fleste gamere sitter på samme maskinvare (især GPUer, som er det dyreste man kjøper i en PC) i ca. 4+ år. Morgendagens DX12-spill vil i overveldende grad spilles på grafikkort som 700- og 600-serien til nVidia, og R9 200- pg 7000 og 6000-serien til AMD. Videre støtter ikke Maxwell GPUer async compute hardware-messig, og har måttet ty til -- foruten utpressing av spillutviklere om å ikke inkludere async compute i den grad det setter ytelen på nVidia-kort i et dårlig lys -- en halvgod software-implementering. Litt sånn som når nVidia veldig stille og uten annonsering implementerte mange av de samme funksjonene fra Mantle i sin 337.50-driver i april 2014. Du vet, enda en hardware-mangel de har for low-level API som vi også finner i DX12, som de angivelig har jobbet med å utvikle i sine grafikkort i 5 år nå...

 

Som din kjære venn effiaken sa det (før async compute-skandalen, såklart):

Alle med elementær forståelse om GPUer vet at skissene for Direct3D foreligger ~4+ år før lansering slik at produsentene får lagt inn nødvendig funksjonalitet i GPU-design. Det tar flere år fra tegnebrettet til et skjermkort i hyllene, og jeg kan garantere at Direct3D 12 har vært planlagt i årevis før Mantle i likhet med hver foregående versjon. Enhver som påstår at Direct3D 12 oppstod etter GPU-design som GCN og Maxwell og etter Mantle er ikke bare ignorant, men har også bevist sin totale inkompetanse på feltet. Direct3D hadde aldri fungert godt på tvers av GPUer om APIet var designet etter GPUene.

 

 

God programvare følger vanligvis hardware-design, ikke omvendt. Så lenge nVidia ikke kan implementere hardware-støtte for dette, vil de ha et klart dårligere utgangspunkt. Når nVidia uttaler " [We are] working together with oxides on a full async compute implementation", så kan man gjøre opp sin mening om hva det egentlig betyr, når de ikke engang har denne funksjonaliteten i maskinvaren... Jeg liker å forholde meg til faktiske forhold. Som det at AMD allerede har DX12-støtte som langt overgår nVidia, både i programvare og maskinvare, mens nVidia har verken av delene. Dette er noe som vil være av betydning når DX12-spill lanseres om knappe halvt år.

Endret av La Menthe
  • Liker 1
Lenke til kommentar

 

 

 

 

Problemet er at prisene på disse kortene er altfor høye. Min max pris for et skjermkort ligger på 3000,-

Da regner jeg med du ikke spiller på en høy oppløst high-refresh skjerm? Eller er kresen på fps? 
Man må ikke alltid spille på max instillinger vettu :), nei har en vanlig 60Hz LCD. Men mitt 960 GTX yter helt fint det.
hvaaaa? Hvordan kan man akseptere 60fps i 2015? You are krazy :)

Hvordan kan du akseptere å spille spill som Witcher 3 i drittgrafikk, for å tilfredsstille mindre vesentlig 120 FPS?

 

Flaks for meg at jeg ikke spiller Witcher da ;)

 

Jeg sier ikke at man MÅ, men jeg sier at man gjerne ikke har store krav i spill som Witcher eks. Jeg prøvde en 60hz skjerm i helga, kan ikke sammenlignes med 144hz, ikke selv til vanlig bruk imo.

 

Føles mer ut som lagg når man skal bevege musa over flere skjermer eks.

Lenke til kommentar

Problemet er jo at slike løsninger har akkurat de samme problemene som SLI og Crossfire har.

Som regel i spilla jeg spiller så funker det veldig bra, og i spill som ikke er støttet er det som regel ikke bruk for mer enn krafta til 1stk 980/Ti. 

 

Dette kommer selvsagt ann på person.

 

Jeg har ikke opplevd noe tull med sli, hatt 980 sli nesten siden release også.. :)

  • Liker 1
Lenke til kommentar

 

Trist at slik feilinformasjon henger igjen enda...

2. generasjon Maxwell (GM20x) vil støtte async compute når vi begynner å nærme oss det tidspunktet at det kommer spill som bruker dette.

Foreløpig finnes det kun et par techdemoer som i det hele tatt bruker DX12.

 

Dette er fanboyisme så det holder. Du tar utgangspunkt i at alle og enhver kjøper seg nye grafikkort hvert eneste år -- noe som absolutt ikke er tilfelle. De fleste gamere sitter på sine maskinvarer i ca. 4+ år. Morgendagens DX12-spill vil i overveldende grad spilles på grafikkort som 900- 700- og 600-serien til nVDIA, og R9 200- pg 7000 og 6000-serien til AMD.

 

Trist at man må ty til lavnivå fanboy-utsagn som dette...

 

Klarer ikke å se hva som skulle vært "fanboyisme".

 

Jeg sier at 2. generasjon Maxwell kommer til å støtte "async compute" (alle 900-serie kort), og at det enda ikke er noen spill som bruker DX12. Det kommer det heller ikke til å være på flere måneder.

  • Liker 2
Lenke til kommentar

Jeg sier at 2. generasjon Maxwell kommer til å støtte "async compute" (alle 900-serie kort), og at det enda ikke er noen spill som bruker DX12. Det kommer det heller ikke til å være på flere måneder.

 

 

Det kommer ikke til å gjøre noe som helst. Maxwell støtter det ikke i maskinvaren, og vil derfor implementere det gjennom software der det er mulig. Det er helt opplagt at dette rett og slett ikke er godt nok, uansett hvordan du vrir og vender på det, og hvordan nVidia reklamerer for det. Per dags dato har de heller ikke vist oss en håndgripelig demonstrasjon av deres såkalte «fulle implementasjon».

 

Fanboyismen er at du skyter ned den fullt legitime påstanden hans. Når flere år gamle AMD-kort faktisk gir bedre støtte for dette og for DX12 generelt, mens helt nye nVidia-kort ikke gjør det, så er det av relevans når de første DX12-spillene kommer ut. Videre sitter de fleste  PC-brukere på grafikkort eldre enn 390(X)/GTX 970/980. Når selv nyere Maxwell er fullstendig underlegen i sin implementasjon av async compute (og sansynligvis også andre hardware-baserte funksjonaliteter som kom med Mantle-kopien D3D12), så er det såklart av stor vesentlighet. 

Endret av La Menthe
Lenke til kommentar

Mitt valg er å vente uansett. GPUer og CPUer basert på 28nm ledningsbaner er passé og på klar overtid.

Det kommer ny serie Pascal ("GPxxx" ) fra Nividia på nyåret. For de som må ha den kraft, så er trolig det presenterte dual-alternativet svært nødvendig.

Pascal-serien vil være basert på så mye nytt at ventetiden for oss "dødlige" er verd det.

Personlig har jeg svært stor tro på det nye som kommer. Det vil gi mye for de som prioriterer energiforbruk, ytelse og/eller hastighet.

Jeg blir sittende med det "gamle" inntil den "nye vinen" kommer. Den tro jeg blir veldig god!

Lenke til kommentar

Det kommer ny serie Pascal ("GPxxx" ) fra Nividia på nyåret. 

 

Hvor har du det fra? Er det bare jeg som ikke har sett en eneste indikasjon eller noen håndgripelige rykter om at Pascal lanseres tidlig 2016? Om jeg skulle gjette, vil Q2-Q3 vært mer riktig, men igjen så er også det ren spekulasjon basert på nesten ingen faktiske fakta -- annet enn antagelsen om at en så tidlig lansering so Januar/Februar er urealistisk. Spesielt mtp. at de nå planlegger å lanse sitt siste monsterkort fra Maxwell til jul.

 

Ellers er det du sier helt riktig. Innkjøp av nyere grafikkort fra nVidia og AMD er rett og slett dumt på dette tidspunktet, mtp. de store endringene vi får neste år.

Endret av La Menthe
Lenke til kommentar

Det kommer ikke til å gjøre noe som helst. Maxwell støtter det ikke i maskinvaren, og vil derfor implementere det gjennom software der det er mulig.

Det stemmer ikke. Hardware støtte er der.

På jobben forsker vi på funksjonalitet som kommer i neste CUDA versjon som heter "GPUDirect Async". Denne funksjonaliteten baserer seg på samme "maskinvare" som DX12 kommer til å bruke for å gjøre async compute.

 

]Fanboyismen er at du skyter ned den fullt legitime påstanden hans.

Jeg bare påpeker at påstandene hans er feil.

 

Når flere år gamle AMD-kort faktisk gir bedre støtte for dette og for DX12 generelt, mens helt nye nVidia-kort ikke gjør det, så er det av relevans når de første DX12-spillene kommer ut.

Det stemmer at eldre AMD kort vil i noen tilfeller ha en fordel her.

Men på en annen side så kommer det også til å dukke opp DX12 spill neste år som bruker funksjonalitet som er en del av DX12 feature level 12_1, dette støttes kun av nyere Nvidia hardware.

Ingen kort der ute er perfekte når det gjelder støtte for DX12 dessverre.

 

Når selv nyere Maxwell er fullstendig underlegen i sin implementasjon av async compute (og sansynligvis også andre hardware-baserte funksjonaliteter som kom med Mantle-kopien DX12), så er det såklart av stor vesentlighet.

I og med at funksjonaliteten ikke er aktivert enda så vet du nok ikke noe om dette. Det er heller ikke gitt hvor stor grad spill kommer til å ha nytte av async compute.
  • Liker 2
Lenke til kommentar

Det stemmer ikke. Hardware støtte er der.

På jobben forsker vi på funksjonalitet som kommer i neste CUDA versjon som heter "GPUDirect Async". Denne funksjonaliteten baserer seg på samme "maskinvare" som DX12 kommer til å bruke for å gjøre async compute.

 

 

Såklart er støtten der. Men den er mangelfull i stor grad, sammenlignet med det det du finner i GCN-arkitekturen.

 

Når AMD og Nvidia snakke om støtte async compute, er det ikke snakk om de samme maskinvareevnene. Hvis du jobber med dette, så burde du selv vite dette veldig godt. Asynchronous Command Engines i AMD GPUer (mellom 2-8 avhengig av hvilket kort du eier) er i stand til å utføre nye arbeidsbelastninger på ventetider så lite som en enkelt syklus. En high-end AMD kort har åtte ACEer og hver ACE har åtte køer. Maxwell, derimot, har to "pipelines", hvorav den ene er et høyt grafikkprioritert.  Den andre kan ikke bytte oppgaver på langt nær så raskt som det AMD kan.

 

Flere brukere på entusiastnettsted har tatt i bruk asynch compute-tester som vurderer nettopp denne evnen i både AMD- og Nvidia.maskinvare.  Den gule linjen er det er hva vi ville få dersom GPU byttet og utførte oppgaver i en teoretisk perfekt situasjon. Den røde er den faktiske utførelsen.

 

R9 290:

 

Y6eVtYs.png?1

GTX 980 Ti:

 

RAAh9Pj.png?1

 

Som man ser her, så havner 290 for det meste innenfor det "perfekte" område, mens 980 Ti sjeldent gjør det. Forsøk på å samtidig utføre grafikk og beregne på GTX 980 Ti forårsaker de store toppene og bunnene i ytelse og, og lite gevisnter. Akkurat nå er det bare noen få tråden der Nvidia gir ideell ytelse (latency, i dette tilfellet), og mange tilfeller hvor det ikke gjør det.

 

Videre undersøkelser har indikert at Nvidias asynch-pipeline ser ut til å lene seg på CPU for noen av sine oppgavers, mens AMDs GCN håndterer jobben i egen maskinvare. Dette er rett og slett en maskinvare-problem.

Endret av La Menthe
Lenke til kommentar

På alle spill kjører jeg med MAX på alle innstillinger i 3840x2160 med 60 FPS, og det går problemfritt.

Har 2xNvidia970GTX (I SLI) og en 48" curved UHD screen som jeg sitter 30 cm fra.

Kjører Windows10 (Oppgradert fra W7)

 

Jeg spiller alle typer spill, RTS, FPS, Simulatorer m.m, uten noe skygge/shading/lagg problemer på skjermen

 

Dette var bare til generell info, siden jeg så noen har hatt problemer med både det ene og det andre.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...