Gå til innhold

AMD Radeon R300-serien/fiji diskusjon og spekulasjon


Anbefalte innlegg

Vi vet at Direct3D 12 ble skissert før kompatible GPUer forlot tegnebrettet, og det sier seg selv at det har vært bearbeidet i årevis før offentliggjøring. Det er rett og slett en umulighet at Mantle oppstod før Direct3D 12.

Skjønner du i det hele tatt hva du selv skriver? Da Direct3D 12 «ble skissert» hadde det samme status som GPU-er «på tegnebrettet». En skisse er en tegning, bare på et enda tidligere nivå. Det er ingenting som skulle tilsi, utifra dine egne «argumenter» (og jeg kan ikke skrive det uten anførselstegn, sorry) at Mantle skulle være basert på Direct3D 12.

  • Liker 2
Lenke til kommentar
Videoannonse
Annonse

Såfremt det ikke foreligger spesifikke patenter på funksjonalitet så er det ingenting Microsoft kan gjøre for å hindre konkurrerende API. Det meste av funksjonaliteten finnes allerede for OpenGL, og lavere overhead er ikke akkurat noe som kan patenteres.

 

Alle utviklere har erfart at når lignende funksjonalitet implementeres i ulike API eller biblioteker så blir det oftest store likheter. Derfor er det den mest naturlige ting i verden at deler av Direct3D 12 ligner på Mantle og tilsvarende for Vulkan. Vi vet at Direct3D 12 ble skissert før kompatible GPUer forlot tegnebrettet, og det sier seg selv at det har vært bearbeidet i årevis før offentliggjøring. Det er rett og slett en umulighet at Mantle oppstod før Direct3D 12.

 

Nei, akkurat der er jeg uenig med deg. Du har faktisk per dags dato ikke kommet med en eneste kilde til at mye av funksjonaliteten som Amd fikk på plass i Mantle var planlagt i forkant av at Mantle ble en realitet , faktisk var det mye som tydet på at Microsoft var langt mer opptatt av Xbox 360 enn Windows spill markedet , noe definitivt MS sine markedsandeler og nesten ikke eksisterende Games for Windows (Marketplace) viser.

 

Svært mye tydet på at Microsoft med Balmer ikke var så veldig fokusert på pc-markedet , det finnes mange gode grunner til dette ,spesielt at Pc spill ofte ble cracket og lagt ut på nettsider lenge før lansering , noe som gjorde at noen gode spill som Dead Space solgte langt mindre enn forventet, selv med gode anmeldelser og god kritikk av spillere. 

Men pc markedet har på ingen måte død , faktisk har det blitt sterkere og med Steam og en restrukturering av hvordan spill markedsføres og legges ut for salg har både antall salg økt og ikke minst gjort det mulig for utviklere å lage nye spill uten å selge sjela sin til en utgiver.

 

Og hva fører dette til? Jo faktisk at man behøver oppdatert software som faktisk greier å utnytte ressursene til skjermkortene og Apu'ene som er ute på markedet , Amd så jo fort at utnyttelsen av sine cpu'er og Apuer, kombinert med de siste skjermkortene langtifra var optimal og tok grep (Som blir rikelig påpekt i denne tråden ) for å gjøre noe med dette når Microsoft ikke viste initiativ til å endre på dette.

 

Jeg tror faktisk at du ikke er en person som bruker særlig tid på spill og derfor ikke har hengt helt med i spillmarkedet i de siste årene , du kan i alle fall ikke påstå at Microsoft har gjort sitt beste for å revitalisere Pc gamer markedet siden det faktisk er andre selskaper som har gjort (deriblant tjenester som Steam og lignende ).

  • Liker 3
Lenke til kommentar

Alle utviklere har erfart at når lignende funksjonalitet implementeres i ulike API eller biblioteker så blir det oftest store likheter. Derfor er det den mest naturlige ting i verden at deler av Direct3D 12 ligner på Mantle og tilsvarende for Vulkan. 

 

Dette er ikke kode eller funksjon det er snakk om, men programmeringsguide, og det er tekstavskrivning. Det er det rene plagiat, som også er grunnen til at Microsoft fjernet den så fort det ble avslørt.

 

Vi vet at Direct3D 12 ble skissert før kompatible GPUer forlot tegnebrettet, og det sier seg selv at det har vært bearbeidet i årevis før offentliggjøring. 

 

Nei, vi vet ingenting. Disse visshetene dine er lite annet enn dine dagdrømmer, uten belegg og uten kilder. 
 
Ditt opprinnelige argument var at "Alle med elementær forståelse om GPUer vet at skissene for Direct3D foreligger ~4+ år før lansering slik at produsentene får lagt inn nødvendig funksjonalitet i GPU-design.
 
Tradisjonelt har D3D hatt lange utviklingsganger med masse "early level"-utvikling fra mange ender av spekteret, men det har ikke vært tilfelle siden fiaskoen som var GeForce FX kombinert med 24-bits Z-buffere med DX9.0. I dag kan alle (Intel, Qualcomm, Imagination, ARM) påvirke specs, men på grunn av deres markedsposisjon, er det AMD og nVidia som bestemmer mye her.
 
Fra nVidias side var det allerede påtrykk mot "low-level" CPU-begrensninger (som er tilsynelatende dokumentert gjennom deres avvisning av Mantle før BF4 ble lansert), men dette var på langt nær ikke så stort eller så fort som det Mantle viste. Folkene i nVidia forventet at de skulle være i stand til å få tilsvarende gevinster som Mantle ved hjelp av ingenting annet enn driveroptimaliseringer. Men for alle som virkelig kan noe om saken, var det klart at nVidia prøvde å løse problemet ved å kaste Gameworks og sitt driverteam på problemet, før de kunne få til en lav overhead-API som ikke var produsert av AMD (eller kutte ned sine driver for å få D3D11/OGL til å matche Mantle, som jeg har vist).
 
Det tar ca. 3 år å designe en ny GPU/CPU, men når du virkelig ser på det, er Maxwell ikke så forskjellig fra Kepler, og Kepler selv er ikke så ulikt Fermi (selve arkitekturen er forskjellig mellom ulike generasjoner, men hvert nye design kan i utgangspunktet gjøre alt det etterfølgeren kunne gjøre, på samme måte som en moderne Haswell-EX prosesssor kan kjøre opprinnelige 80486-koder). Så hvis D3D12 hadde vært i utvikling før Maxwell (eller GCN, som har eksistert siden 2012), hvorfor ble det ikke gitt ut for lenge siden? Videre ligger det Mante-støtte i GCN, og hvis man følger din logikk om 3 års designutviking, hvordan passer det hele inn her da?
 
Men du viste tydelig at du ikke visste hva du snakket om når du skrev:
 

Enhver som påstår at Direct3D 12 oppstod etter GPU-design som GCN og Maxwell og etter Mantle er ikke bare ignorant, men har også bevist sin totale inkompetanse på feltet. Direct3D hadde aldri fungert godt på tvers av GPUer om APIet var designet etter GPUene.  :nei:

 

God programvare følger vanligvis hardware-design, ikke omvendt. Dette kan rett og slett bevises med Itanium- og POWER8-arkitekturer (eller hvilken som helst GPU-arkitektur vs. CPU), som er like raskt som (eller raskere enn) mer "tradisjonelle" CPU-design, når det er optimalisert. Det betyr dermed ikke at programvaren ikke påvirker hardwaren, men det er mye enklere å bygge forskjellig programvare enn å utvikle en ny prosessor.
 
Bevisene om hvem som tok fra hvem er over alt, en av de større eksemplene som ikke er nevnt (mulig Gabri3L eller Malvado har vært inne på det) er hvor sent D3D12 ble skjøvet inn i Windows 10s forhåndsvisningsversjoner, og hvor mye lengre tid det tok for driverne å dukke opp. Det og hvor lang tid de lot Mantle lede markedet (halvt år) før de i det hele tatt gikk ut i medier og innrømmet at de jobbet med noe tilsvarende, og nVidias stillhet rundt det hele, er en ytterligere indikasjon. 
 
Alt i alt synes D3D12 å være en opplagt reaksjon mot DICE og AMD, som jobbet sammen for å bevise et poeng (på samme måte som Metal og Vulkan er reaksjoner på Mantle fra andre hjørner i industrien). 
 

Det er rett og slett en umulighet at Mantle oppstod før Direct3D 12.

 

Fortsett å skrik inn ørene våre med pølsevevet ditt; se hvor mange det er som tar deg seriøst...

Endret av La Menthe
  • Liker 4
Lenke til kommentar

Er ikke noe vits å kjøpe fury x, bare værre drivere Kjøp heller 980ti hybrid eller titan x oc til 1.5ghz easy,og G Sync på det er beste 

også kommer pascal Q1-Q2 2016

Husk på å laste ned Hot Fix Driver 353.38 / 353.49

Endret av piplop
Lenke til kommentar

 

Er det amd fanboys her eller er det bare meg,    DX12 kopiert av mantle som noen sier.  Burde hvite litt mere en så.

-------------------------------------------------------------

 

EVGA X99 Classified

I7 5960X

2X Titan X

Corsair 16GB 3000mhz Platinum

4X samsung 840PRO=2TB

Rog swift

S-Frame GOLD ED

 

Andre bygg 4 way SLI titan / 4way 780TI class)  2way 980 3930K/3970x/4960x/5960X + Fury X 290X CF 8350 og mye mer

Når du førstenes poster i denne tråden, så kunne du jo slengt med et bilde, siden du leverte tidenes lengste "signatur"

Her har du :)  Nyeste Builden 

G9PF7ul.jpg

  • Liker 2
Lenke til kommentar

 

Vi vet at Direct3D 12 ble skissert før kompatible GPUer forlot tegnebrettet, og det sier seg selv at det har vært bearbeidet i årevis før offentliggjøring. 

Nei, vi vet ingenting. Disse visshetene dine er lite annet enn dine dagdrømmer, uten belegg og uten kilder.

 

Så hvorfor er 2. generasjon Maxwell (GM200, GM204, GM206) de eneste GPUene på markedet som støtter full DX12 feature level (DX12 12_1)?

Dette er brikker som har vært på markedet i snart et år nå.

 

Det tar ca. 3 år å designe en ny GPU/CPU, men når du virkelig ser på det, er Maxwell ikke så forskjellig fra Kepler, og Kepler selv er ikke så ulikt Fermi (selve arkitekturen er forskjellig mellom ulike generasjoner, men hvert nye design kan i utgangspunktet gjøre alt det etterfølgeren kunne gjøre, på samme måte som en moderne Haswell-EX prosesssor kan kjøre opprinnelige 80486-koder). Så hvis D3D12 hadde vært i utvikling før Maxwell (eller GCN, som har eksistert siden 2012), hvorfor ble det ikke gitt ut for lenge siden? Videre ligger det Mante-støtte i GCN, og hvis man følger din logikk om 3 års designutviking, hvordan passer det hele inn her da?

Så du mener altså at Maxwell, Kepler og Fermi ikke er så forskjellige fra hverandre?

 

Det stemmer overhodet ikke. Dette er tre veldig forskjellige arkitekturer sett fra lavnivå, selv om PR-tegningene fra Nvidia ser ganske like ut (all tre har "CUDA-cores" etc.). Kode som er kompilert for en av disse arkitekturene vil ikke kunne kjøre på noen av de andre. Tar du et CUDA program og kompilerer for compute 3.5 (Kepler GK110) så vil dette ikke kunne kjøre på compute 5.2 (Maxwell GM200).

 

Den eneste grunnen til at dette tilsynelatende fungerer for sluttbrukere som deg er at CUDA (også DX og OGL) er i et "intermediate" språk. PTX heter dette for CUDA. Når du kjører det på din maskin kompileres det JIT (Just in time) for din arkitektur.

 

 

Fortsett å skrik inn ørene våre med pølsevevet ditt; se hvor mange det er som tar deg seriøst...

Jeg vet i alle fall hvem jeg ikke tar seriøst... :)

 

 

EDIT:

Da tror jeg at jeg setter punktum for denne diskusjonen for min del, det blir for off-topic.

Endret av HKS
  • Liker 1
Lenke til kommentar

 

 

Plus +1 på begge.

Ferrari PCer :p

Gule var tøff.

Takk for det! :)

 

Litt omgjort etter overgangen fra X79 til X99 fj82rTd.jpg

Da er det bare å slenge ut noen benchmarks, for å se om du har fått noe fart på maskinen din, selv om du hater AMD :p Dette er tross alt en Amd R300/fury tråd ;)

Lenke til kommentar

Så du mener altså at Maxwell, Kepler og Fermi ikke er så forskjellige fra hverandre?

Det stemmer overhodet ikke. Dette er tre veldig forskjellige arkitekturer sett fra lavnivå, selv om PR-tegningene fra Nvidia ser ganske like ut (all tre har "CUDA-cores" etc.). Kode som er kompilert for en av disse arkitekturene vil ikke kunne kjøre på noen av de andre. Tar du et CUDA program og kompilerer for compute 3.5 (Kepler GK110) så vil dette ikke kunne kjøre på compute 5.2 (Maxwell GM200).

 

Den eneste grunnen til at dette tilsynelatende fungerer for sluttbrukere som deg er at CUDA (også DX og OGL) er i et "intermediate" språk. PTX heter dette for CUDA. Når du kjører det på din maskin kompileres det JIT (Just in time) for din arkitektur.

 

Fra tipsene jeg har lest, og hvor fort nye funksjonalitetsnivåer fra D3D/OGL/CUDA/OCL blir aktivert på dem, tror jeg de er veldig nære. Men nVidia oppgir ikke arkitekturer på langt nær så godt som Intel, for eks., så vi får nok aldri vite dette helt sikkert. Noe som dog er sikkert er at CUDA er fullstendig bakoverkompatibel, slik at CUDA 1-kode kan kjøres på CUDA 5.2.

 

Så hvorfor er 2. generasjon Maxwell (GM200, GM204, GM206) de eneste GPUene på markedet som støtter full DX12 feature level (DX12 12_1)?

Dette er brikker som har vært på markedet i snart et år nå.

 

"Feature Levels" var måten Microsoft bestemte seg for å separere hardware-funksjonaliteter fra D3D API-nivået. Det betyr at du kan oppgradere driverne til å kunne kjøre D3D12 (som er der hovedfunksjonaliteten ligger, og det vi diskuterer), uten å nødvendigvis ha nye prosessorer som kan støtte nye funksjonalitetsnivåer ("Feature Levels"). Man behandler dem altså på omtrent samme måte som man behandler 10.x- og 11.x-utgivelser. At nVidia støtter FL 12_1 gir ingen bevis for at D3D12 var under utvikling, ganske enkelt fordi funksjonene som kommer med FL 12_1 ville bare ha utvidet D3D11 opprinnelig, inn i noe sånt som FL 11_4. 

 

Og det er det som også har skjedd. FL 12_1 har bare to ekstra funksjoner i forhold til DX12, og det er Conservative Rasterization og Rasterizer Order Views. Begge funksjoner som allerede eksisterte uten DX12, og begge funkjoner som visstnok vil patches inn i DX11.3.

 

Det faktum at nVidia har to programvarefunksjoner som går tilbake til minst 2005 beviser absolutt ingenting om DirectX12.

 

Jeg vet i alle fall hvem jeg ikke tar seriøst...  :) 

 

Gjør som du vil. Det har blitt tydelig lagt fram hva de reelle faktaene på bordet er om Mantle. Det var mitt eneste mål når jeg kom inn i diskusjonen. Så får effiaken og eventuelt andre ignorere kjensgjerningene så mye de ønsker, og bastant slå på brystet om at "de har rett", uten å bidra til noe saklig diskusjon. 

Endret av La Menthe
  • Liker 2
Lenke til kommentar

 

 

Plus +1 på begge.

Ferrari PCer :p

Gule var tøff.

Takk for det! :)

 

Litt omgjort etter overgangen fra X79 til X99 fj82rTd.jpg

Da er det bare å slenge ut noen benchmarks, for å se om du har fått noe fart på maskinen din, selv om du hater AMD :p Dette er tross alt en Amd R300/fury tråd ;)

 

Hater ikke amd, kjøper bare det som er best.  Har allerede hatt mine hender på Fury X og 290 CF.    :)   300 serien er rebrand fra 200  :confused: 

 

Benhmarks er gjort også.   Kjøpte 2 titan X på lanserings dato,   Første spilte. Shadow of mordor. 5K res alt max,  10GB pulling rate fra V-Ram  :)

Endret av piplop
Lenke til kommentar

Benhmarks er gjort også.   Kjøpte 2 titan X på lanserings dato,   Første spilte. Shadow of mordor. 5K res alt max,  10GB pulling rate fra V-Ram  :)

Bare fordi et spill bruker så og så mye VRAM med X grafikkinnstillinger og oppløsning betyr ikke det at spillet trenger så mye VRAM.

Eksempelvis bruker The Witcher 2 (et dx9-spill) med Ubersampling oppmot 9GB VRAM i 1080p på mitt Titan X, men det går helt fint å kjøre samme innstillinger med eksempelvis HD 7970 CFX som "bare" har 3GB VRAM.

  • Liker 1
Lenke til kommentar

 

 

 

 

Plus +1 på begge.

Ferrari PCer :p

Gule var tøff.

Takk for det! :)

 

Litt omgjort etter overgangen fra X79 til X99 fj82rTd.jpg

Da er det bare å slenge ut noen benchmarks, for å se om du har fått noe fart på maskinen din, selv om du hater AMD :p Dette er tross alt en Amd R300/fury tråd ;)

Hater ikke amd, kjøper bare det som er best. Har allerede hatt mine hender på Fury X og 290 CF. :) 300 serien er rebrand fra 200 :confused:

 

Benhmarks er gjort også. Kjøpte 2 titan X på lanserings dato, Første spilte. Shadow of mordor. 5K res alt max, 10GB pulling rate fra V-Ram :)

Så vis oss noen benchmarks da. Kanskje ta en runde firestrike/firestrike extreme? Vi må jo passe på at du ikkje kjører stock og at maskinen blir bare utstillt :p Kanskje du klarer å slå Minhund sine scores. Mine bør du iallefall komme opp mot.

Lenke til kommentar

 

 

 

 

Plus +1 på begge.

Ferrari PCer :p

Gule var tøff.

Takk for det! :)

 

Litt omgjort etter overgangen fra X79 til X99 fj82rTd.jpg

Da er det bare å slenge ut noen benchmarks, for å se om du har fått noe fart på maskinen din, selv om du hater AMD :p Dette er tross alt en Amd R300/fury tråd ;)
Hater ikke amd, kjøper bare det som er best. Har allerede hatt mine hender på Fury X og 290 CF. :) 300 serien er rebrand fra 200 :confused:

 

Benhmarks er gjort også. Kjøpte 2 titan X på lanserings dato, Første spilte. Shadow of mordor. 5K res alt max, 10GB pulling rate fra V-Ram :)

Så vis oss noen benchmarks da. Kanskje ta en runde firestrike/firestrike extreme? Vi må jo passe på at du ikkje kjører stock og at maskinen blir bare utstillt :p Kanskje du klarer å slå Minhund sine scores. Mine bør du iallefall komme opp mot.

 

http://www.3dmark.com/3dm/7837638?  Fire strike extreme  17538 points 

 

http://www.3dmark.com/3dm/7837711?  Fire strike normal    27478 points

 

     4.5ghz 5960X  og 2 Titan X 1.505 og 400/7800 På ram  :)    Får mere seff med flere kort. Men Bra nok  

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...