Gå til innhold

Slik blir de nye AMD-grafikkortene


Anbefalte innlegg

Produsjonsteknikken har tatt store steg de siste årene.

Du mener vel at den ikke har det? Hoppet fra 28nm til 16/14nm har tatt nesten like lang tid som fem hopp fra 90nm til 28nm.

 

Ting tyder vel også på at det vil ta noen år før vi får neste hopp også, så Pascal og Polaris blir nok ikke de siste på 16/14nm.

 

Hvis de ikke har gjort mye mer enn krymping, som de ikke gjør, så har de jo generelt gjort lite. NVidia og kommer til å få krympede kort, men sannsynligvis også flere arkitekturforbedringer (de har mye mer $$$)

Her sier du noe svært viktig. Når Pascal kommer så blir det den tredje nye Nvidia-arkitekturen siden GCN kom ut, mens "3 år gamle" produkter utgjør fremdeles en god del av AMDs produktsortiment. GCN har vært OK mot Kepler, men nå er det på tide med større forbedringer. Hvis det største med Polaris er en krymping så vil ikke det forbedre situasjonen for AMD. Vi må ikke glemme at Nvidia får omtrent samme krympefordeler som AMD, pluss at de har noen arkitekturmessige endringer.

 

Vel, problemet for oss som ikke liker det er at folk blir av en eller annen grunn utrolig hypet av det. Folk har snakket om hvor utrolig bra Zen er, og at de skal kjøpe det når det kommer ut, og når får vi konkurranse mot Intel i evigheter. Hva baserer de det på?

Det er fanboyismen som kommer frem vet du ;)

 

AMD får sine produsert hos Samsung/GloFou på 14 nm teknikk (det er den samme for begge). NVidia får sin produsert hos sin vanlige produsent, nemlig TSCM.

Tape-out for AMDs kommende dedikerte "Polaris"-GPUer var for over et halvt år siden hos TSMC på 16nm FinFET, så det er nok APUer som planlegges hos Samsung/GloFo i denne omgang.

Fra Anandtech:

The group has confirmed that they will be utilizing both traditional partner TSMC’s 16nm process and AMD fab spin-off (and Samsung licensee) GlobalFoundries’ 14nm process, making this the first time that AMD’s graphics group has used more than a single fab

Vi står også ovenfor et reelt kapasitetsproblem. Apple sin avtale er nok slik at de har prioritet over Nvidia/AMD (Apple har og råd til å betale mer med over 45% margin på iPhone).

Nå produseres ikke akkurat "big Pascal" og iPhone-innmat på samme produksjonslinje, så der ville jeg ikke bekymret meg for mye :)

Jeg er derimot veldig spent på hvor langt AMD og Nvidia vil presse produksjonsteknikken i antall transistorer, og hvor mye "barnesykdommer" vil påvirke yields.

 

Det var nok helst implementasjon og hvordan de satt det på kortet de bidro med og gjorde. Altså er selve minnet SK Hynix fortsatt. Og nå vet alle hvordan AMD satt minnet på kortet.

Nettopp.

 

Ellers er satsingen på Zen og diverse server CPU ol. et tydelig tegn på at AMD ikke satser på GPU. De har ikke nok ressurser til å gjøre alt.

Dessverre kommer nok AMD til å slite mer fremover pga. mangeårig vanstyre og feilinvesteringer. Jeg snakker ikke bare om "Bulldozer", men prosjekter som K12(Ny ARM-kjerne) og "Skybridge"(x86/ARM kompatibilitet) som er enorme kostnader med begrenset markedspotensiale. I tillegg har APU-satsingen slukt alt for mye ressurser, i et marked med små marginer. AMD burde hatt hovedfokus på midrange desktop-/workstation-CPUer og GPUer, for det er der de kunne tjent gode penger. Vi burde hatt "Zen" for tre år siden, og det bekymrer meg at AMD ikke gjør som Nvidia og Intel som kontinuerlig utvikler to arkitekturer frem. Da Maxwell kom ut, var allerede Pascal i simulering og Volta på tegnebrettet. Hvis AMD skal fortsette med å vente årevis mellom hver større "utvikling" så vil de bare havne lenger og lenger bak.

 

Nvidia drar stadig lengre og lengre ifra. De siste tallene sier 80% Nvidia. 80% er ikke langt foran? Se og på økonomien. AMD går i minus hvert eneste kvartal. Budsjettet til Nvidia er så utrolig mye større enn det AMD sin GPU avdeling har.

Nvidias utviklingsbudsjett for GPUer er større enn AMDs fire satsningsområder til sammen, dessverre.

 

hvis man tenker fps/pris, er Nvidia og AMD omtrent akkuratt like gode. hvertfall amrikanske priser/sist jeg sjekket prisen i norge.

 

så ja, det er veldig gjevnt. det er mange som kjøper nvidia bare fordi noen har fortalt dem at nvidia er bra, uten å faktisk vite hva som er best eller ikke.

Situasjonen i dag er at i generell ytelse så har Nvidia like bra eller bedre ytelse på tvers av produktutvalget, og i tillegg har de da betydelig bedre ytelse per watt og andre fordeler som gjør at de fleste går i favør av det beste kjøpet. Eneste unntak er spillere som spiller hovedsaklig spill som favoriserer AMD-maskinvare. Skal AMD vinne tilbake markedsandeler så må de gi en bedre deal, enkelt og greit.
  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

 

 

   Er IOPS viktig så er det Intel sin 730 (tror det er riktig navn) som er det beste alternativet.

 

 

Er IOPS ved høy kø (QD) viktig, så er det Intel 750/P3700 som er det  beste.

 

Intel 730 er sata ssd. Den er bra, men ikkje den aller raskeste på 4k RR. Utrolig bra i raid-0.

Lenke til kommentar

Her er i alle fall litt fakta : 

Amd sin Roadmap for de neste årene : http://wccftech.com/amd-gpu-apu-roadmaps-2015-2020-emerge/

Å påstå at Amd ikke har ordentlig planlegging blir feil i mine øyne , det er en god del som foregår , det har også vært mye som har skjedd de siste årene, restrukturering av firmaet , bytte av ledelse og ikke minst en del endringer på Apu'er, Gpu'er og Cpu'er.

 

Men Amd er i en svært vanskelig situasjon , de kan ikke miste mer av Gpu markedet nå så vi vil trolig enten se en virkelig Nvidia knuser til neste generasjon (2016) , hvis ikke vil Nvidia styre skuta og gi oss priser som vi kan dåne ( besvime ) etter for å få grei ytelse.

Lenke til kommentar

Men Amd er i en svært vanskelig situasjon , de kan ikke miste mer av Gpu markedet nå så vi vil trolig enten se en virkelig Nvidia knuser til neste generasjon (2016) , hvis ikke vil Nvidia styre skuta og gi oss priser som vi kan dåne ( besvime ) etter for å få grei ytelse.

En av grunnene til at AMD sin GPU avdeling som du selv sier nå er i en svært vanskelig situasjon er at de har fokusert for mye (Hawaii og Fiji) på å lage "en virkelig Nvidia knuser". Slike prosjekter er vanligvis tapsprosjekter.

 

Hvis ting hadde gått annerledes i 2015, la oss si at Fury X hadde "knust" 980 Ti, så hadde ikke dette gjort nevneverdig med AMD sine markedsandeler eller fortjeneste. Det er veldig lite penger i å selge high-end gaming-kort med cutting-edge teknologi. Grunnen til at Nvidia faktisk gjør god butikk på high-end er at de selger mange Quadro og Tesla versjoner av samme brikke til 50.000 kroner+

 

Det AMD virkelig må gjøre er det det faktisk ser ut som at de gjør med Polaris, fokusere på en mainstream og low-end brikke først. Det er der det ligger store volum og god fortjeneste. AMD sine mainstram og low-end brikker har de siste årene vært resirkulerte brikker fra 2012 og 2013, disse kortene har bokstavelig talt fått "juling" av GM107/108.

 

Konsekvensen av AMD sine nye prioriteringer går dessverre ut over high-end versjonene av Polaris, men forhåpentligvis får de tilbake noen markedsandeler og kanskje til og med et kvartal med overskudd. Utfordringen er at konkurrenten på ingen måte sitter stille. Nvidia får også samme fordelen av å gå fra 28nm -> FinFET og det er også gjort ganske mange arkitekturelle forbedringer i Pascal. AMD planlegger 2-3 FinFET GPU brikker i 2016, Nvidia planlegger 5-6 brikker i samme perioden.

Lenke til kommentar

Som forventet! Polaris blir en sikker død for AMD av enkelte her, før vi vet hvem som vinner denne runden!

Hvordan klarer du å komme frem til det?

Jeg tror at Polaris blir en suksess for AMD siden de faktisk prioriterer de lønnsomme low-end brikkene først.

Lenke til kommentar

 

Men Amd er i en svært vanskelig situasjon , de kan ikke miste mer av Gpu markedet nå så vi vil trolig enten se en virkelig Nvidia knuser til neste generasjon (2016) , hvis ikke vil Nvidia styre skuta og gi oss priser som vi kan dåne ( besvime ) etter for å få grei ytelse.

En av grunnene til at AMD sin GPU avdeling som du selv sier nå er i en svært vanskelig situasjon er at de har fokusert for mye (Hawaii og Fiji) på å lage "en virkelig Nvidia knuser". Slike prosjekter er vanligvis tapsprosjekter.

 

Hvis ting hadde gått annerledes i 2015, la oss si at Fury X hadde "knust" 980 Ti, så hadde ikke dette gjort nevneverdig med AMD sine markedsandeler eller fortjeneste. Det er veldig lite penger i å selge high-end gaming-kort med cutting-edge teknologi. Grunnen til at Nvidia faktisk gjør god butikk på high-end er at de selger mange Quadro og Tesla versjoner av samme brikke til 50.000 kroner+

 

Det AMD virkelig må gjøre er det det faktisk ser ut som at de gjør med Polaris, fokusere på en mainstream og low-end brikke først. Det er der det ligger store volum og god fortjeneste. AMD sine mainstram og low-end brikker har de siste årene vært resirkulerte brikker fra 2012 og 2013, disse kortene har bokstavelig talt fått "juling" av GM107/108.

 

Konsekvensen av AMD sine nye prioriteringer går dessverre ut over high-end versjonene av Polaris, men forhåpentligvis får de tilbake noen markedsandeler og kanskje til og med et kvartal med overskudd. Utfordringen er at konkurrenten på ingen måte sitter stille. Nvidia får også samme fordelen av å gå fra 28nm -> FinFET og det er også gjort ganske mange arkitekturelle forbedringer i Pascal. AMD planlegger 2-3 FinFET GPU brikker i 2016, Nvidia planlegger 5-6 brikker i samme perioden.

 

 

 

Så AMD har vært nødt til å utvikle high-end for å kunne slå Nvidias GM107/108 i low-end, eller har de bare valgt feil kjerne å slippe i low-end, men har likevel hatt god nok kjerne til å slå GM107/108. Om det siste er tilfelle, og andre kjerner hadde vært valgt, ville da AMD vært uten noe high-end tilbud i 2015?

Endret av GoSuperb
Lenke til kommentar

 

 

Du tror ikke begge leire har svin på skogen da, selv om det kan virke overveiende sannsynlig at Nvidia har gjort disse sleipe grep.

 

Kanskje man bør se på begge parter, som "to gamle feite menn, som forsøker å framstå mest mulig sexy"?

 

 

 

 

 

Jeg vil ha en slik virtuell dukke som videon din viste, den som de filleristet og hvor håret ristet med naturlig.  :love:

Lenke til kommentar

Så AMD har vært nødt til å utvikle high-end for å kunne slå Nvidias GM107/108 i low-end, eller har de bare valgt feil kjerne å slippe i low-end, men har likevel hatt god nok kjerne til å slå GM107/108. Om det siste er tilfelle, og andre kjerner hadde vært valgt, ville da AMD vært uten noe high-end tilbud i 2015?

AMD har ikke hatt noen nye kjerner i low-end. De bruker kun gamle brikker fra 2012/2013.

 

Nvidia viste med Maxwell at de klarte å få god effektivitet ut av 28nm.

AMD hadde vært mye mere tjent med å lage en 3. generasjon GCN brikke i mainstream og low-end som kunne konkurrert med GM107/108 og GM206 en å bruke resursene på å lage Fiji.

 

Men, med Polaris ser det ut som at de gjør det rette, og faktisk fokuserer på low-end og mainstream først.

Lenke til kommentar
Gjest Slettet-RnjNn5NbHl

 

selv bryr jeg meg ikke en drit om hvor mye watt gpu-en bruker, jeg bryr meg kun om kraft og pris.

Hvis, kjøling blir et problem fordi effekten er for stor og lager for mye varme så bryr du deg nokk ganske så fort.

En reduksjon i standard effekt på normal clock gir mer potensiell kraft når komponenten overklokkes...

 

 

jeg bryr meg hvis gpu bruker veldig mye, men om den bruker det samme som 390x/furyx eller om den bruker 1/3 bryr jeg meg ikke noe om. elektrisitet er billig i norge uansett

Lenke til kommentar

 

Så AMD har vært nødt til å utvikle high-end for å kunne slå Nvidias GM107/108 i low-end, eller har de bare valgt feil kjerne å slippe i low-end, men har likevel hatt god nok kjerne til å slå GM107/108. Om det siste er tilfelle, og andre kjerner hadde vært valgt, ville da AMD vært uten noe high-end tilbud i 2015?

 

De lanserte Fury kortene sine, som er en ny arkitektur i forhold til de andre kortene de har på markedet (370/380/390 + Xer). Fury kortene konkurrerer bare i toppen mot GTX 980 Ti. GTX 980 er på nivå med R9 390X. Så da ville ikke AMD hatt et kort over R9 390X. Men de kunne til gjengjeld, istedenfor å rebrande kortene sin (hele 300 serien er jo rebrand og store deler av 200 serien), så kunne de lagd nye kort her. De kortene som selger mest fra Nvidia er GTX 970 og så GTX 960. Før det var det GTX 760. Det er ikke 980 Ti eller 980 som selger i bøtter og spann og gir Nvidia alle pengene. Som det blir sagt ovenfor. Selv om Fury hadde vært 5-10% raskere enn 980 Ti, hadde AMD tjent veldig lite på det fortsatt. Samtidig hadde Nvidia banket R9 380/R9 390 med sine 960/970 salg. Nvidia hadde ikke gått ut av 2015 med høyeste ytelse kronen, men de hadde hatt alle pengene. Dessuten med tanke på hvor mye rom for overklokking Nvidia har så kunne de bare lansert en nye versjon av 980 ti som de hadde fabrikkoverklokket mye, og matchet 5-10% bedre Fury på ytelse uansett.

Lenke til kommentar

 

 

Som vanlig er dette en "rant" fra en person som ikke kan noen ting og som har skivebom på hvert eneste punkt. Punkt etter punkt er enten "halvsannheter" eller rene løgner, noen eksempler:

- Nvidia har ikke nektet andre tilgang til PhysX, AMD/ATI ble tilbudt PhysX-lisens for flere år siden.

- Hvordan er det Nvidias feil om noen utviklere er dårlige til å bruke tessellation?

- At AMD er dårligere på tessellation er ikke Nvidia sin feil. Det er ganske hyklerisk når dere AMD-fanatikere i det ene øyeblikket skylder på Nvidia der et AMD-kort gjør det dårligere, men straks AMD gjør det "bedre" så er det fordi AMD har "bedre arkitektur for Direct3D 12" osv.

- Påstanden om at AMD bruker å komme etter Nvidia med "åpne" løsninger av Nvidias er løgn.

  • Liker 2
Lenke til kommentar

 

 

 

Som vanlig er dette en "rant" fra en person som ikke kan noen ting og som har skivebom på hvert eneste punkt. Punkt etter punkt er enten "halvsannheter" eller rene løgner, noen eksempler:

- Nvidia har ikke nektet andre tilgang til PhysX, AMD/ATI ble tilbudt PhysX-lisens for flere år siden.

- Hvordan er det Nvidias feil om noen utviklere er dårlige til å bruke tessellation?

- At AMD er dårligere på tessellation er ikke Nvidia sin feil. Det er ganske hyklerisk når dere AMD-fanatikere i det ene øyeblikket skylder på Nvidia der et AMD-kort gjør det dårligere, men straks AMD gjør det "bedre" så er det fordi AMD har "bedre arkitektur for Direct3D 12" osv.

- Påstanden om at AMD bruker å komme etter Nvidia med "åpne" løsninger av Nvidias er løgn.

 

Jævlig til kvining da. Ser ikke ut som du har sett videoen heller.

Kjenner ikke til alle detaljene men kanskje Nvidia krever en del penger for at andre skal få bruke deres PhysX lisens o.l?

Lenke til kommentar

 

 

 

 

Som vanlig er dette en "rant" fra en person som ikke kan noen ting og som har skivebom på hvert eneste punkt. Punkt etter punkt er enten "halvsannheter" eller rene løgner, noen eksempler:

- Nvidia har ikke nektet andre tilgang til PhysX, AMD/ATI ble tilbudt PhysX-lisens for flere år siden.

- Hvordan er det Nvidias feil om noen utviklere er dårlige til å bruke tessellation?

- At AMD er dårligere på tessellation er ikke Nvidia sin feil. Det er ganske hyklerisk når dere AMD-fanatikere i det ene øyeblikket skylder på Nvidia der et AMD-kort gjør det dårligere, men straks AMD gjør det "bedre" så er det fordi AMD har "bedre arkitektur for Direct3D 12" osv.

- Påstanden om at AMD bruker å komme etter Nvidia med "åpne" løsninger av Nvidias er løgn.

 

Jævlig til kvining da. Ser ikke ut som du har sett videoen heller.

Kjenner ikke til alle detaljene men kanskje Nvidia krever en del penger for at andre skal få bruke deres PhysX lisens o.l?

 

Hvis du leser hva jeg har referert til så ser du at jeg åpenbart har svart på påstandene i videoen.

Det er ganske typisk sånne som han i videoen å slenge rundt en rekke ord de ikke vet hva betyr.

CUDA-kompilatoren er åpen, men AMD/ATI vil ikke ta det i bruk. Mer lesestoff.

Endret av efikkan
  • Liker 1
Lenke til kommentar

CUDA-kompilatoren er åpen, men AMD/ATI vil ikke ta det i bruk. Mer lesestoff.

Vi er vel off topic nå, men handler jo fremdeles om AMD GPU'er...

AMD kommer faktisk til å delevis støtte CUDA iløpet av neste år. AMD sitt "Boltzmann-rammeverk" støtter å kompilere CUDA-kode, men de støtter ikke CUDA-kode som er kompilert, heller ikke PTX-kode.

 

CUDA har blitt en defacto standard for GPGPU-kode fokusert på ytelse.

  • Liker 1
Lenke til kommentar

 

 

 

 

 

Som vanlig er dette en "rant" fra en person som ikke kan noen ting og som har skivebom på hvert eneste punkt. Punkt etter punkt er enten "halvsannheter" eller rene løgner, noen eksempler:

- Nvidia har ikke nektet andre tilgang til PhysX, AMD/ATI ble tilbudt PhysX-lisens for flere år siden.

- Hvordan er det Nvidias feil om noen utviklere er dårlige til å bruke tessellation?

- At AMD er dårligere på tessellation er ikke Nvidia sin feil. Det er ganske hyklerisk når dere AMD-fanatikere i det ene øyeblikket skylder på Nvidia der et AMD-kort gjør det dårligere, men straks AMD gjør det "bedre" så er det fordi AMD har "bedre arkitektur for Direct3D 12" osv.

- Påstanden om at AMD bruker å komme etter Nvidia med "åpne" løsninger av Nvidias er løgn.

 

Jævlig til kvining da. Ser ikke ut som du har sett videoen heller.

Kjenner ikke til alle detaljene men kanskje Nvidia krever en del penger for at andre skal få bruke deres PhysX lisens o.l?

 

Hvis du leser hva jeg har referert til så ser du at jeg åpenbart har svart på påstandene i videoen.

Det er ganske typisk sånne som han i videoen å slenge rundt en rekke ord de ikke vet hva betyr.

CUDA-kompilatoren er åpen, men AMD/ATI vil ikke ta det i bruk. Mer lesestoff.

 

 

1 Du kommer jo selv med dine synspunkter som ikke akkurat viser alle sidene av saken.

Cuda kompilatoren er ikke åpen for Gpu'er , du er sikker klar over at det gjelder kun Cpu delen , sitert fra artikelen du linket til :

 

 

There's a catch, though. NVIDIA is only freeing CPU-based implementation of PhysX

 

Den andre artikkelen din er forresten datert fra 2008 og man kan jo spørre seg om det er snakk om samme situasjon i dag , en ting er sikkert Amd har i alle fall lagt til rette for at man enkelt kan portere Cuda kode over til OpenCl som igjen er en åpen standard.

 

Men la oss ta en litt dypere titt , det er tydelig at noe skurrer siden Amd tyr til å hjelpe utviklerne konvertere kildekoden fra Cuda til en mer åpen standard, dette ble kalt for Boltzman Inititative og ble lansert i November 2015 , så kan man spørre seg om det er Amd som skurrer eller Nvidia.

 

2 Du kommer også og sier at det er ren løgn at Amd kommer med åpne løsninger til Nvidia sine implementering, her er det nok du som lyver ( eller kommer med usannheter uten å vite det selv, stryk det du mener ikke passer ) :

 

*Cuda : Amd anbefaler OpenCl og har til og med kommet med verktøy (se link ovenfor) som hjelper å portere Cuda koden langt raskere. OpenCL ble lansert av the Khronos Group i slutten av 2008 ( 1.0 ) og er i dag kommet til revision 23 av OpenCL 2.1

 

*Amd kom også med sin implementering av Freesync som kan sammenlignes med Nvidia sin hardware baserte G-sync , Freesync er en åpen standard som betyr at hver og en som ønsker det kan implementere det i sine skjermkort , men selve kildekoden som Amd selv bruker er ikke tilgjengelig. Til sammenligning er G-sync en lukket standard som både krever et Nvidia skjermkort og en skjerm som støtter G-sync (da via et lite kretskort med G-sync chip ) og slik jeg forstår det også Nvidia sin software.

 

Finnes også flere ting man kan sette fingeren på hvor Amd faktisk har kommet med en åpen løsning , uansett så mener jeg at du tar grundig feil på disse punktene.

  • Liker 2
Lenke til kommentar

Cuda kompilatoren er ikke åpen for Gpu'er

Kompilator-infrastrukturen er åpen, så hvem som helst kan bruke dette for å kompilere CUDA til sin GPU-arkitektur.

 

Den andre artikkelen din er forresten datert fra 2008 og man kan jo spørre seg om det er snakk om samme situasjon i dag , en ting er sikkert Amd har i alle fall lagt til rette for at man enkelt kan portere Cuda kode over til OpenCl som igjen er en åpen standard.

Glem ikke at Nvidia er en av de store bidragsyterne bak OpenCL. Uansett ligger OpenCL årevis bak, og at noe CUDA-kode kan konverteres til OpenCL betyr ikke at det vil yte i nærheten av så bra. CUDA vil nok alltid ligge et godt stykke foran, og det er bare bra at AMD omsider ønsker å støtte noe av det. For den funksjonaliteten som AMD har støtte for så vil CUDA kompilert til GCN kunne yte ganske bra. Svært mye av CUDA er ganske generisk, det er ikke et lavnivå maskinkodespråk.

 

Amd kom også med sin implementering av Freesync som kan sammenlignes med Nvidia sin hardware baserte G-sync , Freesync er en åpen standard som betyr at hver og en som ønsker det kan implementere det i sine skjermkort , men selve kildekoden som Amd selv bruker er ikke tilgjengelig.

Her kommer du med feilopplysninger som jeg har korrigert deg på en rekke ganger. Det er AdaptiveSync som er den åpne standarden, "FreeSync" er en proprietær implementasjon og en merkevare fra AMD. G-Sync for laptoper er AdaptiveSync markedsført som G-Sync.

 

Finnes også flere ting man kan sette fingeren på hvor Amd faktisk har kommet med en åpen løsning , uansett så mener jeg at du tar grundig feil på disse punktene.

Du får mene hva du vil, jeg bare forholder meg til alle de fakta jeg har tilgang på.

 

En rekke av dere AMD-fans elsker å fremstille AMD som en forskjemper av åpne standarder og Nvidia som en stor stygg ulv. Verden er ikke så sort-hvitt som du forsøker å fremstille den. Men faktum er at både AMD, Intel og Nvidia har sine sine åpne initiativer og sine "mørke" sider. Både AMD og Nvidia er skyldige i å "gå til sengs" med enkelte spillutviklere og lage spesialpatcher, i første pulje med Direct3D 12-spill ser det ut som at AMD har jobbet hardest med dette. Vi må aldri glemme at alle tre er selskaper som skal tjene penger. Og når vi ser på det store bildet så kommer faktisk Nvidia noe bedre ut, med noen initiativer:

- Nvidia er hovedarkitekt bak OpenGL siden versjon 3, uten de hadde vi ikke hatt noe moderne OpenGL. Nvidia er også suverent raskest til å implementere OpenGL.

- Akselerert videoavspilling gjennom VDPAU, som også brukes av "åpne" drivere.

- Native GPU-API(i likhet med AMD), åpen driverinstallasjon og GPU-konfigurasjon for Linux.

- En åpen Tegra-driver.

- Åpen CUDA-kompilator.

- Deler av PhysX er tilgjengelig.

- GLVND så sent som i går.

og en del mer.

 

AMD har på sin side påstått at Mantle skulle være åpent, men det var dødt lenge før det kom så langt. FreeSync påstår de er åpent eller gratis (de klarer aldri å bestemme seg!), men det er AdaptiveSync som er åpent og er ikke laget av AMD. Så det beste eksempelet jeg kommer på er noen effekt-biblioteker som AMD har laget som er åpne, samt AMDs native API ADL.

Endret av efikkan
  • Liker 1
Lenke til kommentar

Snip

 

 

Når du begynner å ta i bruk begrep som Fanboy osv så er du langt ute på vidda , det er også svært sjeldent du dokumenterer påstandene dine og når du gjør kan man spørre seg hvor relevant de er (som er årsaken til at jeg påpekte 2008 dato stemplingen din på den ene linken din).

 

Og igjen, du har på ingen måte korrigert meg , les på nytt igjen det jeg skrev om Freesync , det er opp til enhver om de ønsker å bruke Amd sin Freesync eller om de bruker sin egen variant , så du kan spare deg at du har "korrigert" meg på dette flere ganger. Du tar rett og slett feil her og du vet godt at dagens implementering av Adaptive sync er trolig takket være at man fikk på plass en fungerende variant av Nvidia sin løsning via software og så via skjermprodusentenes implementering i nyere skjermer.

  • Liker 3
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...