Gå til innhold

RYKTE: Har AMD omsider fått has på varmeproblemene sine?


Anbefalte innlegg

Videoannonse
Annonse

 

AMD gjør jo veldig mye for å få mest mulig ut av det de har. Det er derfor de genererer så mye varme, de overklokker dem og tyner kortene for mest mulig ytelse. Nvidia derimot kommer med nye kort og ny arkitektur.

 

 

Skjønner ikke helt hva du mener med at AMD sine kort blir bedre over tid, og ikke Nvidia sine. Et 7970 har fortsatt samme ytelse som det hadde ved release. Driverstøtte for AMD er ikke akkurat lengre enn Nvidia. Det at AMD kommer med nye versjoner som er bedre hjelper ikke den som sitter med et 7970.

 

Og ja, AMD får mer ut av de gamle kortene sine, men de har ikke akkurat et problem med at de lager dem for gode. Nvidia sine kort har så mye thermal headroom og så mye å gå på i overklokking. Nvidia kunne lett bare solgt alle kort med 10% mer ytelse i 900 serien.

 

Istedenfor tilbyr Nvidia samme ytelse, men gir mye mer headroom til overslokking og klart stillere kort. Joda, AMD er gode til å få ut mye av arkitekturen sin, men hvem bryr seg? Nvidia lager bare ny arkitektur, og den er bedre. Hvis du skal makse ut ytelsen for arkitekturen, altså overklokke dem opp, så vinner Nvidia leeeeett mot AMD.

 

Så jeg forstår ikke helt livslengde argumentet? Hvordan er det bra at AMD tyner ut performance av noe som er gammelt? Og hva hjelper det folk som allerede har et eldre kort?

 

Angående det folk sier på forum om valg av kort. Du har nok rett i at mange har Nvidia bias, og overvurderer fordelene med Nvidia kort, og overdriver ulempene med AMD kort, så med 80/20 fordeling bør en virkelig passe på for dette. Spesielt slik det er nå. Når du velger GPU nå så må du jo se på aktuell modell, priser akkurat nå, hvilken nettbutikk de er i, frakt osv. Fordi Nvidia og AMD ligger generelt sett så godt som likt nå. Argumentet mitt står likevel fortsatt. Det er likt nå, men det var ikke likt før. Ikke ved 970 sin release. Da var Nvidia objektivt bedre. Derfor kjøpte mange Nvidia. Åpenbart sitter den oppfatningen igjen, ettersom folk fortsatt kjøper mest Nvidia akkurat nå, selv om det er så likt. Samtidig har du problemet: Det er likt. AMD klarte seg alltid fordi de hadde bedre price/performance, men det har de ikke lengre. Ikke at de har dårligere heller, men ved lik pris så velger de fleste Nvidia.

 

 

Jeg på den andre side skjønner ikke helt hva det er du ikke skjønner? Om du kjøper markedets beste skjermkort for å spille de nyeste spillene. Og så finner ut 3 måneder etterpå, at skjermkortet ikke lenger klarer å dra de nye spillene som har kommet de 3 siste månedene (overdrevent eksempel). Så hadde du jo blitt dritforbannet vel? Vi har alle en forventning om at skjermkortet vi kjøper skal kunne brukes en viss tid fremover.

 

Som jeg viste i mitt eksempel, så vil en som kjøpte et 7970GHz og en som kjøpte et GTX680 sånn ca. på likt. Ha fått veldig lik ytelse i spillene som var på markedet den gang, og som det var vanlig å teste skjermkort med. 2,5 år senere så driter folk i om de får 270 eller 290fps i Batman: Arkham Asylum. Så test-sidene bytter ut det, og de andre gamle spillene folk flest ikke bryr seg så mye om lenger, med nye spill. De gamle skjermkortene tas frem igjen, testes med nye drivere, evt. nytt OS, og kanskje til og med ny HW platform. Det som er litt spesielt med TPU er at de har relativt mange spill de tester med, og selv om jeg har klaget på at enkelte av titlene har vært med i testoppsettet, så får man likevel en grei ide om gjennomsnittlig ytelse.

 

Men det som har skjedd i spillverdenen de siste 2,5 årene der, var altså at de nye spillene i testoppsettet til TPU viste seg å kjøre vesentlig bedre på HD7970GHz enn på GTX680(770). Så hva har skjedd om ikke 7970GHz har "blitt raskere"? Kortet er selvfølgelig det samme, men dets relative ytelse har økt i forhold til GTX680. Ikke sant?

 

 

Så har vi nok en kanskje forum skapt myte om Maxwells fantastiske overklokkings egenskaper som du gjentar. Jeg er ikke verdensmester i prosentregning jeg heller. Men enkelte trenger virkelig å skjerpe seg (ikke du nødvendigvis). EVGAs referanse kjølte GTX970 booster helt opp til 1252MHz uten at du trenger å gjøre en dritt med det. (Og dukker forøvrig godt under dens egen "minimums" frekvens i Furmark.) Om du endrer offset, slik at det klarer å booste helt opp til 1450MHz (Som i mange spill ikke kommer til å være stabilt uten at viften står på 80%.) Hvor mye har du overklokket da? 15,81% faktisk..

 

Hvor mange R9 390 klarer å overklokkes til 1158MHz for å matche det? De aller fleste vil jeg tro.

 

Så er det strømforbruket da, R9 390 er faktisk ut av boksen 4,3% raskere enn et referanse GTX970 i 1080p. I 1440p endrer dette seg ytterligere til ~9%. Da synes jeg nesten R9 390 må få lov til å bruke 4-9% mer strøm også? I tillegg til de ~25W som går med ekstra til 390s 4GB med ekstra minne. Nå, selv om vi i rettferdighetens navn tar dette med i beregningen, så er GTX970 snillere i strømforbruket. Men det blir jo mindre og mindre av et fornuftig argument. Og jeg lurer ihvertfall på om ikke vi vil se historien repetere seg med 390 vs 970 som med 7970 vs 680. 390 har mye bredere minnebuss enn 970 (som også krever mer strøm). Minne mengden til 390 vil ikke nødvendigvis påvirke ytelsen i fps så mye. Men det kan jo ikke diskuteres hvilket kort som vil ha plass til flest teksturer og mesh'er i minnet. Jeg holder en finger på at også 390 vil holde seg bedre over tid enn GTX970.

 

En siste bonus kuriosa: Hvor fornøyd hadde du vært om du i mai 2013 hadde kjøpt et GTX780 for 650USD. Og naboen din kjøpte i september et R9 280X for 300USD. Og du så i januar 2016 oppdaget at skjermkortet ditt i dagens spill er "hele" 13% raskere i 1080p, og "fantastiske" 8,7% raskere i 1440p? 116,7% dyrere for 8,7 - 13% bedre ytelse..

 

Synes du virkelig at disse momentene er ubetydelige?

  • Liker 2
Lenke til kommentar

Om man ser på det totale markedet til Amd så kan man ikke kun se på skjermkort , men også på Apu'ene.

 

Per dags dato ligger vel Amd nede på 15 til 25% market share på dedikerte skjermkort der Nvidia har tatt opp mot 75 tiøl 81% av kaka.

På konsoll markedet har Amd hele 100% da samtlige Xbox one og PS4 benytter seg av Amd sin APU , dette utgjør i skrivende stund over 35 Millioner PS4 og en plass mellom 15 til 25 millioner Xbox One.

 

Salget av skjermkort har faktisk gått ganske kraftig ned , ligger vel en plass på mellom 30 til 70 millioner enheter i året ( http://www.kitguru.net/components/graphic-cards/anton-shilov/sales-of-desktop-graphics-cards-hit-10-year-low-in-q2-2015/ ) Nvidia har tatt en god del av kaka og med sitt 81 % ledelse betyr det jo at selskapet greier 24.3 Millioner enheter eller  opp til 56.7 Millioner enheter i løpet av året mot Amd sine 5.7 til 23.3 Millioner enhter.

 

Men tilbake til tråden.

 

Jeg føler selv at det blir litt naivt å ta for gitt at Nvdia faktisk greier hver enkelt gang å lage en bedre arkitektur enn Amd , det er allerede gjort en del blundere i det som finnes og man bør ikke ta for gitt at Nvidia vil alltids være best. Jeg har enda ikke sett neste generasjon av Nvidia kort kontra Amd sine kort , så inntil da bør man ikke ta det for gitt at en av aktørene vil være best.

Men som HKS sa over så sitter AMD kun igjen med brødsmuler på APUene.... Hjelper lite å selge mange enheter om 100 AMD APUer tilsvarer fortjenesten Nvidia har på et GTX 970. Jeg vet ikke eksakte tall, men hvis de faktisk hadde tjent greit med det, så hadde ikke underskuddet deres økt år for år.

 

Jeg tror vel ingen har påstått at Nvidia har hatt bedre arkitektur enn AMD bortsett fra i det siste? Isåfall må det være fanboys, fordi AMD og Nvidia har jo alltid ligget ganske likt på det meste her. Som det var sagt tidligere så var jo 7970 GHz edition raskere enn 680. Så kun 2 generasjoner siden var AMD øverst på ytelsestronen.

 

Med Maxwell derimot så virker det som om Nvidia klart har en fordel over AMD. Samtidig har jo AMD kommet med Fury som gjør det svært godt. Hadde hele 300-serien vært på fury nivå hadde jo ting vært strålende for Nvidia. Problemet er at de ikke har denne nye gode arkitekturen på kortene som faktisk selger. Fury har god ytelse, den bruker ikke mye strøm, VRAM er ikke et reelt problem til spill i dag, og den har nok mye å hente på overklokking også. Hjelper derimot lite når nesten alle kjøper et 300-serie kort, og ikke Fury kort.

 

Er det dessuten naivt å tro? At nvidia vil få bedre arkitekturer enn AMD fremover? Med 700 og 900 serien så brukte AMD lengre tid på å komme med utfordrer til Nvidias toppmodeller. De klarer bare å komme med ny arkitektur spesielt til toppkortene i denne generasjonen. Tapene blir større, midler til forskning, ansatte osv blir mindre. Nvidia sitter på langt større ressurser. Er det naivt å tro at de får til noe bedre enn konkurrenten som har langt færre ressurser?

 

Ellers er det et inntrykk jeg får etter å ha lest denne tråden: AMD har en "mesterplan" og kommer til å gruse Nvidia, for ikke å snakke om at de allerede gjør det med 88% markedsandel i gaming segmentet, påstått. (som er feil). Jeg har enda til gode å se noen i diskusjonene til tek si at Nvidia sine kort garantert vil blir bedre enn AMD sine. Mange som antar de vil bli bedre, meg selv inkludert. Det jeg derimot har sett er folk som er skråsikre på at AMD vil være best. Massevis av folk som snakker om hvor AMD blir i DX12 osv.

 

Det er godt mulig at det er et flertall av folk som mener at Nvidia kort blir best neste generasjon. Likevel, folk som sier at den ene eller den andre vil bli best har jo ingen troverdighet uansett hva de sier. Som du sier, inntil vi har sett neste generasjon kan man ikke kåre en vinner. 

 

Likevel, det er en stor forskjell på folk som antar hva som kommer til å være best, og folk som sier de vet hva som er best. Det mest logiske å anta er jo at Nvidia kommer med den beste arkitekturen, og den beste ytelsen. Eller om det blir likt, så kommer Nvidia sine toppkort med godt forsprang på AMD sine. Samtidig, vi har elementet med fabrikker her. Både selve chipen fra Samsnug/TSCM der vi ikke vet hvem som blir først, og hvilken kapasitet og feilrate de har. Samtidig har du HBM2 minne fra Samsung/SK Hynix for toppmodeller.

 

Du har jo alltids muligheten for at AMD finner på noe smart. Penger og folk er ikke en garanti for best resultat. Alle Nvidias ansatte kan være fastlåst på noe, som en i AMD får en lys ide om osv. Likevel, med så mye penger og så mange ansatte involvert så minskes sannsynligheten for dette ganske mye.  Nvidia har og større mulighet til å ta seg råd til de flinkeste.

 

Men du har helt rett, en kan ikke ta det for gitt at Nvidia alltid er best. Mye kan skje. Når jeg diskuterer ting som er usikre som dette, der ingen vet, så liker jeg å diskutere i sannsynligheter. Det å si at noe er slik eller slik 100% går åpenbart ikke. Du kan ikke si AMD vil være bedre neste gen, at nvidia er bedre neste gen, at AMD er bedre på DX12. Selv tror jeg det er lite sannsynlig at AMD kommer til å klare å kravle seg opp av gropen de har havnet i i den tilstanden de er i nå. Jeg så de nylig lisensierte teknologi til et kinesisk konsortium. Hvis de gjør det, så vil det jo sånn sett være AMD, og det kan absolutt fungere. Kina ønsker sterkt å kunne utvikle slik teknologi selv, basert på nasjonale interesser. Se HiSilicon som et annet eksempel. Jeg ser det derimot usannsynlig at de skal kunne snu i pluss og vokse seg store igjen. Det er og grenser for hvor lenge et selskap kan tape penger kvartal etter kvartal, mer og mer....

  • Liker 1
Lenke til kommentar

 

Jeg på den andre side skjønner ikke helt hva det er du ikke skjønner? Om du kjøper markedets beste skjermkort for å spille de nyeste spillene. Og så finner ut 3 måneder etterpå, at skjermkortet ikke lenger klarer å dra de nye spillene som har kommet de 3 siste månedene (overdrevent eksempel). Så hadde du jo blitt dritforbannet vel? Vi har alle en forventning om at skjermkortet vi kjøper skal kunne brukes en viss tid fremover.

 

Som jeg viste i mitt eksempel, så vil en som kjøpte et 7970GHz og en som kjøpte et GTX680 sånn ca. på likt. Ha fått veldig lik ytelse i spillene som var på markedet den gang, og som det var vanlig å teste skjermkort med. 2,5 år senere så driter folk i om de får 270 eller 290fps i Batman: Arkham Asylum. Så test-sidene bytter ut det, og de andre gamle spillene folk flest ikke bryr seg så mye om lenger, med nye spill. De gamle skjermkortene tas frem igjen, testes med nye drivere, evt. nytt OS, og kanskje til og med ny HW platform. Det som er litt spesielt med TPU er at de har relativt mange spill de tester med, og selv om jeg har klaget på at enkelte av titlene har vært med i testoppsettet, så får man likevel en grei ide om gjennomsnittlig ytelse.

 

Men det som har skjedd i spillverdenen de siste 2,5 årene der, var altså at de nye spillene i testoppsettet til TPU viste seg å kjøre vesentlig bedre på HD7970GHz enn på GTX680(770). Så hva har skjedd om ikke 7970GHz har "blitt raskere"? Kortet er selvfølgelig det samme, men dets relative ytelse har økt i forhold til GTX680. Ikke sant?

 

 

Så har vi nok en kanskje forum skapt myte om Maxwells fantastiske overklokkings egenskaper som du gjentar. Jeg er ikke verdensmester i prosentregning jeg heller. Men enkelte trenger virkelig å skjerpe seg (ikke du nødvendigvis). EVGAs referanse kjølte GTX970 booster helt opp til 1252MHz uten at du trenger å gjøre en dritt med det. (Og dukker forøvrig godt under dens egen "minimums" frekvens i Furmark.) Om du endrer offset, slik at det klarer å booste helt opp til 1450MHz (Som i mange spill ikke kommer til å være stabilt uten at viften står på 80%.) Hvor mye har du overklokket da? 15,81% faktisk..

 

Hvor mange R9 390 klarer å overklokkes til 1158MHz for å matche det? De aller fleste vil jeg tro.

 

Så er det strømforbruket da, R9 390 er faktisk ut av boksen 4,3% raskere enn et referanse GTX970 i 1080p. I 1440p endrer dette seg ytterligere til ~9%. Da synes jeg nesten R9 390 må få lov til å bruke 4-9% mer strøm også? I tillegg til de ~25W som går med ekstra til 390s 4GB med ekstra minne. Nå, selv om vi i rettferdighetens navn tar dette med i beregningen, så er GTX970 snillere i strømforbruket. Men det blir jo mindre og mindre av et fornuftig argument. Og jeg lurer ihvertfall på om ikke vi vil se historien repetere seg med 390 vs 970 som med 7970 vs 680. 390 har mye bredere minnebuss enn 970 (som også krever mer strøm). Minne mengden til 390 vil ikke nødvendigvis påvirke ytelsen i fps så mye. Men det kan jo ikke diskuteres hvilket kort som vil ha plass til flest teksturer og mesh'er i minnet. Jeg holder en finger på at også 390 vil holde seg bedre over tid enn GTX970.

 

En siste bonus kuriosa: Hvor fornøyd hadde du vært om du i mai 2013 hadde kjøpt et GTX780 for 650USD. Og naboen din kjøpte i september et R9 280X for 300USD. Og du så i januar 2016 oppdaget at skjermkortet ditt i dagens spill er "hele" 13% raskere i 1080p, og "fantastiske" 8,7% raskere i 1440p? 116,7% dyrere for 8,7 - 13% bedre ytelse..

 

Synes du virkelig at disse momentene er ubetydelige?

 

La oss ta strømforbruk. R9 290 bruker jo nesten dobbelt så mye som GTX 970. Hva mener du med 4-9% mer strøm?

 

power_maximum.gif

 

 

Når du ser på ytelsen, så må du og se på spillene, ellers blir det meningsløst. Ikke spør meg hvorfor, men techpowerup endret benchmarkene sine til å favorisere AMD mer.

https://www.techpowerup.com/reviews/MSI/GTX_970_Gaming/27.html

Dette er fra de gamle benchmarkene. SAmmenligner du 290X og 390 her og bruker det som basis i sammenligning er 970 bedre i 1080p med en liten margin. 390 er bedre i 1440p med en liten margin. Joda, techpowerup endret spillene til å gi en grei favorisering mot AMD, men det gjør ikke GTX 970 til et svakere kort. Samtidig koster billigste GTX 970 200 kr mindre enn billigste R9 390. Som gjør R9 390 ~6% dyrere. Det vil jo ikke være verdt det i et price/performance perspektiv.

 

Forskjellene er derimot små, så en må se litt på priser og tilgjengelighet her. Ingen klar vinner. Med mindre man har lite kabinett. Det å dytte ut 100W-150W mer pga R9 390 er ikke verdt det, når price/performance også er bedre for 970 slik som det er nå.

 

 

Ellers så ligger GTX 770 nesten helt likt med 7970 GHz edition i 1080p og taper ikke uventet med litt margin i 1440p. Jeg ser ikke hvordan 7970 GHz er bedre i benchmarks i dag enn det GTX 770 er? Jeg ser på din kilde, og de ligger likt. Hvis du mener 7970 over tid har fått bedre drivere enn 770 og nå er bedre enn den, så kom gjerne med kilder som viser det.

 

GTX 780 kostet 500 USD ved launch, 780 Ti kostet 700 USD ved launch.

http://www.anandtech.com/show/7465/nvidia-announces-geforce-gtx-780770-price-cuts-gtx-780-ti-launch-date

Hvorfor skulle noen kjøpt 780 til 650 USD? De må isåfall blitt lurt. Så regner med du mener 780 Ti?

I så fall, hva er poenget med argumentet ditt? 780 Ti var aldri et value-kort. 780 Ti ble erstattet av 970, til litt over 300 USD, som R9 280X. Bare med klart bedre ytelse.

 

780 ti ble ellers lanser i november, så om du følte det var et dårlig kjøp, så skulle du kjøpt R9 280X. Som jeg har sagt tidligere så har jeg et R9 280X i hus, og enhver som hadde spurt meg om en GPU da hadde fått: kjøp R9 280X som svar. Hvorfor? Fordi den var bedre enn noe Nvidia kunne komme med til den prisen når den kom ut. Og så? Hva beviser dette? Jeg ser heller ikke hvordan relativ ytelse til 780 Ti eller 780 er blitt bedre. Alt jeg ser er en nettside som har skiftet ut benchmarks til noen som favoriserer AMD mer. Sikker på at du ikke forveksler dette med at AMD liksom får bedre ytelse over tid i forhold til Nvidia?

 

http://www.techspot.com/review/885-nvidia-geforce-gtx-970-gtx-980/page8.html

Overklokking av et allerede bra overklokka Gigabyte kort gir her 19% mer ytelse for GTX 970.

 

Og joda, du kan overklokke 300 serier kort greit og. Selv om det ikke er på nivå med 900 serien. Og åpenbart har det blitt bedre over tid i begynnelsen så jeg mange reviews som ikke gadd å ta med OC i testene sine engang. Likevel, OC på et slik kort krever også hørselsvern. OC på et 900 kort bringer bare varmenivået nær AMD sine kort. Og støynivå som er likt.

 

Så til spørsmålet ditt til slutt: Hvilke momenter? Jeg har enda ikke sett bevis for noe av det du sier. Før jeg kan avgjøre om det er betydelig eller ikke, så må jeg nesten vite om det er sant eller ikke.

 

Jeg ser ingenting som tyder på at AMD får relativt bedre ytelse over tid kontra Nvidia. Alt jeg ser er spillene som testet er endret til å ha et AMD bias. De har tom testet nåværende gen på begge testene, så det er ekstremt lett å bevise. Trist da TPU hadde en god liste før...

 

Ytelse/pris for GTX 970 er fortsatt den dag i dag ekstremt konkurransedyktig.

 

Strømforbruk for Nvidia ligger i noen tilfeller på nesten halvparten av AMD, stor forskjell.

 

780/780 Ti sammenligningen forstår jeg ikke. Selvfølgelig er 80 og 80 Ti dårlige budsjettvalg. De har alltid vært. Hvorfor sammenligne 500 USD og 700 USD kort med 300 USD kort? Når Nvidia selv faktisk erstattet disse kortene med et 300 USD kort selv? 

Lenke til kommentar

Nvidia klarer jo ikke å få kortene sine til å drive mer enn fire skjermer, og jeg har seks. Så da er AMD eneste alternativ. DX12 ytelsen til AMD er også imponerende, har nVidia sovet i timen?

 

 Nvidia kan nok få til 6 skjermer om de vil :)

 

 

Vi har ellers enda ingen klare tester for DX12, så det er litt tidlig å si noe om dette enda.

Endret av TKongen
  • Liker 1
Lenke til kommentar

Nvidia klarer jo ikke å få kortene sine til å drive mer enn fire skjermer, og jeg har seks. Så da er AMD eneste alternativ. DX12 ytelsen til AMD er også imponerende, har nVidia sovet i timen?

 

Det ser ut som at Nvidia har kommet seg i Ashes of the Singularity ihvertfall. Man skal nok også være forsiktig med å ikke forvirre skuffende DX11 ytelse med imponerende DX12 ytelse. 

 

http://www.hardocp.com/article/2016/04/19/dx11_vs_dx12_intel_cpu_scaling_gaming_framerate/5#.Vx6tN_l97mF

Lenke til kommentar

 

Nvidia klarer jo ikke å få kortene sine til å drive mer enn fire skjermer, og jeg har seks. Så da er AMD eneste alternativ. DX12 ytelsen til AMD er også imponerende, har nVidia sovet i timen?

 

 Nvidia kan nok få til 6 skjermer om de vil :)

 

 

Vi har ellers enda ingen klare tester for DX12, så det er litt tidlig å si noe om dette enda.

 

Vel, da er de idioter som "ikke vil". 

 

Er jo DX12 spill ute, Quantum Break f.eks:

Lenke til kommentar

 

La oss ta strømforbruk. R9 290 bruker jo nesten dobbelt så mye som GTX 970. Hva mener du med 4-9% mer strøm?

 

 

power_maximum.gif

 

 

Når du ser på ytelsen, så må du og se på spillene, ellers blir det meningsløst. Ikke spør meg hvorfor, men techpowerup endret benchmarkene sine til å favorisere AMD mer.

https://www.techpowerup.com/reviews/MSI/GTX_970_Gaming/27.html

Dette er fra de gamle benchmarkene. SAmmenligner du 290X og 390 her og bruker det som basis i sammenligning er 970 bedre i 1080p med en liten margin. 390 er bedre i 1440p med en liten margin. Joda, techpowerup endret spillene til å gi en grei favorisering mot AMD, men det gjør ikke GTX 970 til et svakere kort. Samtidig koster billigste GTX 970 200 kr mindre enn billigste R9 390. Som gjør R9 390 ~6% dyrere. Det vil jo ikke være verdt det i et price/performance perspektiv.

 

Forskjellene er derimot små, så en må se litt på priser og tilgjengelighet her. Ingen klar vinner. Med mindre man har lite kabinett. Det å dytte ut 100W-150W mer pga R9 390 er ikke verdt det, når price/performance også er bedre for 970 slik som det er nå.

 

 

Ellers så ligger GTX 770 nesten helt likt med 7970 GHz edition i 1080p og taper ikke uventet med litt margin i 1440p. Jeg ser ikke hvordan 7970 GHz er bedre i benchmarks i dag enn det GTX 770 er? Jeg ser på din kilde, og de ligger likt. Hvis du mener 7970 over tid har fått bedre drivere enn 770 og nå er bedre enn den, så kom gjerne med kilder som viser det.

 

GTX 780 kostet 500 USD ved launch, 780 Ti kostet 700 USD ved launch.

http://www.anandtech.com/show/7465/nvidia-announces-geforce-gtx-780770-price-cuts-gtx-780-ti-launch-date

Hvorfor skulle noen kjøpt 780 til 650 USD? De må isåfall blitt lurt. Så regner med du mener 780 Ti?

I så fall, hva er poenget med argumentet ditt? 780 Ti var aldri et value-kort. 780 Ti ble erstattet av 970, til litt over 300 USD, som R9 280X. Bare med klart bedre ytelse.

 

780 ti ble ellers lanser i november, så om du følte det var et dårlig kjøp, så skulle du kjøpt R9 280X. Som jeg har sagt tidligere så har jeg et R9 280X i hus, og enhver som hadde spurt meg om en GPU da hadde fått: kjøp R9 280X som svar. Hvorfor? Fordi den var bedre enn noe Nvidia kunne komme med til den prisen når den kom ut. Og så? Hva beviser dette? Jeg ser heller ikke hvordan relativ ytelse til 780 Ti eller 780 er blitt bedre. Alt jeg ser er en nettside som har skiftet ut benchmarks til noen som favoriserer AMD mer. Sikker på at du ikke forveksler dette med at AMD liksom får bedre ytelse over tid i forhold til Nvidia?

 

http://www.techspot.com/review/885-nvidia-geforce-gtx-970-gtx-980/page8.html

Overklokking av et allerede bra overklokka Gigabyte kort gir her 19% mer ytelse for GTX 970.

 

Og joda, du kan overklokke 300 serier kort greit og. Selv om det ikke er på nivå med 900 serien. Og åpenbart har det blitt bedre over tid i begynnelsen så jeg mange reviews som ikke gadd å ta med OC i testene sine engang. Likevel, OC på et slik kort krever også hørselsvern. OC på et 900 kort bringer bare varmenivået nær AMD sine kort. Og støynivå som er likt.

 

Så til spørsmålet ditt til slutt: Hvilke momenter? Jeg har enda ikke sett bevis for noe av det du sier. Før jeg kan avgjøre om det er betydelig eller ikke, så må jeg nesten vite om det er sant eller ikke.

 

Jeg ser ingenting som tyder på at AMD får relativt bedre ytelse over tid kontra Nvidia. Alt jeg ser er spillene som testet er endret til å ha et AMD bias. De har tom testet nåværende gen på begge testene, så det er ekstremt lett å bevise. Trist da TPU hadde en god liste før...

 

Ytelse/pris for GTX 970 er fortsatt den dag i dag ekstremt konkurransedyktig.

 

Strømforbruk for Nvidia ligger i noen tilfeller på nesten halvparten av AMD, stor forskjell.

 

780/780 Ti sammenligningen forstår jeg ikke. Selvfølgelig er 80 og 80 Ti dårlige budsjettvalg. De har alltid vært. Hvorfor sammenligne 500 USD og 700 USD kort med 300 USD kort? Når Nvidia selv faktisk erstattet disse kortene med et 300 USD kort selv? 

 

 

Først strømforbruk igjen. For det første så bruker du "maximum" grafen, og den sier noe om effektbruk kun når du kjører Furmark, det blir jo fullstendig feil, og ikke minst uinteressant. Du må lese forklaringen over grafene. Og om du også kikker litt nøyere, så finner du i grafen din også et Colorful GTX970 "turbo" som trekker 270W i Furmark, altså bare 50W mindre enn R9 290 fra den grafen. "Peak" er Metro spillet, og angir rett og slett bare det høyeste trekket i løpet av benchmarken. Igjen ganske uinteressant om kortet trekker 253W i ett sekund, om average gjennom hele spilløkten er 231W. Det er "Average" strøm trekk vi skal kikke på. Så hvis du ser her, så ser du at et R9 390 som er 1% overklokket, i gjennomsnitt trekker 68W mer enn et referanse GTX970. Når vi hører folk snakke om ytelse per Watt, så må vi vel nesten få lov til å anvende det prinsippet ikke bare når det gjelder Nvidia vel? Så jeg sier at; om skjermkortet yter 4-9% bedre, så må det vel også få "lov" til å trekke 4-9% mere strøm? Det er egentlig ganske rundhåndet av meg, siden vi vet at de siste wattene man gir et skjermkort gir mindre og mindre ytelse per Watt. Om vi så tar og trekker fra den strømmen de ekstra 4GB med minne trekker, ~25W har jeg lest. Så ser vi at forskjellen ikke egentlig er så vannvittig stor i forhold til ytelse ihvertfall. Men, selv om det ikke er rettferdig å "straffe" 390 for å ha mer VRAM, så er riktignok de ~25 Watte'ene der fremdeles. Og de må finne en vei ut av kabinettet. Kanskje innløpsviften(e) må spinne på 800rpm i stedet for 700rpm. Men det er i stor grad den største ulempen med hele Watt diskusjonen. 50W ekstra begynner først å bli plagsomt i 3 - 4SLI/CFX.

 

Når det gjelder hvilke spill som brukes til benchmarks, så sier det seg selv at vi ikke kan teste GTX980ti med "Loderunner". Spillene må være kurante, det må være spill folk faktisk spiller, og de skal selvfølgelig ikke favorisere den ene arkitekturen mer enn den andre. Et spill TPU har droppet er ProjectCARS som ikke bare hadde en egen AA metode designet for Nvidia, men som de utrolig nok også brukte under benchmark, og det slo vannvittig ut i Nvidias favør. Så du ser, det var ikke snakk om å bytte ut til noe som favoriserte AMD. Det var omvendt. Wolfenstein er også droppet, Nvidias skjermkort yter utrolig mye bedre enn AMDs tidligere generasjoner i det. AMDs svake OpenGL ytelse har vært kjent lenge, så selv mener jeg de kanskje burde beholdt Wolfenstein. Om ikke for annet enn å gi AMD et spark i baken i forhold til OpenGL ytelse. Men på den andre siden, så er ikke OpenGL spill spesielt aktuelt for folk med Windows. Så å beholde en benchmark som forskyver resultatet for de 95% andre spillene, er kanskje heller ikke riktig. Men som jeg sa; TPU tester mange nok spill til at gjennomsnittet ikke flytter seg så voldsomt basert på en eller to titler. Men poenget mitt har uansett vært at det ser ut som at AMD yter bedre i nyere spill. Og de har jo ikke byttet ut "Nvidia titler" med gamle "AMD titler", har de vel? Om AMD yter bedre i nye titler, så er det fordi de er nye, ikke designet for AMD. Med mindre du regner med porteringer fra PS4 og XBOne. Som absolutt er designet for AMD hardware. ;) Skal vi laste AMD for at spillprodusentene prioriterer konsoller?

 

Når det gjelder 7970/280X vs. 680/770. Ja, ytelsen var nesten identisk. Så gikk det 2,5 år. Og slik er fasit i dag. 770 gir 81% av ytelsen til et 380X Strix i 1080p. Mens et 280X gir 97% av ytelsen til 380X Strix. Hvis du tar 770s 81% og plusser på 19,75%, så ender du opp på 280Xs 97%. 280X er altså 19,75% raskere enn 770. I 1440p er 280X 23,75% raskere enn GTX770. Du ser datoen for testene på toppen av hver side..

 

780ti kostet 700USD ved launch. Og dyttet dermed prisen på 780 ned fra 650USD til 500USD. Ihvertfall i henhold til Wikipedia som bruker bit-tech som kilde. Hvis du ser på lanseringsdatoer, så ser du da at jeg ikke har halt eksempelet mitt ut av ræva.

 

Resten av innlegget ditt henger slik jeg ser det på at du har en konspirasjonsteori om at TPU plutselig har byttet ut til bare AMD vennlige titler. I så fall er det du som har noe å bevise, ikke jeg..

 

Edit:

 

Glemte å kommentere linken din til overklokket resultat for GTX970. Jeg foreslår at du kikker litt nøyere på den artikkelen selv. Forfatteren påstår at han har overklokket GTX970 til 1318MHz. Det må jo i så fall være historiens dårligste overklokking av et GTX970? Jeg tipper han har økt "typical" fra 1178MHz til 1318MHz, og så har kortet boostet godt over det, uten at han har fått det med seg.

 

Poenget mitt, som du kanskje ikke tok. Er at Nvidia "lyver" når de sier at kortet demmes kjører på 1050MHz, men "typisk" booster til 1178MHz dersom strøm og temperatur tillater det. Som jeg viste i denne linken, så kjører et referanse GTX970 helt opp til 1252MHz, og helt ned til 910MHz (i Furmark).

 

AMD har også dynamisk frekvens. Jeg har sett det bli påstått at AMDs R9 390 er helt nede i 800MHz under load dersom det blir for varmt eller trekker for mye strøm (som ofte nok er den samme tingen). Men AMD setter altså sin øvre grense i stein (1000MHz for referanse). Så om vi skal sammenlikne likt, så må vi også vite den samme informasjonen for begge parter. Og det gjør vi altså ikke. Linken jeg ga fra Anandtech er så nærme vi egentlig kommer. I det vi da i det minste har en slags øvre grense for Nvidia kortet også, siden de aldri så det over 1252MHz. Og jeg mener altså at det uansett er dette tallet som er det viktigste når det kommer til overklokking. Hvem bryr seg om kortene lunter på 900MHz i noen tilfeller? Alt vi trenger bry oss om, er hvordan denne frekvensen omsettes til spillopplevelse. Om det er riktig at R9 390 kjører ned til 800MHz i heavy load scenarioer. Så kunne AMD ha oppgitt det som 390'ens frekvens, "men det booster til 1000MHz under riktige forhold." Om vi da skulle oppgitt overklokkingen i prosent slik som det gjøres på Nvidias kort. Så er et R9 390 som booster til 1200MHz faktisk 50% overklokket. Skjønner du problemet?

 

Jeg skrev for en stund tilbake her på forumet en "analyse" av overklokking av 970 vs 390. Jeg skal se om jeg finner den igjen heller..

Endret av Gabri3L
Lenke til kommentar

som flere påpeker er NVIDIA's kort bedre en AMD's målt i pref/watt osv....

 

Jeg var NVIDIA fan på xxxx seriene.. (før de gikk over til 3 tall.)

Men så begynte jeg og følge utvikling osv.

 

Nvidia:

G-Sync (låst til eget forbruk)

Quda (låst til eget forbruk)

osv osv.. lista er LANG.. (selv om quda blir åpnet opp litt nå siste stunden)

Stort sett alt krever lisensiering eller er 100% låst

 

AMD:

Freesync (gratis for alle som ønsker)

mantel SDK (Gratis for alle og bruke også mulig for Nvidia og bruke gratis, med noen få linjer i driverene som AMD slapp)

generelt alt AMD utvikler blir sluppet gratis for andre produsenters bruk, (noen få ting krever lisensiering som cpu/gpu arkitekter.)

 

 

så skal man følge utvikling og ønske om konkurranse er det bare AMD som spiller med åpene kort på GPU siden.

  • Liker 2
Lenke til kommentar

Tkongen : Inntjeningen til Amd er trolig omtrent 100 dollar per PS4 som selges :http://www.theinquirer.net/inquirer/news/2308282/amd-makes-more-profit-than-sony-on-the-ps4

 

Med 30 til 40 millioner enheter PS4 så kan man jo gange dette med 100 og man sitter igjen med 3000.000.000 dollar eller hele 30 Milliarder Norske kroner om jeg ikke tar helt feil og det kun ved salget av PS4, tar man med Xbox One som jeg vil anta Amd også tjener greit på så blir det en del penger.

 

Hvor du personlig tar "brødsmuler fra" vet jeg ikke , men om du har bedre kilder enn det jeg har på inntjeningen per PS4 / Xbox one som blir solgt så kom gjerne med dem.

 

Det er også viktig å huske på at produksjonen av brikkene til Amd koster penger og bruttoen de sitter igjen med kan være lavere, det er estimert å være 15 $ som er fortjenesten sin slik jeg forstår det. Men 15 dollar per brikke etter at Amd har betalt for kostnadene er ikke småpenger for et selskap som AMD som trenger sårt pengene og vi må huske på all gjelden selskapet har.

 

Trolig så tror jeg at oppfattningen av at dette er "lommerusk" er Nvidia sine uttalelser om saken, som er både feilaktige og ikke minst trolig en del av PR kampanjen til Nvidia for å gi PS4 / Xbox One mindre valør enn de virkelig har.

Jeg tror faktisk at mange av de som sitter med en PS4 / Xbox one ikke engang er klar over at det er en Amd Apu der inne og det kan godt være at den stasjonære pcen er Nvidia fordi det er så bra...

 

Uansett så tror jeg en del feilinformasjon er ute og går som man bør se tettere inn i sømmene og mye tyder på at DX12 kan være en akilleshæl for Nvidia om arkitekturen ikke endres på 10xx kortene.

Lenke til kommentar

 

 

Det er veldig tydelig at AMD har hatt en annen fokus i det siste, og at det kommer til å betale seg nå! Du kan ikke nekte for at spillemarkedet havner i AMD sin favør fremover!

 

Hvorfor kommer det til å betale seg nå?

 

Hvorfor havner spillmarkedet i AMD sin favør? Jeg ser ingen grunner til dette.

 

Konsoll er mye større enn PC! PC-markedet er bare på 12%.... Nvidia har bare PC-markedet, og der må dem konkurrere mot AMD og intel! Syns du at 700-serien til nvidia er så mye bedre enn 200-serien til AMD? 

Hvorfor bruker du så mye utropstegn! Hele tiden?!

Lenke til kommentar

Jeg lukter CFX i maskin nr 3 :D

 

"An interesting news item appeared on game debate yesterday, they claim that AMD held an event in Taiwan and has been showcasing it's upcoming Polaris GPUs. The interesting bit is that Polaris 10 would perform very close to the GeForce GTX 980 Ti but would be drastically cheaper at 299 USD."

http://www.guru3d.com/news-story/amd-polaris-10-gpu-to-offer-near-980-ti-performance-for-299-usd.html

Endret av Nizzen
Lenke til kommentar

som flere påpeker er NVIDIA's kort bedre en AMD's målt i pref/watt osv....

 

Jeg var NVIDIA fan på xxxx seriene.. (før de gikk over til 3 tall.)

Men så begynte jeg og følge utvikling osv.

 

Nvidia:

G-Sync (låst til eget forbruk)

Quda (låst til eget forbruk)

osv osv.. lista er LANG.. (selv om quda blir åpnet opp litt nå siste stunden)

Stort sett alt krever lisensiering eller er 100% låst

 

AMD:

Freesync (gratis for alle som ønsker)

mantel SDK (Gratis for alle og bruke også mulig for Nvidia og bruke gratis, med noen få linjer i driverene som AMD slapp)

generelt alt AMD utvikler blir sluppet gratis for andre produsenters bruk, (noen få ting krever lisensiering som cpu/gpu arkitekter.)

 

 

så skal man følge utvikling og ønske om konkurranse er det bare AMD som spiller med åpene kort på GPU siden.

 

Ja, AMD er bedre på "relaterte teknologier" enn nvidia uten tvil. Bare "synd" nvidia gir mye mer ytelse per effekt. Hadde vært fint om AMD ble konkurransedyktige igjen.

 

AtW

Lenke til kommentar

som flere påpeker er NVIDIA's kort bedre en AMD's målt i pref/watt osv....

 

Jeg var NVIDIA fan på xxxx seriene.. (før de gikk over til 3 tall.)

Men så begynte jeg og følge utvikling osv.

 

Nvidia:

G-Sync (låst til eget forbruk)

Quda (låst til eget forbruk)

osv osv.. lista er LANG.. (selv om quda blir åpnet opp litt nå siste stunden)

Stort sett alt krever lisensiering eller er 100% låst

 

AMD:

Freesync (gratis for alle som ønsker)

mantel SDK (Gratis for alle og bruke også mulig for Nvidia og bruke gratis, med noen få linjer i driverene som AMD slapp)

generelt alt AMD utvikler blir sluppet gratis for andre produsenters bruk, (noen få ting krever lisensiering som cpu/gpu arkitekter.)

 

 

så skal man følge utvikling og ønske om konkurranse er det bare AMD som spiller med åpene kort på GPU siden.

 

Med kun to aktører er dette for forbrukerens del mer teoretisk enn noe annet. Det er i praksis to produsenter som er aktuelle for denne teknologien, og de har valgt hver sin løsning. Kjøper man en Freesync skjerm så er den i praksis løst til AMD osv.

 

Jeg forstår argumentasjonen og fordelene med OS-løsninger, men når man diskuterer om man skal velge den ene eller andre løsningen så er "gratis for alle som ønsker" egentlig ikke mye til argumentasjon.

 

Hadde det vært mer enn to aktuelle produsenter av skjermkort der den/de andre hadde gått for Freesync så ville det vært mer relevant.

 

Jeg er selvfølgelig enig i at det hadde vært best om en skjerm hadde støttet begge produsenter, men enn så lenge er ikke det tilfellet uansett.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...