Gå til innhold

Test: MSI Geforce GTX 460 Cyclone 768 MB


Anbefalte innlegg

Her er det bare å si "agree to disagree", jeg føler ikke at mye av det du skriver er korrekt. Det med nylanseringer aner jeg ingenting om, og det er hvertfall ingen grunn til å spå noe som helst om ytelseshoppene så langt i forveien. Skulle likt å se en kilde som har testet kortene med gode drivere allerede nå...

 

Det eneste kortet AMD trenger et ganske heavy kutt på er 5830, resten handler om å justere prisprofilen. Og at nvidia skal være i stand til å dumpe prisene har jeg liten tro på, med mindre de ønsker å selge med tap selvfølgelig.

 

For all del, skal man handle skjermkort i gtx460 sin prisklasse i kveld så er de kortene bra ift prisen - også blir man tatt på senga NÅR det kommer et priskutt på 5xxx-serien.

Lenke til kommentar
Videoannonse
Annonse

Tviler litt på at Nvida faktisk kan greie å presse prisene enda mer ned, med tanke på de blodrøde tallene fra Q2FY11 , i såfall blir det en brutal og veldig kostbar kamp for Nvidia for å holde på markedsandelene.

 

Hovedsakelig antar jeg at Amd har muligheter for å kunne gjøre prisjusteringer, nettop fordi de har jo tross alt hatt markedet så og si for seg selv i en god stund nå og har kunnet priset deretter, godt mulig jeg kan ta feil, men det får vi uansett sett i de kommende 2 ukene.

GF104 er også både større (dermed dyrere å produsere) og tregere enn Cypress. Hvis ikke AMD har veldig gode marginer på Cypress så det spørs det om nVidia tjener så mye penger på GF104 som det er. Klart, dem når jo ut til et mye bredere marked med GF104.

  • Liker 1
Lenke til kommentar

Dette handler ikke om hva jeg eller du mener. Det er et faktum at Fermi-kortene gir mer ytelse for pengene i dag, og det er godt kjent at kortene (med unntak av GTX 480) skal få en god prisjustering veldig snart, der GTX 470 skal ned omrent 20% i pris, så det vil nærme seg 2000 kr. AMD/ATI må kraftig ned i pris for å konkurrere med dette. Dette er ikke mine meninger eller spekulasjoner.

 

Når AMD/ATI og nVidia kommer med sine nye produkter er usikkert, men alt jeg kan se er at ting tyder på at det ikke skjer ennå. Trolig slutten av Q4 og Q1 2011. Men for å hevde at jeg sier ting som ikke er korrekt så må du saklig forklare hvorfor. Husk at for å slå nVidia må HD 5870 prises likt som GTX 470 eller billigere.

Lenke til kommentar

Med GF104 synes jeg Nvidia har et glimrende mellomklasse kort. Jeg ville kanskje kjøpt det fremfor HD5850, men jeg føler ikke at noe Nvidia har gir meg trang til å bytte ut 2xHD5870.

 

Første oppdateringen til ATi er vel kun en liten oppdatering til Cypress (SI). Det er først på neste at ATi også får bedre Tesselation ytelse.

 

Jeg er spent på om vi får se noe GF102 i år, det synes jeg vi burde. Jeg er også spent på om vi får se andre GF104 baserte produkter og spent på hvilke produkter vi får med GF106 og 108.

 

Uansett, en herlig og spennende tid vi lever i.

 

Det eneste jeg ikke er spesielt glad i om dagen er PhysX og hvordan Nvidia direkte saboterer mulig CPU ytelse her. Forståelig, men ikke særlig glad for det på forbrukersiden. Jeg vurderer å boikotte spill som satser sterkt på det.

Endret av Theo343
Lenke til kommentar

At du personlig mener at Nvidia kortene er et bedre kjøp er helt greit for meg, personlig mener jeg det motsatte pga blandt annet Eyefinity , men hadde jeg skullet anbefalt noen med et kjøp akkurat nå hadde jeg nok bedt vedkommende å vente på en eventuell prisreduksjon fra Amd eller på de nye skjermkortene som sannsynligvis kommer nå mot slutten av året.

 

For meg derimot betyr det mye om et kort kommer for sent eller ikke, dette er en investering i både teknologi men også litt i hva som er fremtidsrettet, kjøper man et kort som er bra like før et annet kort lanseres så mener jeg personlig at det er å kaste bort penger.

nVIDIA har 3D vision, 3D Vision Surround, CUDA, PhysX, C/C++ støtte, men dette ser jeg borti fra. At ATI sine kort har Eyefinity er likegyldig. Jeg synes egentlig nVIDIA har mer interessante, ekslusive egenskaper/funksjoner, totalt sett. Når jeg sa at GTX 460 er et betraktelig bedre valg enn HD 5850, så jeg bort i fra alle slike teknologier som konkurenten ikke har. Du må være enig i at det kortet er overlegent. Om noen har behov for f.eks. Eyefinity, må de selvfølgelig gå for ATI og om noen vil ha f.eks. 3D Vision Surround så bør de gå for nVIDIA, fordi begge er gode kort. Begge kortene er noen ganske gode valg, selv om GTX 460 er hakket bedre. Men når det gjelder å finne det mest gunstige kortet så synes jeg man bør se bort i fra slike ting og la kjøperen legge vekt på om det er noe han trenger eller klarer seg uten. Derfor konkluderer jeg med at GTX 460 er overlegent i forhold til HD 5850.

 

Det nytter ikke å si: "Vent med konklusjonen, vi må vente å se om AMD kommer tilbake med prisreduksjon og lage konklusjonen da", fordi tingen er at HD 5850 koster 450kr mer og det ser ikke ut til at de kommer med et motangrep på en stund. Var det noen som sa: "Vent med konklusjonen, fordi nVIDIA vil forbedre Fermi og kanskje komme med en prisreduksjon" når Fermi ble lansert? Nei, tvert imot, fordi det handler om hvordan situasjonen er per dags dato. Faktisk så fikk Fermi slakt og et negativt stempel. Før var ATI sine kort overlegne på det meste, nå har nVIDIA kommet tilbake og imponert. Slik er det bare, innse det, aksepter det. Hvis AMD bestemmer seg for en prisreduksjon, noe som ikke er veldig sannsynlig i nermeste tid, kan situasjonen endre seg. Men du må tenke på at de må mange hundre kroner ned i pris for å kunne endre på situasjonen slik den er i dag. Man skal tenke "per dags dato". Man vet at dataindustrien alltid er i bevegelse. Det er ingen vits å vente mange måneder på at ATI skal komme med en prisreduksjon eller lansere nye kort. Uansett så er det veldig uvisst.

 

Dermed, er GTX 460 bedre for øyeblikket, men om noen foretrekker ekslusive teknologier fra enten nVIDIA eller ATI så blir konklusjonen annerledes for dem, slik den er for deg. nVIDIA har faktisk flere ekslusive teknologier, så om man legger i sammen pris vs ytelse, strømforbruk, termiske egenskaper, støy i tillegg til ekslusive teknologier og funksjoner, så trekker faktisk nVIDIA det lengste strået.

 

Hvis du kjøper et nytt kort etter noen måneder så er det bortkastet penger. Er det ikke mer en rundt 50% mer ytelse, er det bortkastet penger. Etter min mening bør man ha et kort i minst 1 år, helst mer(2 år for min del, kanskje mer) for at det skal være verdt det.

 

 

Hva som bør kjøpes NÅ er ofte irrelevant, dersom det innen et kort tidsrom vil endre seg drastisk. Man bør kanskje ikke spille ventespillet i HW-verdenen, men dersom det er snakk om en uke eller to, så er det ofte verdt det. Vet vi om det kommer noe priskutt fra AMD? nei (dessverre), selv om det er rimelig å anta at det vil skje om ikke altfor lenge. Uansett skal det ikke rare kuttet til før Nvidia blir tatt på verdi/ytelse igjen.

Hvis det lønner seg å vente et par uker så kan det være verdt det, men slik er nok ikke situasjonen her. ATI kortene må ned 450kr isåfall. Etter hva vi vet nå ser det ut som prisen forblir omtrent hva den er i dag. Dermed er det ikke noe "sjakk trekk" å spille "ventespille". Det er ganske sjeldent at det lønner seg å leke "ventespillet". AMD må kutte en del for å få has på nVIDIA.

 

Knopflerbruce har så og si kommet meg i forkjøpet og poengtert litt det jeg mente å komme med, sånn sett så har jeg ikke så veldig mye mer å tilføye enn akkurat det " vent litt og se om det blir justeringer på prisen hos Amd / ati" og avgjør så hva som blir riktig kjøp.

Hvis AMD kommer med et priskutt, noe jeg betviler i nermeste tid, så vil de uansett ikke ha en overlegen pris i forhold til nVIDIA. Hvis vi tenker oss at HD 5850 blir priset til omtrent samme pris som GTX 460, altså 450 kr mindre, så blir begge kortene omrtent like gunstige. Så egentlig har du ikke oppnådd noe, fordi du har et like atraktivt alternativ nå, i dag! Eneste du har oppnådd er å utsette kjøpet, muligens spart litt på strømregningen.

 

Til slutt vil jeg bare si at jeg ikke er fanboy og favoriserer ingen av dem og mine innlegg er ment å være vennlige. Vennligst les nøye hva jeg faktisk skriver.

Det ser ut til at det til tider er nødvendig med slike opplysninger her på forumet.

Endret av stianaarskaug
Lenke til kommentar

stianaarskaug : Hvor mange ganger føler du egentlig at du har behov for å påpeke at Nvidia er best?

Som sagt Agree to disagree.

Jeg er uenig i vurderingen din av Nvidia kortet, men jeg mener selvsagt ikke å hakke ned på din mening.

La oss bare la det bli sånn at vi er begge uenige i motpartens meninger ^_^

Endret av Malvado
Lenke til kommentar

stianaarskaug : Hvor mange ganger føler du egentlig at du har behov for å påpeke at Nvidia er best?

Som sagt Agree to disagree.

Jeg er uenig i vurderingen din av Nvidia kortet, men jeg mener selvsagt ikke å hakke ned på din mening.

La oss bare la det bli sånn at vi er begge uenige i motpartens meninger ^_^

Jeg påpeker ikke at nVIDIA er best, for det er ikke tilfelle, dessuten er ikke diskusjonen om hvem av ATI og nVIDIA som er best. Jeg påpeker at GTX 460 er det beste alternativet i fohold til konkurenten per i dag. nVIDIA har ligget bak ATI lenge og jeg har stor respekt for, og er veldig imponert over ATI sine produkter. Hvis jeg skal være ærlig mener jeg ikke at noen er best. Det bytter de faktisk litt på.

 

Jeg foretrekker personlig nVIDIA (sine skjermkort) på grunn av PhysX, 3D Vision (Surround--> kreves SLI)(som jeg synes er veldig kult), C/C++ støtte og fordi jeg har GTX 280 fra før, som jeg kan sette sammen med mitt nye kort(multi GPU). Flere skjermer enn 2 stk har jeg ikke behov for faktisk. Strømforbruk er likegyldig og termiske- og soniske- egenskaper (lyd) er ikke viktig fordi jeg alltid, uansett kjøper ny kjøler til skjermkort(og de fleste andre komponenter), fordi jeg er en person som vil bruke en del penger på sånt og vil ha et optimalt system. Ytelsen derimot, er det viktigste. Her trekker nVIDIA det lengste strået, også fordi jeg kan sette det sammen med mitt gamle kort. Selv om jeg personlig ville gått for Fermi, så har jeg synes at ATI har vært det beste alternativet lenge, men det er for folk generelt. Nå har imidlertid ting endret seg.

 

Min og din personlige mening er ulike og det aksepterer og respekterer jeg fullt. Vi er to av de få som legger vekt på ekslusive teknologier, men de fleste legger vekt på hva de får for pengene, om ytelsen er god, strømgjerrighet og at termiske og soniske egenskaper er gode. Her blir GTX 460 det beste alternativet. Det kan ikke benektes. Du har testverdiene tilgjengelige selv. Du kan ikke si at Eyefinity er bedre enn 3D Vision (Surround--> kreves SLI) (og resten) og det sier ikke jeg heller. Det er opp til hver enkelt å avgjøre selv. Og når alle andre faktorer er overlegne i forhold til HD 5850 så tør jeg å påstå at GTX 460 er bedre og best av de to. Hvis muligheten for å koble opp 3 skjermer til et enkelt skjermkort er avgjørende for kjøperen er HD 5850 det beste valget, for ham, fordi bare ATI har den muligheten. Han er da villig til å ofre den noe bedre prisen (osv...) hos GTX 460, til fordel for sine 3 skjermer. Han er da et untak, som deg. Blant annet 3D Vision (og andre) i tillegg til muligheten til å koble skjermkortet sammen med GTX 280 kortet mitt (multi GPU løsning) og ytelse er avgjørende for min besluttning om hvilket skjermkort jeg skal ha. nVIDIA er den eneste produsenten med disse teknologiene, så da blir valget enkelt. Jeg ofrer eventuelle fordeler som ATI har, til fordel for disse tingene. Hadde ATI kunnet tilby meg disse tingene og totalt sett vært mer gunstig for meg i forhold til mine behov, så hadde jeg gått for ATI.

 

Uansett om man skulle ha inkludert ekslusive teknologier i vurderingen, så hadde det blitt feil uansett. nVIDIA vinner, rett og slett fordi de har flere. Vi kan ikke bestemme hvilken som er best heller, så da blir kvantitet det som avgjør. Det er en induviduell og subjektiv besluttning for hver enkelt. Jeg må være ærlig å si at jeg liker Eyefinity veldig godt, men har faktisk ikke behov for det, ville aldri blitt brukt. Jeg velger ikke nVIDIA fordi jeg liker det best, for det gjør jeg ikke. Det handler om behov. Her må jeg tilføye at begge har flotte teknologier og funksjoner som motparten ikke har, og at folk har veldig forskjellige meninger og behov. Derfor vil jeg ikke ta ekslusive teknologier med i vurderingen. Det er for mange som har forskjellige meninger og behov til at det burde ha noe grunnlag i vurderingen. Hvis vi skal basere vurderingen på våre subjektive, induviduelle behov og meninger, så ville det blitt ukorrekt.

 

Vi to har forskjellige subjektive meninger som avgjør hvilket skjermkort vi kjøper. I agree to disagree. Det jeg er uenig i er at du sier at HD 5850 er bedre på grunn av Eyefinity og til tross for at GTX 460 har overlegne testverdier, også når GTX 460(nVIDIA) også har flere ekslusive teknologier. Jeg vet jeg til tider gjentar meg selv (for mye), men ønsker å understreke og begrunne poenget mitt. nVIDIA har flere ekslusive teknologier, så at HD 5850 er bedre på grunn av Eyefinity er ikke et verdig grunnlag. Ivertfall ikke når de fleste andre, og de mest betydelige faktorene går mot ATI(HD 5850) og er en fordel for nVIDIA(GTX 460). Jeg er fullstendig objektiv her, også i min besluttning. Jeg skiller min subjektive konklusjon fra den objektive, derfor er det viktig for meg at dette mest mulig gjenspeiler hva folk flest mener, fordi for dem er min(våre) subjektive meninger likegyldige. Derfor blir også konklusjonen om det mest gunstige kortet forskjellig fra min egen subjektive mening.

 

Jeg er uenig i vurderingen din av Nvidia kortet, men jeg mener selvsagt ikke å hakke ned på din mening.

La oss bare la det bli sånn at vi er begge uenige i motpartens meninger ^_^

Min besluttning om at GTX 460 er det mest gunsige valget er dermed ikke min subjektive mening. Den er basert objektivt på fakta, testverdier og realisme. Derimot så har jeg i tillegg en subjektiv mening som avgjør hvilket kort jeg personlig kjøper. Jeg er uenig i din subjektive mening, og det er greit, men føler ikke at du har en tilstrekkelig objektiv vurdering i tillegg. Ville likt å hørt den. :) Håper du endrer synet ditt på vurderingen etter du har lest dette. :)

 

Beklager for at jeg gjentar meg så mye, men det er for argumentenes skyld, ikke for å få fram at noen av produsentene er best.

 

Edit: 3D Vision Surround er irrellevant ettersom det kreves at du har 2 eller flere kort i SLI og diskusjonen dreier seg om enkelt kort. ATI har jo Stream, men alt i alt blir det flere på nVIDIA(i tillegg til flere fremtidige muligheter om du kjøper flere kort), selv om det ikke betyr så mye i det hele tatt.

Endret av stianaarskaug
Lenke til kommentar

Tviler litt på at Nvida faktisk kan greie å presse prisene enda mer ned, med tanke på de blodrøde tallene fra Q2FY11 , i såfall blir det en brutal og veldig kostbar kamp for Nvidia for å holde på markedsandelene.

 

Hovedsakelig antar jeg at Amd har muligheter for å kunne gjøre prisjusteringer, nettop fordi de har jo tross alt hatt markedet så og si for seg selv i en god stund nå og har kunnet priset deretter, godt mulig jeg kan ta feil, men det får vi uansett sett i de kommende 2 ukene.

Her er jeg selv ikke sikker, men det er alltid rom for spekulasjoner. Jeg tror nVIDIA har presset prisene langt ned, uten at jeg vet noe om produksjons kostnadene av kortene(noen som vet dette forresten?). Jeg tror ikke nVIDIA vil få det veldig vanskelig for å ha et konkurerende kort, men derimot å holde markedsandelen, siden ATI har et stort forsprang og et godt rykte. Men vanskelig er vel en vanlig tilstand i dataindustrien. Vi får se. Håper begge blir får god konkuranse fra hverandre, og at markedsandelen blir delt. En god balanse. Det blir best for oss forbrukere. At noen får "monopol" er som regel en dårlig ting.

Endret av stianaarskaug
Lenke til kommentar
nVIDIA har 3D vision, 3D Vision Surround, CUDA, PhysX, C/C++ støtte, men dette ser jeg borti fra. At ATI sine kort har Eyefinity er likegyldig. Jeg synes egentlig nVIDIA har mer interessante, ekslusive egenskaper/funksjoner, totalt sett.
nVidia sin Surround gaming krever at man MÅ ha flere kort i SLi. Videre har ATi Streams, OpenCL og div. div.

 

Warning:

"Walls of text skipped".

Endret av Theo343
Lenke til kommentar

nVidia har uansett mye bedre OpenCL-ytelse enn AMD/ATI.

 

stianaarskaug har egentlig sagt det ganske klart, for øyeblikket og i umiddelbar fremtid har nVidia de beste produktene. Eyefinity er en teknologi for de ytterst få, og er ikke et ordentlig argument i denne situasjonen. Dere andre kan sitte og benekte fakta så mye dere selv vil, og leve i deres egen fantasiverden, at nVidia tilbyr mer ytelse for pengene er fakta, ikke noens mening.

Lenke til kommentar
nVIDIA har 3D vision, 3D Vision Surround, CUDA, PhysX, C/C++ støtte, men dette ser jeg borti fra. At ATI sine kort har Eyefinity er likegyldig. Jeg synes egentlig nVIDIA har mer interessante, ekslusive egenskaper/funksjoner, totalt sett.
nVidia sin Surround gaming krever at man MÅ ha flere kort i SLi. Videre har ATi Streams, OpenCL og div. div.

 

Warning:

"Walls of text skipped".

Ja, det har du rett i. Du får vel ikke utvidet funksjon med ATI i Cross Fire? Du får støtte for 3 skjermer + 3D Vision Surround med SLI, men uansett så diskuterer vi ikke SLI. Min feil! Til tross for feilen min, stemmer fortsatt det jeg skrev, men skal stryke ut 3D Vision Surround. Streams bør tas med, ettersom jeg listet opp de fleste nVIDIA sine. Men OpenCL er ikke ATI ekslusivt.

“The OpenCL standard was developed on NVIDIA GPUs and NVIDIA was the first company to demonstrate OpenCL code running on a GPU,” said Tony Tamasi, senior vice president of technology and content at NVIDIA. “Being the first to release an OpenCL driver to developers cements NVIDIA’s leadership in GPU Computing and is another key milestone in our ongoing strategy to make the GPU the soul of the modern PC.” Kilde

Uansett mener jeg fortsatt at ekslusive teknologier burde være likegyldig for vurderingen og eventuelt betydelig for den induviduelle.

Lenke til kommentar
Uansett mener jeg fortsatt at ekslusive teknologier burde være likegyldig for vurderingen

Så da kan CUDA og PhysX strykes ja, enig :)

 

Du får vel ikke utvidet funksjon med ATI i Cross Fire

Ellers intersant at du kaller dette at "man får utvidet funksjon i SLI".

 

Min vinkling er heller at man må ha SLI for å få 3 skjermer på et kort med Nvidia, mens ATi gjør det med ett kort. Samt opptil 6 skjermer med ett kort.

 

SLI og CF er en utvidet funksjon i seg selv og "utvidet" utover det blir feil i den sammenheng.

Endret av Theo343
Lenke til kommentar
Uansett mener jeg fortsatt at ekslusive teknologier burde være likegyldig for vurderingen

Så da kan CUDA og PhysX strykes ja, enig :)

 

Du får vel ikke utvidet funksjon med ATI i Cross Fire

Ellers intersant at du kaller dette at "man får utvidet funksjon i SLI".

 

Min vinkling er heller at man må ha SLI for å få 3 skjermer på et kort med Nvidia, mens ATi gjør det med ett kort. Samt opptil 6 skjermer med ett kort.

 

SLI og CF er en utvidet funksjon i seg selv og "utvidet" utover det blir feil i den sammenheng.

PhysX er ikke så utbredt heller. Jeg prøver å samle det som er av PhysX spill(så lenge det er bra spill), rett og slett fordi jeg synes det er en interessant fysikk motor, og det er en kul ting i spill. Har muligheten til å bruke PhysX, så ingen vits å kaste det bort når det faktisk er ganske kult. PhysX, CUDA, men også alle de andre kan strykes i vurderingen synes da jeg. Stryker man noe fra den ene, skal det strykes fra den andre.

 

Interessant? :p Ble kanskje litt rar formulering, men det stemmer jo forsåvidt. Når et system har 2 kort koblet opp i SLI får du tilgang/muligheten til mer funksjonalitet(3D Vision Surround). :p Jeg synes det hørtes rett ut, men skal ikke "krangle" på den. Kan endre det hvis du vil. :D

 

Jeg er enig i at ATI gjør det mye enklere ved å ha støtte for 3- og til og med 6- skjermer, mens med nVIDIA må du kjøpe et ekstra kort og alikevel "bare" få støtte for 3 skjermer. Med Eyefinity kan du få spillet ut på 6 skjermer, noe som bare er utrolig kult! Hadde egentlig tenkt å ta med dette i sta. Hadde det ikke vært for at jeg liker det fint med 1 skjerm(+1 ekstra skjerm), misliker rammene inni bildet og har jeg ingen som helst mulighet til å kjøpe mer enn en skjerm, så hadde valget blitt betraktelig vanskeligere. Jeg får også klare meg med 3D Vision på en skjerm.

Endret av stianaarskaug
Lenke til kommentar

Ord som "overlegent" er ikke rett å bruke her, hverken i den ene eller den andre retningen - ellers hadde det ikke vært en diskusjon til å begynne med. Tror konklusjonen til en viss bruker kan tas med en god klype salt om det er objektivitet man ønsker...

 

Det går jo alltids an å bumpe denne tråden senere når det har komemt et priskutt, og whine over hvor lite nvidia gir for pengene :yes:

 

Det er vel heller ingen som bestrider at dersom man skal kjøpe kortet NÅ så er gtx460 et bra valg, og jeg tviler på at å gjennomføre priskutt er en beslutning som tas over natten. At AMD vil sitte og se på at nvidia overtar markedsandeler faller på sin egen urimelighet, men det er også naivt å tro at de setter ned prisen umiddelbart i ren frykt.

Lenke til kommentar

Var da voldsomt til opphetet diskusjon, er jo bare noen skjermkort vi snakker om... Fermi er som så mange andre sier en kul arkitektur som sikkert kommer til å gi oss mange gode produkter også i fremtiden. Gleder meg selv til ny revisjon av 470 og 480 kommer og forhåpentlig har fått de termiske egenskapene i orden, selv om mange bagateliserer de uten å ha kortene selv så er det ikke å kimse av. Har selv kjørt masse SLI og CF oppsett 7950gx2, 8800gt SLI, 9800gx2, 3870x2 og 4980 CF og vet at kort som blir så varme og bråker ikke er noe gøy. Levetiden har en stygg tendens til å bli dårlig(ja du har garanti, men like jævlig å sitte uten skjermkort når de gamle ryker) når kortene blir så varme. I tillegg så må du ha en enorm PSU, andre komponenter i pcen blir også varmere fordi viftene ikke makter å flytte alt ut av pcen. Dette fører til at du må ha vannkjøling eller enda flere kab. vifter i pcen for å få til feks overklokking og levelig temp i pcen, dette øker da ofte både støy og pris man må ut for ny kjøling.

 

Gtx 460 er derimot ganske kult i forhold til pris\ytelse og effektforbruk nå som man får det til 1695 på komplett for 1GB utgaven. Men nå høres det jo nesten ut som om gtx460 både yter bedre og bruker mindre effekt enn 5850, det koster mindre men yter også dårligere i alt utenom Hawk av moderne spill i følge Anandtech som jeg anser som en meget solid testside. Til og med effektforbrukt er 30w mer enn 5850. Se test

 

I SLI derimot så gir disse kortene sykt mye fps for pengene og bør absolutt vurderes over 5850 CF. Physx er jo en derivat av CUDA og derfor får du Physx om du har cuda støtte og visa versa... Nesten alle snakker jo om Physx for tiden men foreløpig har det jo ikke akkurat vært noe å rope hurra for. Nvidia har jo også vært så "grei" å disable støtten for å bruke gamle reservekort man har liggende til Physx/Cuda om man har kjøpt konkurrenten sine kort og bruker dette i pcen. Heldigvis fins det jo ildsjeler der ute med skillz og tid som har fått hacket dette bort så man kan kjøre begge deler sammen: Ati\Nvidia hybrid Physx. Nå kjører jeg et gammelt 8800gt som Physx kort og det virker ok. Men etter å ha pløyd gjennom nesten samtlige spill som støtter dette så er det kun demoen av Mafia 2 som imponerer meg mht. effekter. Den klarer også å makse dette ut selv som reint fysikkort, leste på endel forum at selv 480 hakker i flekkene med Physx på dette spillet, så da kan man jo si det ikke er noe voldsom feature ettersom det spiser av ressursene som eller går til å tegne vanlig grafikk.

 

EDIT: leif

Endret av Onanias
Lenke til kommentar

GTX 460 er et godt produkt. Nvidia er sterke på GPGPU og Tesselation, utover det synes jeg ikke de "har de beste produktene" :).

 

Da benekter jeg ingen fakta som er relevant i den virkelige verden ;)

GTX 460 1 GB koster 1649 kr, HD 5850 koster 2102 kr (differanse 453 kr, 27% dyrere)

GTX 470 koster 2295 kr, HD 5870 koster 2837 kr (differanse 542 kr, 24% dyrere)

 

2xGTX 470 koster 4590 kr, HD 5970 koster 4849 kr (differanse 259 kr, 6% dyrere og 2xGTX 470 yter klart bedre)

 

Effektforbruk (HWs egne tall):

2xGTX 470 453W, HD 5970 431W (differanse 22W, dvs. 5% mer enn HD 5970 og er ubetydelig. Hvis kortene plasseres med god avstand så vil forskjellen plutselig minke)

 

I tillegg til alt dette vil jeg minne om at GTX 470 vil koste 2050-2100 kr etter prisjustering, og de øvrige modellene unntatt GTX 480 skal justeres ned, som gjør nVidia mye mer prisgunstig.

 

Dere kan vende og vri så mye dere vil på det, men faktum er at nVidia tilbyr mye mer ytelse for pengene. For de ytterst få som ønsker Eyefinity med mange skjermer så koster slike skjermkort ennå mer. Det er ikke sant at GF100-brikkene har veldig høyt effektforbruk, og varmen er ikke et problem om dere velger et kort med en god kjøler.

Se her hvordan referansekjøleren til GTX 460 ikke er særlig stillere enn GTX 470.

Med en god kjøler kommer GTX 460 litt lavere. link

Men det virkelig stille er GTX 465 og GTX 470 med Twin Frozr II: link

Det er på tide at folk slutter å kalle GF100-brikken for forferdelig når forskjellen mellom GF100 og GF104 med tanke på effekt og varme er liten. Den største forskjellen er på effektforbruket, men det gjør ikke noe når ytelseforskjellen på GTX470 og oppover står i stil.

Lenke til kommentar

Ord som "overlegent" er ikke rett å bruke her, hverken i den ene eller den andre retningen - ellers hadde det ikke vært en diskusjon til å begynne med.

Overlegen betyr bedre enn. God natt, mer respons i morgen.

 

"Overlegen" høres mer ut som om det er et digert gap. Det er hvertfall sånn ordet brukes i praksis, og gapet forsvarer ikke superlativ-lignende uttrykk.

 

...og det får bli min siste post her inntil videre, det blir bare repetisjon av de samme argumentene i en stor sirkel, kommer lite matnyttig ut av det.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...