Gå til innhold

Test: EVGA GeForce GTX 660 SuperClocked


Anbefalte innlegg

Jeg er enig i at noe bør fjernes.

 

Far cry 2, der så å si alle kort fra 600/7000 når 60FPS på 1920x1200.

 

Civilization V der bare de aller svakeste kortene går under 60FPS.

 

Men de andre testene er fortsatt relevante, da 1920x1080 på en 60HZ skjerm er mainstream. Så alle testene der det er mange kort over og under 60FPS er veldig relevante spør du meg.

Civ V er i langt større grad relevant enn BF:BC2 og JC2 (begge disse er for det meste dx9-spill med noen dx10/11-effekter slengt på,) og Civ V er rimelig tungt på geometri og tesselation.

 

Om man virkelig skal teste DirectX9-ytelse burde man kanskje heller vurdert spill som Witcher 2 og Hard Reset. Det er forvørig relevant å få mer enn 60 fps i skytespill fordi responstidene senkes ytterligere med høyere framerate.

Lenke til kommentar
Videoannonse
Annonse

Å sette "EVGAs kort kan lage litt mer lyd enn ønskelig" er da veldig pirkete... Kortet er basert på referansekjøleren som ble skrevet... eneste forskjellen er at dette kortet er SC (SuperClocked) som betyr høyere clocks og da selvfølgelig høyere temperatur som viften må jobbe mot (som uansett ikke er et problem siden du kan justere viftehastigheten selv).

 

Mitt evga 680 signature sc har samme kjøler og samme deksel (iallfall nesten) og jeg kan kjøre viften på 85% og sette på lav musikk med surroundanlegget og ikke høre pc'en i det hele tatt.

 

Alle vifter bråker... om det er et problem; skaff en pc med passiv kjøler (men da ikke særlig brukbar til gaming).

Lenke til kommentar

Arni90 jeg og sikkert flere er lei av at du alltid kommer med negative meninger om GeForce hver gang det kommer nye nytt fra de på skjermkort fronten.

 

Alle ser på kommentarene dine og vet godt at du er en skikkelig AMD fan.

 

Men det vil ikke si for det at du må hele tiden si noe negativt med GeForce hver gang.

 

Hvis GeForce hadde gjort en tabbe så hadde jeg skjønt deg men ikke ellers.

Kort oppsummert er GTX 660 et alternativ fra Nvidia som tilbyr tilsvarende ytelse som HD 7870 for tilsvarende pris med tilsvarende strømforbruk, altså er det ingenting negativt eller positivt å si. Etter at Nvidia har vært såpass aggressive med prislappen med sine øvrige kort denne generasjonen er det skuffende at GTX 660 ikke fortsetter trenden.

 

Mine tre hovedproblemer med Nvidias produkter nå er:

  1. Kepler Boost: slik den er implementert nå er det ingen som vet hvor mye kortene skal yte.
  2. GTX 660 Ti er et kort myntet på entusiaster, men taper enormt mye ytelse når AA skrus på.
  3. Toppkortene fra Nvidia denne generasjonen takler enkelte computeshadere vanvittig dårlig, det er ikke et godt tegn for fremtiden.

 

Hvorfor er Nvidia gpu Boost et problem? Via Evga Precision X ser du NØYAKTIG hvor mye kortet yter, så kan du jobbe deg oppover i clocks utifra det. Frekvensen baserer seg på fps i spillet/applikasjonen du kjører og setter da en "nødvendig" clock rundt base og boost clocken så du holder dine perfekte 60 fps (med mindre du kjører 120hz skjerm). For GeForce serien er det ikke lenger det store å få mest mulig fps, men å få ting til å kjøre på maks. utenom benchmarks så er det pointless å ha firehudreogohmygod! fps...

 

GTX660 er ikke et entusiastkort nei... det er ment for casual gamere som kanskje kjører 1680x1050 og ikke må ha absolutt alt på fullt med 8xAA.

Toppserien til Nvidia nå er 680 og 690 (med 670 som en liten mellomting), noe du absolutt burde vite om du tok et kjapt søk på google.

 

Jeg har heller ikke hørt om shadere som Kepler ikke takler, men om man er opphengt i slikt, burde dette heller testes med Tesla kortene som er myntet på programmerere.

 

P.S. For å motsi all innkommende "du er nvidia fanboi" sier jeg følgende: Jeg bygget pc'en min i 2010 med ati 5970, som bare skapte problemer... hadde høye håp når jeg skaffet 7970 i januar, men det døde og måtte i retur i juni og da gikk jeg til innkjøp av et 680. Jeg har prøvd så og si alt... ENDELIG er jeg fornøyd.

Lenke til kommentar

Arni90 jeg og sikkert flere er lei av at du alltid kommer med negative meninger om GeForce hver gang det kommer nye nytt fra de på skjermkort fronten.

 

Alle ser på kommentarene dine og vet godt at du er en skikkelig AMD fan.

 

Men det vil ikke si for det at du må hele tiden si noe negativt med GeForce hver gang.

 

Hvis GeForce hadde gjort en tabbe så hadde jeg skjønt deg men ikke ellers.

Kort oppsummert er GTX 660 et alternativ fra Nvidia som tilbyr tilsvarende ytelse som HD 7870 for tilsvarende pris med tilsvarende strømforbruk, altså er det ingenting negativt eller positivt å si. Etter at Nvidia har vært såpass aggressive med prislappen med sine øvrige kort denne generasjonen er det skuffende at GTX 660 ikke fortsetter trenden.

 

Mine tre hovedproblemer med Nvidias produkter nå er:

  1. Kepler Boost: slik den er implementert nå er det ingen som vet hvor mye kortene skal yte.
  2. GTX 660 Ti er et kort myntet på entusiaster, men taper enormt mye ytelse når AA skrus på.
  3. Toppkortene fra Nvidia denne generasjonen takler enkelte computeshadere vanvittig dårlig, det er ikke et godt tegn for fremtiden.

 

også et spørsmål til arni: når det handler om gaming(og nvidia tjener desidert mest på gpuer til gaming) hvorfor skal mannen i gata bry seg om compute? spillene går som en drøm og prisen er grei og ting funker som det skal. er enig i at de burde gjøre noe i forhold til compute når det gjelder tesla løsningen osv men til daglidags bruk er det ikke en satsing de bryr seg om og det skjønner jeg, hvis de blir mer fokuserte på en ting blir det nok bedre for oss vanlige dødelige som kun skal spille :p

 

Hvorfor er Nvidia gpu Boost et problem? Via Evga Precision X ser du NØYAKTIG hvor mye kortet yter, så kan du jobbe deg oppover i clocks utifra det. Frekvensen baserer seg på fps i spillet/applikasjonen du kjører og setter da en "nødvendig" clock rundt base og boost clocken så du holder dine perfekte 60 fps (med mindre du kjører 120hz skjerm). For GeForce serien er det ikke lenger det store å få mest mulig fps, men å få ting til å kjøre på maks. utenom benchmarks så er det pointless å ha firehudreogohmygod! fps...

 

GTX660 er ikke et entusiastkort nei... det er ment for casual gamere som kanskje kjører 1680x1050 og ikke må ha absolutt alt på fullt med 8xAA.

Toppserien til Nvidia nå er 680 og 690 (med 670 som en liten mellomting), noe du absolutt burde vite om du tok et kjapt søk på google.

 

Jeg har heller ikke hørt om shadere som Kepler ikke takler, men om man er opphengt i slikt, burde dette heller testes med Tesla kortene som er myntet på programmerere.

 

P.S. For å motsi all innkommende "du er nvidia fanboi" sier jeg følgende: Jeg bygget pc'en min i 2010 med ati 5970, som bare skapte problemer... hadde høye håp når jeg skaffet 7970 i januar, men det døde og måtte i retur i juni og da gikk jeg til innkjøp av et 680. Jeg har prøvd så og si alt... ENDELIG er jeg fornøyd.

 

enig i at 680 er verdt det for alt bare funker. for første gang har jeg kun trøbbel med ett spill :p MEN 660ti er entuasiastkort og knuser alle spill :p med maks AA :p

Endret av cannibalguppy
Lenke til kommentar

Hvorfor er Nvidia gpu Boost et problem? Via Evga Precision X ser du NØYAKTIG hvor mye kortet yter, så kan du jobbe deg oppover i clocks utifra det. Frekvensen baserer seg på fps i spillet/applikasjonen du kjører og setter da en "nødvendig" clock rundt base og boost clocken så du holder dine perfekte 60 fps (med mindre du kjører 120hz skjerm). For GeForce serien er det ikke lenger det store å få mest mulig fps, men å få ting til å kjøre på maks. utenom benchmarks så er det pointless å ha firehudreogohmygod! fps...

 

GTX660 er ikke et entusiastkort nei... det er ment for casual gamere som kanskje kjører 1680x1050 og ikke må ha absolutt alt på fullt med 8xAA.

Toppserien til Nvidia nå er 680 og 690 (med 670 som en liten mellomting), noe du absolutt burde vite om du tok et kjapt søk på google.

 

Jeg har heller ikke hørt om shadere som Kepler ikke takler, men om man er opphengt i slikt, burde dette heller testes med Tesla kortene som er myntet på programmerere.

 

P.S. For å motsi all innkommende "du er nvidia fanboi" sier jeg følgende: Jeg bygget pc'en min i 2010 med ati 5970, som bare skapte problemer... hadde høye håp når jeg skaffet 7970 i januar, men det døde og måtte i retur i juni og da gikk jeg til innkjøp av et 680. Jeg har prøvd så og si alt... ENDELIG er jeg fornøyd.

Hva gjør GPU Boost til et problem?

  1. Den er avhengig av hvor bra kortet er, altså vil ingen kort booste likt. AMDs løsning basert på Powertune-teknologi vil derimot gjøre at alle kort booster 100% identisk. Dette er et problem for benchmarking.
  2. Den oppførselen du beskriver med senkede boost-klokker opptrer kun når du faktisk har en eller annen form for framerate-grense aktivert i driveren såvidt jeg har forstått.
  3. Når kortet sliter er strømforbruket høyest og boosten vil da være lavest, overklokking fikser dette siden Power Target økes betraktelig.

GTX 660 Ti er priset som et entusiastkort, dermed er det et entusiastkort. At det ikke takler MSAA i nærheten av like bra som HD 7950 gjør det ikke til et særlig godt kjøp.

At 660 Ti er et entusiastkort betyr ikke at det er et toppkort.

 

Sniper Elite V2, Sleeping Dogs, og Dirt Showdown er alle spill som har computeshadere Kepler-kortene ikke takler i nærheten av like bra som GCN-kortene. Poenget er at slike shadere kommer til å bli tatt i bruk i flere spill i fremtiden, altså vil AMD-kortene være istand til å kjøre disse spilleffektene med et fornuftig ytelsestap mens Nvidia-kortene ikke vil være det.

 

Synd ditt 7970 døde, bra du er fornøyd med 680.

  • Liker 3
Lenke til kommentar

En stor fordel med GPU boost er at når man bruker Vsync i mange spill, så klokker kortene seg betraktelig ned siden de ikke trenger å kjøre særlig mye kraft for å holde Vsync. Dette gjør at det blir langt mindre strømtrekk og varmeutvikling.

 

Jeg tror ikke dette går frem i tester gjort på nett mellom nåværende Kepler VS tidligere Nvidia kort og AMD (inkludert nyere AMD kort) kort som faktisk kjører fulle frekvenser selv på Vsync.

 

I mange spill ser jeg mine GTX 670 nede i 324MHz - 900MHz core og lavere Volt når jeg bruker Vsync. F.eks testet jeg med Kingdoms Of Amalur: Reckoning nå med Vsync. Kun mitt øverste kort var i bruk (Tror ikke spillet støtter SLI). Så at GPU clock lå på mellom 888MHz og litt over 900MHz og Volt var nede i 0.987v.

 

Dette er betraktelig mye mindre effekt enn 1124MHz (Som er min Kepler Boost for det øverste kortet) og 1.175v som er Volt på max boost.

 

Hvis ikke jeg tar feil så kjørte mitt gamle GTX 570 på full pupp hele tiden. Og tror AMD sine nyere kort gjør det samme? Eller har jeg missforstått noe her?

 

Og som sagt, dette kommer ikke ut i tester på internett, da de aller fleste hardware nettsteder deaktiverer Vsync i alle spill. Selv om mange privatpersoner/brukere faktisk liker å bruke Vsync i mange spill. Noen spill er faktisk laget for å funke best med Vsync.

 

Jeg synes også det var helt rett av Nvidia å kutte computing ytelse på Kepler kortene som er ment for spilling. Dette gjør at kortene kan lages med mindre transistorer og bli enda mere effektgjerrige.

 

Jeg kjøpte mine kort for spilling, og ikke for profesjonelle arbeidsoppgaver. Her finnes det andre alternativer.

 

Edit: Testet med Torchlight nå, øverste kort kjørte bare 324MHz core og 0.987v :p Greit nok at det er et lettdrevet spill, men kjekt at kortet ikke bruker mer enn det trenger ;)

 

Edit 2: Testet Borderlands nå med Vsync aktivert. Kun øverste kort var i bruk og kjørte på 679MHz og 0.987v. Borderlands ser grusomt ut uten Vsync aktivert (Masse Screen Tearing). Brukte Borderlands Config Editor for å aktivere Vsync.

 

Forresten har en 60Hz monitor. Vsync er 60 bilder i sekundet hos meg.

 

Når alt dette er sagt, så er jeg litt enig med arni90 i at det er litt dumt at alle Kepler kortene booster litt forskjellig. Dette med tanke på benchmark resultater. Nå skal det sies at de ikke gjør veldig store utslag, men litt vil det variere fra kort til kort. Noe stort problem er det ikke.

 

Forøvrig så synes jeg powertarget er en fin ting, og jeg lar mine være på 100%. På denne måten blir kortene begrenset fra å bruke unødvendig mye strøm. Jeg kjører SLI og har ytelse nok i massevis uansett. For de som ikke liker dette er det jo bare å øke Powertarget Limit.

 

Jeg mener Nvidia har gjort med Kepler litt på samme måten som Intel gjorde med Sandybridge. Veldig energi orienterte og ikke bruke mer enn hva programvaren/spillene faktisk trenger. Synes det er en kjempebra ting.

 

Så jeg mener personlig at her ligger Nvidia faktisk et steg foran AMD. AMD/ATI har kjempegode skjermkort de, men for min del føler jeg at Nvidia trekker det lengste strået denne gangen, når det gjelder teknologi og innovasjon.

Endret av Mann_Av_Gull
  • Liker 1
Lenke til kommentar

Å sette "EVGAs kort kan lage litt mer lyd enn ønskelig" er da veldig pirkete... Kortet er basert på referansekjøleren som ble skrevet... eneste forskjellen er at dette kortet er SC (SuperClocked) som betyr høyere clocks og da selvfølgelig høyere temperatur som viften må jobbe mot (som uansett ikke er et problem siden du kan justere viftehastigheten selv).

 

Mitt evga 680 signature sc har samme kjøler og samme deksel (iallfall nesten) og jeg kan kjøre viften på 85% og sette på lav musikk med surroundanlegget og ikke høre pc'en i det hele tatt.

 

Alle vifter bråker... om det er et problem; skaff en pc med passiv kjøler (men da ikke særlig brukbar til gaming).

 

De kan da vitterlig spandere på en annen løsning enn referansekjøleren hvis de ønsker det. kanskje burde de gjort nettopp det, dersom klokkefrekvensen tilsier økt temperatur og dermed mer støy. Ergo et relevant poeng fra artikkelforfatter.

  • Liker 1
Lenke til kommentar

Hvis ikke jeg tar feil så kjørte mitt gamle GTX 570 på full pupp hele tiden. Og tror AMD sine nyere kort gjør det samme? Eller har jeg missforstått noe her?

Samme med AMD-kortene ja.

 

Og som sagt, dette kommer ikke ut i tester på internett, da de aller fleste hardware nettsteder deaktiverer Vsync i alle spill. Selv om mange privatpersoner/brukere faktisk liker å bruke Vsync i mange spill. Noen spill er faktisk laget for å funke best med Vsync.

 

Jeg synes også det var helt rett av Nvidia å kutte computing ytelse på Kepler kortene som er ment for spilling. Dette gjør at kortene kan lages med mindre transistorer og bli enda mere effektgjerrige.

Det er et viktig poeng at dette overses av tester ja, og det burde absolutt belyses.

 

Det er ingenting negativt i å kutte compute-funksjonalitet som ikke blir brukt i spill, AMD har også gjort dette med Pitcairn og Cape Verde, poenget mitt var at Kepler-kortene ser ut til å slite når compute-shadere som driver "Forward+"-rendering mens GCN-arkitekturen ser ut til å takle dette uten større problemer.

 

Edit: Testet med Torchlight nå, øverste kort kjørte bare 324MHz core og 0.987v :p Greit nok at det er et lettdrevet spill, men kjekt at kortet ikke bruker mer enn det trenger ;)

Jeg er helt enig, men om spill ikke krever 3D-klokker kjører også tidligere kort i 3D "Low Power" modus, for AMD-kortene i dag er det 500MHz core og stock hastighet på minne.

 

Neste steget blir å klokke ned VRAM til en fornuftig hastighet, blir spennende å se hvem som er først ute der.

 

Når alt dette er sagt, så er jeg litt enig med arni90 i at det er litt dumt at alle Kepler kortene booster litt forskjellig. Dette med tanke på benchmark resultater. Nå skal det sies at de ikke gjør veldig store utslag, men litt vil det variere fra kort til kort. Noe stort problem er det ikke.

 

Forøvrig så synes jeg powertarget er en fin ting, og jeg lar mine være på 100%. På denne måten blir kortene begrenset fra å bruke unødvendig mye strøm. Jeg kjører SLI og har ytelse nok i massevis uansett. For de som ikke liker dette er det jo bare å øke Powertarget Limit.

Det er mer en prinsippsak angående Kepler Boost enn noe annet.

 

AMDs Powertune er bortimot 1000 ganger raskere enn Nvidias effektmåler (dog er den "bare" 98% nøyaktig siden den er software-basert,) den debuterte også i 2010 med HD 6970, den kan justeres fra -20% til +20%. Power Target er også (ifølge informasjonen Nvidia har gitt ut) designet for å begrense Boost-funksjonen til kortene, ikke hvor mye effekt kortet kan maks trekke.

Lenke til kommentar

Jeg syns det er noe fundamentalt galt med disse testene deres. Først og fremst tester dere gaming skjermkort, og for en hver gamer som kjøper såpass dyrt og kraftig kort, vil han, eller hun, spille med aller høyeste instillinger. Hva skjermkortet klarer å prestere med 2xAA, når man er i dette nivået... er jævlig uinteressant. For hva ellers er poenget med å kjøpe slike kort? For å spille med middels innstillinger? Test disse kortene som de er tiltenkt for og for det formålet de er beregnet for. Og vær så snill skaff noen nye spill. Og få tilbake seksjon om overclocking.

Lenke til kommentar

Jeg syns det er noe fundamentalt galt med disse testene deres. Først og fremst tester dere gaming skjermkort, og for en hver gamer som kjøper såpass dyrt og kraftig kort, vil han, eller hun, spille med aller høyeste instillinger. Hva skjermkortet klarer å prestere med 2xAA, når man er i dette nivået... er jævlig uinteressant. For hva ellers er poenget med å kjøpe slike kort? For å spille med middels innstillinger? Test disse kortene som de er tiltenkt for og for det formålet de er beregnet for. Og vær så snill skaff noen nye spill. Og få tilbake seksjon om overclocking.

 

Problemet med mye AA ol. er at da kan det hende at Amd gjør det bedre enn nVidia da, og for slike nVidia fanboys som er i hw.no's redaksjon så er ikke det så lett å takle. DErfor er det meste nVidia optimalisert her. Inkl. valg av spill, instillinger på spillene og oppløsninger.

Lenke til kommentar

Jeg syns det er noe fundamentalt galt med disse testene deres. Først og fremst tester dere gaming skjermkort, og for en hver gamer som kjøper såpass dyrt og kraftig kort, vil han, eller hun, spille med aller høyeste instillinger. Hva skjermkortet klarer å prestere med 2xAA, når man er i dette nivået... er jævlig uinteressant. For hva ellers er poenget med å kjøpe slike kort? For å spille med middels innstillinger? Test disse kortene som de er tiltenkt for og for det formålet de er beregnet for. Og vær så snill skaff noen nye spill. Og få tilbake seksjon om overclocking.

Akkurat dette kortet var nok aldri ment å kjøre spill på full grafikk med 4xMSAA, så det er ikke et direkte problem her men jeg ser absolutt poenget ditt.

Det er dog et veldig godt poeng med kort som 7970 og GTX 680, til tross for at 120Hz blir mer og mer populært er det fortsatt de som sverger til best mulig bildekvalitet.

Lenke til kommentar

Synes personlig at 4xAA (normal AA) holder i massevis for 1920x1080 eller 1920x1200. 8xAA og mer blir i mine øyne bare unødvendig stress på skjermkortene. 2xAA blir for lite.

 

Som sagt, det jeg likte å se var at testens GTX 660 slo GTX 580 med en liten margin, koster under 2000,-, er effektgjerrig og har fulle 2GB VRam.

 

Dette eller 7870 er gode kort til rundt 2000,-. For normale gamere som trives på 1920x1080 eller 1920x1200 og heller ikke nødvendigvis må makse ut absolutt alle spill, så synes jeg disse kortene er veldig bra. Ingen vits å bruke over 3000,- hvis man ikke trenger det.

 

Sannheten er at jeg nok hadde klart meg helt fint med 1 stk. GTX 660 eller 7870. Jeg gamer på 1920x1200 og har ikke enorme krav. Sant nok at det er kult å ha over 100 bilder i sekundet i The Witcher 2 med mine 2 GTX 670. Blir veldig responsivt og fint. Men hadde nok klart meg helt fint med Vsync og 60 bilder i sekundet.

Endret av Mann_Av_Gull
Lenke til kommentar

Ser ut som GeForce har fått fikset en god del på micro tute ring problemet sitt en AMD har.

 

Altså det problemet man får med bruk av 2 skjermkort sammen i SLI eller Crossfire.

 

http://www.sweclocke...ort/18#pagehead

 

Nå går det endelig an å kjøre SLI med de nye GTX 6XX skjermkortene uten at det blir noe stort problem som det var før.

 

Ser nå at komplett har ukens tilbud på Asus Geforce GTX 670. Så jeg er veldig fristet å kjøpe 2 stk av de.

 

Dette ser ikke bra ut med Crossfire støtte for AMD eller hva Arni90 ?

 

GeForce har priset skjermkortene sine etter ytelsen ikke etter hvor mye forgjengeren kostet. Den nye generasjonen skjermkort fra GeForce har mer ytelse en den forrige sammenlignet med andre skjermkorter på den tiden.

 

AMD tok veldig høy pris på sine 7xxx skjermkort når de først kom ut også, Det var mange som reagerte på det husker jeg siden AMD hadde ryktet på seg å ha en god pris. Selv om de ikke hadde noen konkurranse på den tiden. AMD hadde nok solgt flere 7xxx skjermkort hvis de hadde sunket prisen med en gang en at de andre folkene venta på GTX6xx kortene.

Endret av Kraa
Lenke til kommentar

Ser ut som GeForce har fått fikset en god del på micro tute ring problemet sitt en AMD har.

 

Altså det problemet man får med bruk av 2 skjermkort sammen i SLI eller Crossfire.

 

http://www.sweclocke...ort/18#pagehead

 

Nå går det endelig an å kjøre SLI med de nye GTX 6XX skjermkortene uten at det blir noe stort problem som det var før.

 

Ser nå at komplett har ukens tilbud på Asus Geforce GTX 670. Så jeg er veldig fristet å kjøpe 2 stk av de.

 

Dette ser ikke bra ut med Crossfire støtte for AMD eller hva Arni90 ?

 

GeForce har priset skjermkortene sine etter ytelsen ikke etter hvor mye forgjengeren kostet. Den nye generasjonen skjermkort fra GeForce har mer ytelse en den forrige sammenlignet med andre skjermkorter på den tiden.

 

AMD tok veldig høy pris på sine 7xxx skjermkort når de først kom ut også, Det var mange som reagerte på det husker jeg siden AMD hadde ryktet på seg å ha en god pris. Selv om de ikke hadde noen konkurranse på den tiden. AMD hadde nok solgt flere 7xxx skjermkort hvis de hadde sunket prisen med en gang en at de andre folkene venta på GTX6xx kortene.

 

Kjøpte 2 stk. ASUS GTX 670 DC II 'Non-Top' selv fra komplett.no for noen mnd. siden. Kostet vel litt under 3400,- pr stk. da.

 

Uansett, har ikke merket noe microstuttering eller noe som helst. Funker knall. Anbefaler deg ei sidevifte som blåser frisk luft rett på kortene. Husk at det øverste kortet vil kjøre ca. 10 grader varmere enn det nederste. Jeg bruker custom vifteprofil i MSI Afterburner, og det øverste kortet kommer sjelden opp mot 70c. Dette er veldig støysvake kort. Jeg gidder ikke overklokke de eller øke powertarget. Disse kortene i SLI er så raske at jeg ikke ser hensikten

 

Riggen Min: (PCI-E kablene er stripset i Harddiskburet for å hindre grafikkortene i å henge grunnet vekta. Kabinettet er Cooler Master Storm Scout. Man kan se at kortene har 1 til 2mm klaring til harddiskburet. Har montert ei 120mm sidevifte i sidedøra. Nederste viftehull. Varierer mellom ca. 700 - 1000rpm alt etter temperatur. Plugget i hovedkortet og satt opp vifteprofil i bios.)

 

5qvjr.jpg

Endret av Mann_Av_Gull
  • Liker 1
Lenke til kommentar

Ser ut som GeForce har fått fikset en god del på micro tute ring problemet sitt en AMD har.

 

Altså det problemet man får med bruk av 2 skjermkort sammen i SLI eller Crossfire.

 

http://www.sweclocke...ort/18#pagehead

 

Nå går det endelig an å kjøre SLI med de nye GTX 6XX skjermkortene uten at det blir noe stort problem som det var før.

  • Et skrikende problem er at FRAPS ikke måler når bildet sendes til skjermen, altså er FRAPS-målinger ingen god indikasjon på om microstutter er eliminert eller ikke.
  • Et annet problem er at Alternate Frame Rendering legger på en frame med inputlag.
  • Et tredje problem med Alternate Frame Rendering er at mange av drivertriksene for å hindre teksturflimring ser ut til å skrus av når AFR aktiveres.

Det kan hende Kepler-kortene utfører bufring av bilder for å forhindre microstutter, det er et rimelig akseptabelt bytte for spill med tanke på at SLI/CFX øker inputlag uansett, og det kan hende NVidia bare sier de har forbedret ting uten egentlig å ha gjort det.

Inntil noen tar i bruk en CRT-monitor sammen med et kamera som tar opp i 500 bilder per sekund eller noe slikt er det ikke mulig å vite om det er en placeboeffekt eller om Nvidia faktisk har fikset problemet. Min opplevelse er at microstutter fortsatt eksisterer med 680 SLI så lenge gjennomsnittlig framerate er under 70 fps, men så virker det som om jeg er litt mer kresen på slikt enn den jevne bruker i utgangspunktet.

Dette ser ikke bra ut med Crossfire støtte for AMD eller hva Arni90 ?

Hva mener du? Crossfire-støtten fra AMD er for det meste helt grei i likhet med Nvidias SLI-støtte.

Om du henviser til microstutter-situasjonen har jeg ikke sett noen indikasjon på at Nvidia sitter mye bedre i gjørma enn AMD, hovedproblemet er at man bruker Alternate Frame Rendering og inntil enten AMD eller Nvidia tar i bruk et av de bedre alternativene kommer vi fortsatt til å ha en teknologi som ser best ut på papiret.

GeForce har priset skjermkortene sine etter ytelsen ikke etter hvor mye forgjengeren kostet. Den nye generasjonen skjermkort fra GeForce har mer ytelse en den forrige sammenlignet med andre skjermkorter på den tiden.

Nvidia har priset kortene sine etter hvor mye kundene er villige til å betale, i likhet med AMD.

 

Hadde de priset kortene etter ytelse hadde GTX 680 kostet 5000 kr, GTX 670 kostet 4500 kr, GTX 660 Ti kostet 4000 kr, GTX 660 kostet 3000 kr og GTX 650 kostet 1000 kr.

AMD tok veldig høy pris på sine 7xxx skjermkort når de først kom ut også, Det var mange som reagerte på det husker jeg siden AMD hadde ryktet på seg å ha en god pris. Selv om de ikke hadde noen konkurranse på den tiden. AMD hadde nok solgt flere 7xxx skjermkort hvis de hadde sunket prisen med en gang en at de andre folkene venta på GTX6xx kortene.

AMD priset kortene så høyt de kunne uten at folk nektet å kjøpe dem, det er en grunn til at de fleste 7970 var utsolgt i bortimot 2 måneder. Det samme gjaldt 7850, 7950, og så videre...

 

Om de hadde senket lanseringsprisen på 7970, 7950, 7870 og 7850 hadde de ikke solgt flere kort, det var nemlig ikke flere kort å selge.

  • Liker 1
Lenke til kommentar

Har ikke AMD fikset mye av microstuttering (Iallefall på 7xxx serien) når CrossfireX i de par siste Catalyst driverne?

Ting har blitt mye bedre, men det er fortsatt milevis unna å være "fikset."

Jeg tror ærlig talt ikke microstutter kan elimineres så lenge Alternate Frame Rendering er i bruk, ihvertfall ikke uten å ha to frames bufret konstant på skjermkortet, som ærlig talt er rimelig uakseptabelt med mindre du har noe sånt som 500 fps.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...