Gå til innhold

Guide: Dette er AMDs nye skjermkort


Anbefalte innlegg

Må vell selge mitt 5870 og kjøpe meg 6970?

Må? Hvorfor?

 

Er oppgradering fra HD5850 til HD6870 verd pengene?

Nei, ikke med mindre du skal koble mer enn 3 skjermer til kortet. HD 5850 og HD 6870 vil trolig yte ganske likt så for ytelsens del er det ingen poeng å bruke en krone på et sånt bytte.

 

Jeg synes det virker som mange er mer interessert i å svi av penger de har til overs enn å faktisk få noe nytte ut av pengene. Oppgradere bare fordi det kommer nye navn i 40nm-serien, uten at det faktisk gir noe økt nytteverdi. Nærmest som en samlemani på tross av manglende behov.

 

Jeg synes det første man bør sjekke er hvorvidt man faktisk har behov for nytt skjermkort. Suger det gamle så mye i spill du har lyst til å spille at det kan forsvare et kjøp? Yter det gamle så godt at det nye ikke vil utgjøre noen praktisk forskjell?

 

Har man et Radeon HD 3850 eller geforce 6800 GTX og spill man har lyst til å kjøpe ikke vil duge bra på det gamle kortet så er det bare å fleske til. Men har man allerede god nok ytelse i f.eks HD 5870 på en 1920x1200 skjerm så er det ikke noe poeng.

Endret av Simen1
  • Liker 2
Lenke til kommentar
Videoannonse
Annonse
Raptor' date='22. oktober 2010 - 09:30' timestamp='1287732656' post='16368924']

(...)

Det vil også være trivielt å lansere kort med en SM (48 ALU) til aktivert på GF104 brikkene...

Det har vært sagt lenge, både med GF100 og GF104. 

 

 

Hvis det er trivielt hadde vel kortene vært her. Det må være noe som hindrer disse kortene fra å være lansert i dag. GF100 har kanskje effektforbruk som største hinder, men hvorfor er ikke GF104 her i dag med en SM ekstra?

 

 

 

 

 

 

 

 

Lenke til kommentar

Herlig! Håper det kommer like mange og fleksible tilkoblinger på de rimeligere kortene (6670).

 

Hvilke oppløsninger støttes via miniDP? (Med 1-6 skjermer)

 

Dette er viktig å ha i hodet at vi ikke snakker om en ny generasjon med skjermkort. HD 6000-serien er bare en optimalisering og effektivisering av kjernen som ble benyttet i HD 5000-kortene.

Sagt på en annen måte: En oppussing av 40nm-serien.

 

Dette er jo langt mer enn en oppussing, mer likt en renovering eller kanskje mer likt en trimming hvor man har byttet litt der hvor det var litt overflødig plass. De har jo også tatt tak i noen av de delene som det var behov for å fikse litt på (HDMI 1.4a, DP1.2, bedre videodekoding, bedre mipmapfiltrering f.eks)

 

Det de har fått til er langt mer effektiv DX11 på 40nm både med tanke på shadere, effektforbruk og transistorer. Og mdet passer jo veldig godt med en ny genrasjon, siden disse er mellomklasse og yter som forrige generasjons highend.

 

 

Lenke til kommentar

Hvis det er trivielt hadde vel kortene vært her. Det må være noe som hindrer disse kortene fra å være lansert i dag. GF100 har kanskje effektforbruk som største hinder, men hvorfor er ikke GF104 her i dag med en SM ekstra?

Fordi det er ikke behov for det. På samme måte som at G92 heller ikke ble lansert med alle SM'er aktivert.

Dagens GF104 kort klarer fint å holde følge med 6800-serien med fabrikkoverklokking, skal ikke se bort i fra at det kommer et kort basert på en høyere klokket GF104 brikke med alle SM'er aktivert for å ta over for GTX 470.

 

GF100 er en historie i seg selv med problemer med hensyn på layout av brikken, og vil nok bli erstattet av en ny brikke en eller annen gang imellom desember 2010 og februar 2011.

Lenke til kommentar

men hvorfor er ikke GF104 her i dag med en SM ekstra?

Fordi det ikke har vært nødvendig? GTX 460 har klart seg utmerket i det prissegmentet det har befunnet seg i (til nå), og Nvidia har hatt GF100 "vrakgods" å selge i form av GTX465 og 470. Kanskje de ville se hvilke kort AMD hadde på hånden for å vurdere om et slikt kort i det hele tatt var hensiktsmessig ut fra et helhets- og inntjeningsperspektiv?

 

En ting er i alle fall sikkert: Å skulle konkurrere med en 255mm^2 GPU @ $230 ved å prisdumpe en 530mm^2 GPU er ikke en levelig strategi for Nvidia i lengden. Men det er jo fint for oss forbrukere enn så lenge.

Lenke til kommentar

veldig bra artikkel!:)

 

dog vil jeg nevne at det er forskjell på "sendt" og "sent", "vært" og "hvert". Nemmelig er også noe jeg stusset over, kanskje fordi det er en muntlig uttryksform som ikke så ofte kommer på trykk... Men for en slik artikkel kan jeg svelge litt "muntlighet".

 

:thumbup:

Lenke til kommentar
Raptor' date='22. oktober 2010 - 11:17' timestamp='1287739020' post='16369184']

Hvis det er trivielt hadde vel kortene vært her. Det må være noe som hindrer disse kortene fra å være lansert i dag. GF100 har kanskje effektforbruk som største hinder, men hvorfor er ikke GF104 her i dag med en SM ekstra?

Fordi det er ikke behov for det. På samme måte som at G92 heller ikke ble lansert med alle SM'er aktivert.

Dagens GF104 kort klarer fint å holde følge med 6800-serien med fabrikkoverklokking, skal ikke se bort i fra at det kommer et kort basert på en høyere klokket GF104 brikke med alle SM'er aktivert for å ta over for GTX 470.

 

GF100 er en historie i seg selv med problemer med hensyn på layout av brikken, og vil nok bli erstattet av en ny brikke en eller annen gang imellom desember 2010 og februar 2011.

 

Jeg synes det høres veldig tvilsomt ut at det ikke var nødvendig. Tror at hvis de fleste GF104 brikkene har en ekstra SM på som virker på samme frekvens som i dag, så hadde vi sett dem i kort i dag. NVidia har jo tidligere likt å lansere slike kort når ATi har noe nytt, slik som GTX275 da HD4890 ble lansert, så det at ett slikt kort ikke er her i dag tror jeg har med at det ikke er trivielt å utføre. (og jeg synser veldig, for jeg kan ikke gjøre annet da jeg ikke har noe fakta utenom det som skrives i diverse artikler og forum)

 

Samme med ett godt overklokket GF104 som yter som en GTX470 er ikke det samme som en vanlig GTX460. Den har også ett effektforbruk som ett GTX470. Ikke det at det ikke er flott, og for den saks skyld liker jeg GF104, men ett overklokket kort tar også med seg bieffekter.

 

 

Lenke til kommentar
Gjest Slettet+3165

Skal HD 58x0 serien slutte å produseres?! Jeg som tenkte å kjøpe et ekstra 5850 og kjøre crossfire når de ble billige :(

De blir nok billige nå før de forsvinner ut av markedet til etter jul.

Lenke til kommentar
Hvilke oppløsninger støttes via miniDP? (Med 1-6 skjermer)

Jeg fant ut av det selv:

 

* Single monitor setup at 2560x1600

* Dual monitor setup at 2560x1600 per monitor

* Three monitors setup at 2560x1600 per monitor

* Six monitors setup at 1920x1080 per monitor

Kilde

 

Skal HD 58x0 serien slutte å produseres?! Jeg som tenkte å kjøpe et ekstra 5850 og kjøre crossfire når de ble billige :(

Du kan garantert gjøre knallkjøp på bruktmarkedet de neste par månedene. Folk i disse Radeon 6000-trådene har pratet om å selge sin "gamle" 5850 ned mot tusenlappen.

Lenke til kommentar
De blir nok billige nå før de forsvinner ut av markedet til etter jul.

 

Tipper de vil ligge ganske likt i pris, iom at de yter bedre enn 6850 og 70.

Jeg trodde man måtte ha like kort for å kjøre crossfire, men det er visst ikke noe problem å blande så da er jeg ikke like skuffet lenger :)

 

edit: Dette gjelder visst ikke for alle kort fant jeg ut. Noen som har noen formeninger om 5850+6870 i crossfire vil fungere?

Endret av TT88
Lenke til kommentar

Gode tester av kortene:

http://techpowerup.com/reviews/HIS/Radeon_HD_6870/

http://techpowerup.com/reviews/HIS/Radeon_HD_6850/

Legg merke til at HD 6870 støyer omtrent som HD 5870, mens HD 6850 støyer en del mer enn HD 5850.

 

Det ser ut som Komplett får inn de første eksemplarene i morgen. (på en lørdag??)

 

Men for de som er ute etter mer ytelse for pengene så yter GTX 470 bedre og koster mindre, i tillegg til at de kan kjøpes nå.

 

 

Hadde nVidia kunnet aktivere alle SM på omtrent alle eksemplar av GF104 så hadde de gjort det, nVidia har flere ganger før unnlatt å selge brikkene med alle SM aktivert. Vi vil sikkert se det samme når GTX 580 kommer i årsskiftet.

 

Jeg må si meg veldig skeptisk til det lille utblåsningshullet i de nye skjermkortene. Det er på tide at referansedesignene blir mer fornuftige i begge leire.

 

Angående bildekvalitet:

Enkelte funksjoner er så minimale at de nesten er unødvendige, andre er mer omfattende.
Ja hvilke funksjoner er det dere prater om her?

 

Trikset er hvor mange forskjellige effekter skjermkortet kan legge på og behandle, uten at det påvirker ytelsen i stor grad.
Vennligst forklar hva dette betyr.

 

Enkelte funksjoner gir deg en mye bedre bildekvalitet, uten at det påvirker ytelsen i en spesielt stor grad.
Hele poenget med tessellation er å generere ekstra vertices på direkten uten at disse tar opp plass i minnet, disse genereres ut fra et displacement map. Tessellation i seg selv gir ikke på magisk vis bedre grafikk, men det er en teknikk for å redusere behovet for minne, strengt tatt blir grafikken dårligere enn den fullt detaljerte 3D-modellen som kreves for å lage displacement map. Men det som gjør at Tessellation indirekte kan føre til bedre grafikk er at i kombinasjon med en smart LoD-algoritme kan skjermkortet klare seg med mindre minne, eller sagt på en annen måte, bedre grafikk per MB i minneforbruk. Det som hovedsaklig kan medføre "bedre ytelse" med tessellation er at objekter og terreng kan rendres med ferre detaljer i det fjerne pga. tessellation tillater sømløse overganger mellom detaljnivå, tidligere har dette gjerne vært løst ved å plassere overgangene så langt i det fjerne at de ikke har blitt serlig synlige, og dermed kastet bort mye regnekraft.

 

AMD har sent ut over 25 millioner DX11-produkter det siste året.
Ikke så veldig imponerende med tanke på at trolig over 80% av disse ikke er i stand til å dra en eneste DirectX11-tittel i en fornuftig oppløsning.

 

 

 

 

Fra slideshowet til AMD mener de at for høy tessellering kan medføre problemer for AA, nå har ikke jeg testet dette selv på desse kortene, men jeg har prøvd å rendre opp i 8 polygoner per piksel på mitt HD 4870 med 8x AA uten at det medfører grafiske feil. Hvis dette skaper problemer med tessellation på HD 6000-serien så er det en feil med skjermkortene, trolig i geometrien som komer ut av tessellatoren, selv om feilen kommer til syne i rasterizeren. Nå har ikke jeg sett problemet eller vært på presentasjonen der det ble forklart, så dere som har vært der gjerne forklar til meg hva AMD mener er problemet.

 

Men bare så det er sagt, jeg er fullstendig enig i at det er en forferdelig sløsing med ressurser å rendre såpass mye detaljer, men det skal ikke gi feil.

Lenke til kommentar
Raptor' date='22. oktober 2010 - 11:17' timestamp='1287739020' post='16369184']

Hvis det er trivielt hadde vel kortene vært her. Det må være noe som hindrer disse kortene fra å være lansert i dag. GF100 har kanskje effektforbruk som største hinder, men hvorfor er ikke GF104 her i dag med en SM ekstra?

Fordi det er ikke behov for det. På samme måte som at G92 heller ikke ble lansert med alle SM'er aktivert.

Dagens GF104 kort klarer fint å holde følge med 6800-serien med fabrikkoverklokking, skal ikke se bort i fra at det kommer et kort basert på en høyere klokket GF104 brikke med alle SM'er aktivert for å ta over for GTX 470.

 

GF100 er en historie i seg selv med problemer med hensyn på layout av brikken, og vil nok bli erstattet av en ny brikke en eller annen gang imellom desember 2010 og februar 2011.

Det der må være det dummeste jeg har hørt noensinne,ikke mulig at du trur på det der sjøl engang :cry:
Lenke til kommentar

Gode tester av kortene:

http://techpowerup.c...Radeon_HD_6870/

http://techpowerup.c...Radeon_HD_6850/

Legg merke til at HD 6870 støyer omtrent som HD 5870, mens HD 6850 støyer en del mer enn HD 5850.

 

Det ser ut som Komplett får inn de første eksemplarene i morgen. (på en lørdag??)

 

Men for de som er ute etter mer ytelse for pengene så yter GTX 470 bedre og koster mindre, i tillegg til at de kan kjøpes nå.

 

 

(...)

Har lest noen omtaler i dag, og har sett at støy varierer veldig. I en av dem var XFX sitt 6870 kort omtalt som at det støyet mye og hadde gitt respons på at de så på hva de kunne gjøre med firmware. (husker ikke hvilken omtale dette var fra) Så kan virke som man enten må lese og lete litt for å finne en stille variant. Eventuelt stille på vifteinnstillingene selv.

 

Og så er jeg enig i at de kunne gitt bedre utluftingshull, og heller gitt en ekstra brakett med muligheter for ekstra utganger.

 

 

 

 

 

Og fra testen du refererte til sier den at det 3% i forskjell på ytelse mellom GTX470 og HD6870. Så det betyr vel at det egentlig bare ligger ann til pris og merkepreferanser på hvilket kort man velger. På min oppløsning viser tabellen 1%(1920x1200) i forskjell.

Og angående det, er GTX470 fortsatt støymonstre eller har de fikset på det for lenge siden?

 

 

 

Lenke til kommentar

GTX 470 er et støymonster, men jeg heller likevel litt mot Nvidia pga. bedre eyecandy og rent over fjøla så synes jeg at de har bedre drivere.

Det blir spennende og se om de reduserer prisen på Zotac GTX 470 AMP!, for det er virkelig et kanonkort.

 

Er like rundt hjørnet for å oppgradere så er litt aktiv :)

 

 

NVidia har PhysX og 3D tingen(for de som liker det), men det er vel ikke mer forskjell (på eyecandy) enn dette?

Personlig så får jeg bare vondt i hodet av 3D med briller, så det er ikke helt min greie. Men bedre fysikk liker jeg. Men har to problemer, ene er at PhysX bare er for nVidia, og de lar meg ikke kjøre det på ett ekstra nVidia kort i maskinen hvis det er ett ATI kort der engang. Det andre er at det ofte ser ut som at når man først bruker PhysX, så tar man for hardt i. Er få spill som klarer det sånn midt i mellom, slik at det ligger bare subtilt i mellom og gjør opplevelsen bedre uten å ta bort oppmerksomhet fra det man faktisk gjør i spillet.

 

 

 

Lenke til kommentar

Gode tester av kortene:

http://techpowerup.com/reviews/HIS/Radeon_HD_6870/

http://techpowerup.com/reviews/HIS/Radeon_HD_6850/

Legg merke til at HD 6870 støyer omtrent som HD 5870, mens HD 6850 støyer en del mer enn HD 5850.

Faktisk ikke så verst idle-noise på 6870'en da, og det er idle som er viktigst for meg.

Denne testen har brukt HIS sine kort, men det ser ut som HIS bruker referanse-kjøleren. Så da går det vel an å anta at de andre modellene som er i salg nå har samme støynivå?

Lenke til kommentar
Er oppgradering fra HD5850 til HD6870 verd pengene?

Nei, ikke med mindre du skal koble mer enn 3 skjermer til kortet. HD 5850 og HD 6870 vil trolig yte ganske likt så for ytelsens del er det ingen poeng å bruke en krone på et sånt bytte.

 

 

Jeg kjører 3 skjermer på mitt HD5850 og synes til tider at det mangler litt ekstra, i tillegg så støyer det. Jeg ser at HD6870 holder en lavere temperatur noe jeg vil tro står ut på støyen, HD6870 har også litt bedre ytelse. Får jeg 1000,- for mitt kort, blir det 1000,- i mellomlegg til HD6870..

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...