Gå til innhold

AMD utsetter R700


Anbefalte innlegg

Videoannonse
Annonse
...

For det som Simen1 legger fram her er kjent fakta for dei fleste som følger med på skjermkort fronten.

Hva er kjent fakta for de som følger med på skjermkortfronten?

Forumet er et sted der man kan søke informasjon, og da er det naturlig å gi linker til sidene man selv henter informasjonen fra. Spesielt nå man kommenterer alle prisklasser, CF kontra SLI og støy i et innlegg.

Bildet er heller ikke så unyansert som at AMD er best for alle. Ikke alle ønsker CF eller SLI på grunn av drivertrøbbel, folk spiller ulike spill i ulik oppløsning, noen foretrekker det enkeltkortet som gir best ytelse osv.

Lenke til kommentar
eee..skulle ikke den være klar i q1 2007 eller noe..? sikket før også ^^

Hvor har du det fra? Kanskje du tenker på R600 som ble lansert midt i 2. kvartal?

 

AMD sliter veldig med dedikerte skjermkort for tiden, spesielt til entusiaster.

Hvor har du det fra?

I prisklassen 1000-1500 kr er Radeon HD 3800-serien et klart førstevalg uansett hovedkort.

I prisklassen 1500-2000 kr møter 3870 konkurranse fra 8800GT men kun dersom man takler et høyt støynivå. Er lavt støynivå viktig er 3870 et klart førstevalg.

I prisklassen 2000-3000 kr er 3800-serien i Crossfire et klart førstevalg så fremt man ikke har et hovedkort med Nvidia brikkesett. Crossfire-løsningen yter betydelig bedre enn det nvidia kan levere i samme prisklasse (ett enkelt 8800 GTS 512MB)

I prisklassen 3000-4500 kr er 3870 i Crossfire et godt valg til en lavere pris enn det geforce 8800 GTS 512MB, GTX og Ultra, samt 8800 GT i SLI kan tilby, sistnevnte fordi Crossfire skalerer bedre enn SLI. Nvidias GTX og Ultra sliter selv mot sin egen GTS 512MB.

I prisklassen 4500-6000 kr gir 8800 GTS 512MB/GTX SLI litt bedre ytelse enn Radeon 3870 i Crossfire, men er det verd å betale 1500-3000 kr mer for litt mer ytelse?

I prisklassen 6000 kr og oppover kan 8800 GTX/Ultra i SLI gi bedre ytelse enn 2 stk 3870 i Crossfire, men det stiller desto svakere mot 4 stk 3870 i Crossfire. For 6000 kr får man 4 stk 3870 i Crossfire, mens man må ut med hele 9000 kr for 2 stk 8800 Ultra i SLI. Nok en gang gir AMD mest grafikkytelse for pengene.

 

Når det gjelder 1. halvår av 2008 så vil både AMD og Nvidia heve lista et hakk når begge lanserer sine X2-løsninger. Det er skjermkort med 2 GPU'er på ett kort. Nvidia øker lista til 3 skjermkort per hovedkort så da vil de som tørker seg bak med pengesedler få valget mellom 6 Nvidia-GPU'er i SLI vs. 8 AMD-GPU'er i Crossfire. Det kan jo bli en spennende kamp.

 

Radeon-HD3870-X2,6-K-58556-3.jpg

 

I 2. halvår 2008 blir det spennende å se om Nvidia rykker i fra eller om både Nvidia og AMD rykker fremover. (AMD med nye versjoner av R6xx-serien)

 

Konklusjon: AMD sliter på ingen måte i konkurransen om dedikert grafikk for tida.

 

Jobbet 3mnd nå i strekk, og har spart opp lit cash til ny pc :cool: Jeg håper virkelig HD3870x2 kortene gjør det bra i tester og at driverne blir gode. Har aldri hatt ATI grafikkort før, men dersom kortene gjør det bra ser jeg ingen grunn for å ikke kjøpe et eller to av de :D De ser jo helt råe ut også da :p

 

btw; disse kortene har nok ikke mulighet for CF med 4 kort. kun 1 CF kontakt per kort :hmm:

 

Hiss

Lenke til kommentar
AMD sliter veldig med dedikerte skjermkort for

I prisklassen 4500-6000 kr gir 8800 GTS 512MB/GTX SLI litt bedre ytelse enn Radeon 3870 i Crossfire, men er det verd å betale 1500-3000 kr mer for litt mer ytelse?

I prisklassen 6000 kr og oppover kan 8800 GTX/Ultra i SLI gi bedre ytelse enn 2 stk 3870 i Crossfire, men det stiller desto svakere mot 4 stk 3870 i Crossfire. For 6000 kr får man 4 stk 3870 i Crossfire, mens man må ut med hele 9000 kr for 2 stk 8800 Ultra i SLI. Nok en gang gir AMD mest grafikkytelse for pengene.

 

:hmm:

 

 

- 8800GT danker også ut HD 3870, og det samme gjør 8800GT i SLI mot Hd 3870 i Crossfire. (de tar naturligvis ledelsen litt om hverandre pga drivere i SLI/CF, men totalt sett så går seieren med grei margin til 8800GT i SLI)

ivhertfall ifølge denne testen: http://www.bit-tech.net/hardware/2007/11/3...adeon_hd_3870/1

 

- 8800GT i SLI koster 3122kr, HD 3870 i CF koster 3008kr. med andre ord så gir faktisk Nvidia mest for pengene i denne situasjonen. Det er naturligvis ikke noe veldig utvalgt av spill, men er de tyngste av dem, og kanskje de "viktigste".

 

En negativ ting til HD 3870 er at det fortsatt er skuffende at ATI ikke har fått opp noen særlig/overhode driverstøtte til CF i WIC og Crysis, der det virkelig trengs. HD 3870 er dual-slot og i CF så kan det bli trangt om plassen om man har lydkort osv.. ekstra, men bråker da også mindre. (dette blir da en smaksak)

Sammenlagt så ville jeg ikke sagt at ATI skallerer noe bedre i Crossfire.

 

8800GTS 512MB gir naturligvis enda bedre ytelse i SLI.

 

4x HD 3870 kan nok være intressangt og må si at jeg ikke har sett stort av tester fra den fronten så det skal jeg ikke si noe om, men jeg ville TRO at 8800GTX/Ultra ga bedre ytelse i trippel-SLI.

For Tre veis SLI fungerer vel da som "super high,end", som med f. eks 3stk 8800GTX danker ut det meste på markedet ville jeg tro, både i høypris og ytelse. Bortsett fra Ultra naturligvis. (10 000kr dog)

Har altså ATI kommet ut med hovedkort (og drivere) rent offisielt som støtter "Quad-crossfire", og som man kan oppdrive i Norge?

 

Edit: Dette er da som sagt det jeg har fått inntrykk av på de testene (se link ovenfor) jeg har sett som inneholder ganske aktuelle spill. Ta gjerne innlegget litt spørrende, og ikke som noe bastant svar. :)

(har ikke orket å sjekke side opp og ned)

 

 

Uansett så er det veldig synd om R700 blir utsatt. :(

Endret av andrull
Lenke til kommentar
Jeg ser ikke noe umiddelbart behov for det annet enn i kombinasjon med 30" skjerm. Har man 24" så kan man jo alltids redusere AA/AF i det/de aller mest krevende spillene og man har fortsatt en knallbra spillmaskin selv med ett eneste geforce 8800 GT (~1600 kr) eller et par HD 3850. (~2300 kr).

Du har tydligvis ikke spilt Crysis så mye. Trenger absolutt ikke 30" skjerm og 2560x1600 for at dette spillet skal være krevende! Selv 1600x1200 uten AA og AF og detaljer satt til High presser 8800GTX så det holder!

 

Så jo det er ett umiddelbart behov for raskere GPU'er om man ønsker seg bedre ytelse i f.eks Crysis.

Lenke til kommentar

Det var for noen aar tilbake selvsagt at gamere og selv-byggere valgte amd prosessorer.

Men de siste aarene har Intel vaert overlegne baade mhp paa pris og hastighet.

 

Det samme luktes naa aa skje paa skjermkortfronten etter at amd kjoepte ati hvor Nvidia naa er minst tre hestehoder foran...

 

AMD sliter virkelig for tiden baade paa cpu og gpu fronten. Forsinkelser og ytelsestap til baade Intel og Nvidia. Hvis dette gaar riktig ille saa faller hele amd butikken og det vil ganske kortsiktig ikke gjoere oss entusiaster godt....

 

Hilsen Selvbygger 4 aar siden AMD og ATI

Hilsen Selvbygger i dag Intel og Nvidia

Endret av maypenray
Lenke til kommentar
En negativ ting til HD 3870 er at det fortsatt er skuffende at ATI ikke har fått opp noen særlig/overhode driverstøtte til CF i WIC og Crysis, der det virkelig trengs. HD 3870 er dual-slot og i CF så kan det bli trangt om plassen om man har lydkort osv.. ekstra, men bråker da også mindre. (dette blir da en smaksak)

Sammenlagt så ville jeg ikke sagt at ATI skallerer noe bedre i Crossfire.

 

4x HD 3870 kan nok være intressangt og må si at jeg ikke har sett stort av tester fra den fronten så det skal jeg ikke si noe om, men jeg ville TRO at 8800GTX/Ultra ga bedre ytelse i trippel-SLI.

Dette koker også ned til at hvor effektivt SLI og Crossfire kommer til å være også kommer til å komme an på hvor bra applikasjonen skalerer. Langt i fra alt avhenger av driverene fra nVidia og AMD/ATi.

 

4xCF og Tri-SLi vil slite enda mer med dette.

 

DX9 har også en begrensning som gjør at grafikkortene kun kan prerendre 3 frames.... Dette gjør ikke saken noe bedre.

 

Når det gjelder Crysis så kommer det snart en patch der som vil forbedre grafikkytelse både på ATi og nVidia kort, også med flere GPU'er. Grafikkmotoren til Crysis bærer vist preg av å være "made in hurry" for å få ut spillet. nVidia bruker og har brukt ganske mye ressurser på å hjelpe de med optimaliseringer (Crysis er et "The Way it's meant to be played" spill)

Endret av [GDI]Raptor
Lenke til kommentar
maypenray: Jeg mener du trekker alt for tynne konklusjoner. Les oversikten jeg skrev her.

Du sliter også med tynne konklusjoner, siden du kan påstå at AMD ikke sliter mhp dedikert grafikk uten å ha et eneste salgstall å vise til. Man kan tidligst si noe om dette når regnskapet for Q4 2008 foreligger. Det vi vet er at 8800GT blir revet bort, mens det finnes haugevis av HD3850/3870 på lager. Men jeg sier ikke at dette behøver å bety så mye, Nvidia kan ha produksjonsproblemer for det jeg vet.

 

De fleste er enige i at HD38xx er meget bra kort. Det er ikke nødvendig å ty til halvsannheter eller direkte feilinformasjon for å få dem til å se bedre ut.

Lenke til kommentar

Jeg synes det begynner å bli ganske latterlig mellom Nvidia / ATi

 

For det første går utviklingen for fort i den grad at de kunne tjent mer pr kort/ Gpu

 

For det andre går utviklingen for tregt / rart i forhold til grafikken noen av de nyeste spillene har

 

De har så dårlig teknologi at for og henge med i spillutviklingen/Skjermkorttronen må de begynne med 3x og 4x støtte for skjermkort. Jeg mener heller doble /triple/Quad Gpuer er veien og gå en og sitte med en flyturbin uten like.

 

Jeg mener at 2x skjermkort er greit, mer blir bare latterlig. Ikke minst for all plassen disse kortene tar i 3x /4x oppsett. Dette hadde tatt seg bedre ut om skjermkortene hadde vært mer kompakte, noe som aldri har vært tilfelle ( Vi har seff vifteløse løsninger fra visse produsenter)

 

Og når jeg sier latterlig mener jeg på ingen måte det gir noe dårlig ytelse å ha slike oppsett :)

 

Bare litt vel Overkill.

Endret av =Iko=
Lenke til kommentar

Jeg hadde betalt 6000 - 9000 for fks et Double/quad gpu en 4x kort til samme pris. Så er ikke prisen det skal stå på i dette tilfellet

 

Men 3x - 4x kort tar mye plass , lager 3 ganger mer bråk .

 

Derfor lurer jeg fælt på hvorfor de ikke går samme vei som Amd/Intel gjør med sine cpuer. Må da gå ann og presse flere kjerner sammen på et skjermkort også?

Endret av =Iko=
Lenke til kommentar

Iko: Grunnen er at flere skjermkort løser tekniske problemer som man ikke får løst med ett enkelt skjermkort:

- Med varmekildene ganske langt fra hverandre får man kjølt de bedre enn om de sto på det samme kortet.

- Det er teknisk vanskelig å lage kretskort med 10-12 lag, noe toppkortene har. Hvis man skulle plassert flere GPU'er på det samme kortet så ville man også trengt plass til tilhørende minne og baner på kretskortet til dette minnet. Hvis man dobler antall GPUer på et kort så må man sannsynligvis både øke lengden med ca 50% og øke antall lag til rundt 16-18.

- Spenningsforsyning. Det er vanskelig nok å forsyne toppkortene i dag med 140-180W via spesielle plugger og et betydelig område av skjermkortet til spenningsregulatorer. Skulle man hatt to GPUer på 150W hver på et skjermkort måtte man doblet arealet til spenningsregulatorer og krevd 3-5 plugger med strømtilførsel.

- For å kjøle to GPUer på 150W fra ett kort måtte man økt størrelsen på kjøleren betydelig. Kanskje så mye at den tar opp 3-4 kortplasser.

- Hvis man øker antall GPU'er uten å øke mengden minnekanaler (=bredden på minnebussen) samtidig så vil man ikke få bedre ytelse i høye oppløsninger fordi minnebussen blir en trang flaskehals. Det ville nok kunne gjort skjermkortet litt mindre men hva er vitsen med to GPU'er om det ikke gir høyere ytelse der man trenger det mest: i høye oppløsninger?

 

3 kort lager ikke 3 ganger så mye støy som ett kort. Det er snakk om rundt 4,5 dB mer støy. (Dobling av antall like støykilder gir en økning i støynivået på 3dB)

 

Men hovedproblemet sånn jeg ser det er det enorme effektforbruket. Dersom de fikk hver GPU ned til f.eks 25-50W så ville det straks blitt langt bedre med flere skjermkort. De klarer fint å lage slike GPU'er ved å klokke de litt ned og senke spenningen. Det er nettopp det de gjør med GPUene som skal selges for bruk i bærbare PCer.

 

Et annet problem er at vifter på plasseres parallellt med kortet og ikke kan plasseres på tvers siden det tar for mye plass. Hvis PCer hadde vært konstruert på en annen måte kunne man redusert plassen kjøleløsningen tar eller utnyttet plassen bedre.

Lenke til kommentar

Nå trengs vel heller ikke "dobbelkjerne" på GPUer i samme grad som man gjør på CPU fronten. En CPU gjør mange beregninger, og hver kjerne kan kun gjøre en ting om gnagen, og kan derfor tjene mye på å få flere kjerner, slik at den kan gjøre flere ting om gangen.

 

En GPU derimot er allerede massivt Multithreaded, og har derfor ikke den samme begrensningen. To kjerner ville bare ført til at du sitter med en flaksehals på kommunikasjonen mellom de eller lignende.

 

Da er det bedre med flere shadere/transistorer og en enkelt kjerne.

Problemet blir som Simen1 Sier, varmeutviklingen. For å få ned varmeutviklingne trenger man lavere produksjonesteknikk, og eventuelt utelukke/forminske andre flaskehalser som f. eks bredere minnebuss.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...