Gå til innhold

Ny toppgrafikk fra AMD


Anbefalte innlegg

1 Jeg sitter fortsatt og venter på at 8XXX serien skal få støtte for Folding@home eller at de blir tatt i brukt mer seriøst av distributed computing.

 

2 Nvidia hadde jo en stor fokus på akkurat denne delen, men skuffende nok så har det ikke blitt noe mer av det.

 

3 Ser også ut som at markedsstrategien til Nvidia begynner å ligne på creative sin, blandt annet så har ikke 8xxx serien fått sluppet en offisiell driver siden December 19 (20 for vista), 2007 men Ati fortsatt slipper månedtlige oppdateringer som fortsatt er bakoverkompatibel.

1. Vel... Det er bare å sette seg ned å skrive en klient i CUDA det. Problemet er at den forsknings gruppen som har skrevet GPU-koden for ATI-kortene (med god hjelp av ATI) ikke har resurser til å skrive en egen versjon for nVIDIA. Det er nettopp dette som er et problem med GPGPU, koden er overhodet ikke portabel mellom arkitekturer. CUDA er under konstant utvikling, og blir støttet på mange plattformer. Siste inn i rekken er MacOS X. nVIDIA sin første kommersielle implementasjon for sluttbrukere blir CUDA interface for PhysX.

 

2. Anbefaler at du tar en ny titt på dette. Søk gjerne etter vitenskaplige artikler rundt CUDA. Ganske mye aktivitet der. Faktisk flere kommersielle implementasjoner også.

 

3. Siste offisielle driver fra nVIDIA for 8-serien er fra slutten av mars. Alle drivere som ligger på nVIDIA sine sider er offisielle.

 

1. Og det er nettop dette som er litt synd ikke sant? At nvidia ikke bruker litt ressurser på å sørge for at Folding@home eller andre applikasjoner som er populære blandt oss entusiaster kan kjøres med Cuda. Det var uansett veldig mye PR jargon, men som sagt sluttbrukeren har sett svært lite til dette. Du kan jo begynne å nevne et program I distributed computing (da tenker jeg igjen på prosjekter som boinc etc) som kjører Cuda.

Men, flott å se at det finnes kommersielle aktører som benytter seg av cuda i det minste.

 

2. Igjen så var det hovedsakelig programmer som vi som sluttbrukeren kan ta i bruk, for eksempel tallknusing for å finne pi eller andre offentlige forskningsprosjekter som er tilgjengelige for de som ønsker å donnere gpu / cpu tid.

 

3. En halv sannhet. Den siste Whql driveren som dukker opp når jeg bruker Nvidias sin egen drivervelger er som sagt den overnevnte og som er kompatibel med mitt kort. Her er den siste driveren forresten og som du kan se så står det med stor skrift BETA. Du som er beta tester vet like godt som meg at en beta driver kan ha bugs, være ufullstendig eller rett og slett skape problemer på pcen din. Hvordan du greier å kalle disse en offentlig driver som er ment for allment publikum er for meg et mysterium, selv om jeg personlig bruker "beta drivere" så er det ikke noe jeg anbefaler for uerfarne brukere.

Lenke til kommentar
Videoannonse
Annonse
3. En halv sannhet. Den siste Whql driveren som dukker opp når jeg bruker Nvidias sin egen drivervelger er som sagt den overnevnte og som er kompatibel med mitt kort. Her er den siste driveren forresten og som du kan se så står det med stor skrift BETA. Du som er beta tester vet like godt som meg at en beta driver kan ha bugs, være ufullstendig eller rett og slett skape problemer på pcen din. Hvordan du greier å kalle disse en offentlig driver som er ment for allment publikum er for meg et mysterium, selv om jeg personlig bruker "beta drivere" så er det ikke noe jeg anbefaler for uerfarne brukere.

WHQL er en gimmik som tar rundt 2 uker å få, og er verdt lite spør du meg.

nVIDIA bruker navnet "beta" på alle drivere som ikke er WHQL-sertifiserte. De burde vel kanskje kalt det "nVIDIA-sertifiserte". Alle driverene som nVIDIA legger ut kan sees på som offisielle.

 

Selv det du kaller "offentlig driver" er ofte ufullstendig og lager problemer på folks PC-er (ref. flere av årets Catalyst-drivere fra ATI, samt flere nVIDIA drivere opp igjennom årene)

 

Edit: Dette blir veldig off-topic, vi får heller ta denne diskusjonen et annet sted...

Endret av [GDI]Raptor
Lenke til kommentar
Liker ikke helt at ingen av GPU-produsentene kommer med noen nye brikker som ikke bare er evolusjon på de gamle.

Så det skulle komme nytt hele tiden? arkitekturen ati bruker nå har knapt fyllt år. Nvidia sin er kun litt eldre den også.

 

Hvorfor er alle så negative?

Fordi flesteparten her ikke skjønner at ingeniører ikke vokser på trær. Det er lettere å pusse på noe du allerede har/kan enn å finne opp hjulet på nytt.

Lenke til kommentar
Liker ikke helt at ingen av GPU-produsentene kommer med noen nye brikker som ikke bare er evolusjon på de gamle.

Så det skulle komme nytt hele tiden? arkitekturen ati bruker nå har knapt fyllt år. Nvidia sin er kun litt eldre den også.

 

Hvorfor er alle så negative?

Fordi de ikke kommer med nye design med samme rate som de gjorde tidligere. Kan ingenting om GPU-design, så det er vel gjerne dumt av meg å si noe :p.

Lenke til kommentar
Fordi de ikke kommer med nye design med samme rate som de gjorde tidligere. Kan ingenting om GPU-design, så det er vel gjerne dumt av meg å si noe :p.

ATi brukte DX9 arkitekturen sin fra Radeon 9700 til X1950, selv om det var en del større endringer med X1800. nVidia brukte sin DX8 arkitektur fra GeForce3 til FX5900, her var det en større endringer med FX5800. Og videre fra 6800 til 7950GX2. Så dette er ikke noe nytt.

Jeg tror nVidia brukte 5-6 år på G80, så det ville være enorme kostander og vanskelig å gjøre noe fortjeneste med å komme med helt nye design hver 12-18 månde.

Lenke til kommentar
Toppkort?

 

De spesifikasjonene imponerte vell ingen :(

 

 

Men til 2'500kroner blir det jo nok et godt kort når det kommer til pris / ytelse, men når det gjelder spesifikasjonene så virker det ikke som noe nytt "toppkort" for min del.

 

 

Viss ikke 3,8 ghz ram er imponerende så vet ikke jeg altså.

Lenke til kommentar
Viss ikke 3,8 ghz ram er imponerende så vet ikke jeg altså.

 

akkurat dette med Gddr5 ram er jeg litt skeptisk til.... hvis det er noe særlig ytelsesmessig og hente på minnet, hvorfor slippes ikke dagens top kort med Gddr4 da?

 

 

Toppkort?

 

De spesifikasjonene imponerte vell ingen

 

til den prisen (2500,-)er det nødt til og bli et topkort, hadde det ikke vært det hadde nok ikke ATI satt en annen pris på det.

 

hvis vi snakker 50-60 % over 3870 så blir det et topkort

Endret av leifeinar
Lenke til kommentar
Viss ikke 3,8 ghz ram er imponerende så vet ikke jeg altså.

 

akkurat dette med Gddr5 ram er jeg litt skeptisk til.... hvis det er noe særlig ytelsesmessig og hente på minnet, hvorfor slippes ikke dagens top kort med Gddr4 da?

En blanding av at GDDR3 er nok en del billigere og gir et greit kompromiss mellom ytelse og kostander for dagens GPU'er. Du finner dog 3870X2 med GDDR4 minne.

 

Et angivelig bilde av RV770 som har kommet ut:

post-6993-1209042283_thumb.jpg

Endret av MistaPi
Lenke til kommentar
Jeg kan bare ikke fatte all negativiten mot denne nye serien til AMD/ATI.

Joda, jeg kan forstå at AMD/ATI har hatt et par bommerter, men det er vel ikke dermed fastslått at neste serie blir dårlig?

 

endel ligger vel i at crysis er lagd for nivdia. ser gang på gang på forumet at folk går for nvidia istdet for ati akkurat pga crysis ytelse

Lenke til kommentar
Et angivelig bilde av RV770 som har kommet ut:

1 stk 6-pins PCIe-kontakt lover bra med tanke på varmeutvikling.

Dumt at de ikke byttet ut den siste elektrolyttkondensatoren med en faststoffkondensator. Jeg stoler mye mer på varigheten til sistnevnte.

 

Jeg stusser på et par ting:

- Hva brukes all den ledige plassen mellom minnebrikkene og spenningsregulatorene til?

- Er det GDDR5-teknikken som gjør at minnet kan plasseres så systematisk? (det ser ut som det er forskjellig signalavstand til GPUen)

- Har de droppet DVI-I til fordel for DVI-D? (det er så lite krimskrams rundt portene at jeg mistenker de har fjernet den analoge biten helt)

Lenke til kommentar
Jeg kan bare ikke fatte all negativiten mot denne nye serien til AMD/ATI.

Joda, jeg kan forstå at AMD/ATI har hatt et par bommerter, men det er vel ikke dermed fastslått at neste serie blir dårlig?

 

endel ligger vel i at crysis er lagd for nivdia. ser gang på gang på forumet at folk går for nvidia istdet for ati akkurat pga crysis ytelse

 

Men nå er det jo slik at nesten alle spill jeg spiller er "lagd for nVidia da", så det er jo et pluss for nVidia sine kort det syntes nå jeg.

 

Age of Conan er vell også endel av "nVIDIA, how it's meant to be played"

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...