Gå til innhold

Nvidia utsetter DirectX 11-grafikk


Anbefalte innlegg

Det eneste som kanskje ikke er like koslig er å tenke på er at et Nvidia 9600GS danker ut et 4870x2 i folding ytelse. Setter varmeovnene dine litt i perspektiv iforhold til effektivitet på den fronten ;)

Merk at her snakker vi GPGPU. AMD sin arkitektur er elendig på effektivitet så lenge du ikke skal gjøre meget spesialisere matematiske operasjoner som for eksempel å multiplisere matriser. Peak-tallene AMD har i gigaflops er ganske langt unna hva som er vanlig å se.

 

Grunnen til at AMD gjør det dårlig i Foldig@Home er at de ikke har "shared memory" på samme måte som nVIDIA har. Trådene i programmet må dele data, og dette koster veldig mye på AMD kort.

 

Samme ser vi på OpenCL. Eldre kort en 4000-serie har ikke, og får ikke støtte for OpenCL, og ytelsen i mange OpenCL applikasjoner kommer til å være kastrert på 4000-serien. 5000-serien er heldigvis mye bedre.

 

Det blir spennende å se hva AMD velger å gjøre når de bytter ut R600-arkitekturen, og om de velger å gjøre dette på R900 allerede...

 

Var ikke ment for å rakke ned på ATI. Har et 4850 kort selv jeg og er strålende fornøyd med det. Men til F@H er disse kortene kort sagt elendige uansett modell. Defor har jeg bestillt meg et GTS 250 kort som skal ta seg av den biten noe som frigjør ATI kortet til det den gjør best. Spill ;)

Lenke til kommentar
Videoannonse
Annonse
Denne artikkelen inneholder ikke noen store nyheter, bare bekreftelse av gamle.

Første runde GT300 tapet ut i slutten av Juli, og hadde elendige yields når de kom tilbake i september, det var snakk under 2%. Totalt fikk nVidia tilbake 7 kort (tror jeg det var) som var funksjonelle fra produksjon, og det betydde heller ikke at alle var fullgode, bare at de virket.

 

Andre runde vet jeg ikke når tapet ut, men det var etter første kom tilbake.

nVidia har nå revidert spesifikasjonene på fermi fra 512 (16*32) streamprosessorer (SP) til 448, ned 2 clusters à 32 hver. Semiaccurate (må taes med en liten klype salt, men har vært ganske treffsikre rundt Fermi hittil) mener "Nvidia castrates Fermi to 448SPs. Unmanufacturable, hot and slow". De har allerede spådd at mengder av Fermi ikke vil treffe markedet før tidligst Q2 2010, og at det som kommer eventuelt før det er "cherry picks" fra batcher med lav yield.

Jepp, det er det som ryktene sier.

 

Men hvis det stemmer at de må redusere antall stream-prosessorer, så vil jeg tro det skyldes kvaliteten på brikken fremfor varmeutvikling, siden flere kjerner på lavere frekvens får lavere varmeutvikling enn ferre kjerner på høyere frekvens (gitt samme ytelse). Så det mest fornuftige vil være å redusere klokkefrekvens hvis varmeutviklingen er et problem (generelt sett). Derfor sår jeg altså tvil om dette.

 

 

<klipp>

Samme ser vi på OpenCL. Eldre kort en 4000-serie har ikke, og får ikke støtte for OpenCL, og ytelsen i mange OpenCL applikasjoner kommer til å være kastrert på 4000-serien. 5000-serien er heldigvis mye bedre.

 

Det blir spennende å se hva AMD velger å gjøre når de bytter ut R600-arkitekturen, og om de velger å gjøre dette på R900 allerede...

Jepp, OpenCL er ikke støttet på eldre serier enn "HD 4000"-serien. nVidia har hevdet de støttes helt ned på 8000-serien sin, dette skal jeg teste ut.

 

-----

 

Noe av det som jeg ser mest frem til med Fermi er hvilke spennende utvidelser nVidia har bakt inn i GPUen.

Endret av efikkan
Lenke til kommentar

GDI:

OpenCL og Stream med 5000 serien vil forandre det. Nye tider.

 

ATi:

Får håpe de også kommer ut med en HD5890 i løpet av mars. Jeg har i dag hentet 2stk HD5870 som skal gi meg mye spillglede i DX11 utover 2010. Samt at OpenCL og Stream vil gi mye GPGPU glede, i tillegg har man Direct Computing i DX11.

 

Forøvrig er dette ganske så artig

Dog ville jeg heller satt skjermene på høykant.

 

Slik som dette:

Skyver man den midterste skjermen litt frem og de andre litt bak så blir det mindre kanter også. Samt mer riktig spleising.

Endret av Theo343
Lenke til kommentar
Jeg ville ikke kjørt flere skjermer for å spille. Kanten mellom skjermene ville plaget meg veldig. Men de som virkelig er interessert i slikt kan slå til med en slik, jeg lurer på hvor stor nytteverdi en slik skjerm har, så jeg ville absolutt prøvd før jeg kjøper (om jeg ville kjøpt).

Mange av disse plasserer skjermene feil, om man setter noen foran eller bak blir kantene halvert og mindre synlig. Samt at grafikken spleiser mer korrekt. Bruker man LED skjermer i tillegg vil kantene bli minimale. Mange setter også for stor vinkel som gir en feilaktig surround effekt.

 

Personlig ville jeg ikke hatt skjermen du nevner da jeg heller ville kjørt 3x24" eller 3x30" på høykant for en mer brukelig gjengivelse av skjermbildet.

 

Ellers er det geniale med Eyefinity skrivebordsmiljøer (jeg har 3 skjermer på jobb) og evt. simulatorspill som FSX og andre lignende spill hvor man kan ha forskjellige elementer på forskjellige skjermer som kart, instrumentbord, statusskjermer mm.

 

På skrivebordsmiljøer gjør muligens Matrox kortene en bedre jobb med ulike oppløsninger osv.

Endret av Theo343
Lenke til kommentar

Hvis slike skjermer skal gi et "korrekt" bilde så må vel spillet være litt optimalisert for det, dvs projeksjonen.

 

Jeg kunne godt tenke meg å prøve et ordentlig oppsett for å se om jeg liker det, men frem til da stiller jeg meg kritisk til nytteverdien, og ville heller valgt én bedre skjerm og muligens bedre grafikk.

Lenke til kommentar

Nvidia fortjener å blø !! Etter at min brors laptop daua pga deres feilproduserte chip og etter at antakelig samme syndrom er nær ved å skje min egen har jeg ikke akkurat så mye til overs for dem..

 

De to eksemplene her er pga den mye omtalte nvidia tabba med inadekvat kjølings spesifikasjon og loddetinnsvikt .. :hmm:

Lenke til kommentar

@cocopara

Det er nok ikke løgn dette, NVIDIA selv har offentlig uttalt seg om problemer med for varm grafikk på bærbare. De har også sluppet en bios oppdatering som gjør at vifte hastigheten settes betydelig opp for og forhindre overoppheting. NVIDIA har også trukket tilbake flere bærbare etter mye problemer som ikke ble oppdaget før god tid i etterkant. Vi snakker om mange frustrerte forbrukere her. Jeg kan lett tro at Fjodorgrim er en av dem.. :)

Lenke til kommentar

dette er noe pc-produsentene helt klart bør klare å oppdage uten hjelp fra nvidia. de allerfleste vet at jo varmere en chip blir. jo kortere tid lever den. vanskligere å holde stabil. paradokset er helt klart at en varm chip trenger mere spenning for å holde samme frikvens som en kald chip.

min mening er at laptop kjøling er ganske dorlig konstruert. siden ikke vanlige folk kan ta ut støvet i kjølerne, uten å ta av hele bakplata.

 

helt erlig syntes jeg ikke nvidia fortente alt hetset. men de er vell delvis skyldig om de spesifiserte kjøling feil.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...