Gå til innhold

Lanserer rått skjermkort for bærbare


Anbefalte innlegg

Videoannonse
Annonse

Hvordan greier du å telle kjerner ut fra det bildet? Og i så fall burde du kommet til 1120 per chip, ikke to, hvis det er en HD6990m- brikke som er avbildet.

Han mener nok dobbelGPU...

Ellers er jo dette et riktig monster av et kort, med tanke på at de ekstra kjernene gir en god del ekstra ytelse og klokkefrekvensen er såpass lav at strømforbruket ikke vil øke altfor mye fra HD 6970M. Veldig lurt av AMD å bruke Barts istedet for Cayman med tanke på ytelse/watt.

Lenke til kommentar

Bliver interessant å se den her GPU i aktion, til info, det er jo "bare" en "binned" 6870 Bart GPU som er clocked lidt ned. Personligt ville jeg aldrig eje en Gamer laptop, har det bra med et mid-range skjermkort. Men tror 6990M vil være det bedste valg hvis man skulle ha en gamer laptop, Fermi er stadig lidt for umoden til "low power"

Lenke til kommentar

Det nye mobile kortet er ikke et 2-GPU kort, men likevel presterer dere å bruke et bilde til artikkelen med 2 GPUer på.

hmm.gif

 

Den er rettet! Kjernen ble trolig lagt inn i bildet to ganger for å "fylle" det. Men, jeg skjønner jo nå at det kan bli litt missforståelser av slikt. Bildet er byttet nuh.

 

også bruker vist dere en GTX 580 for stasjonære i sammenligning med en mobil gpu :hmm:

 

Det var en klein feil, tydeligvis noe gammel kode fra en tidligere tabell som har hengt igjen. Jeg har oppdatert tabellen nå.

Endret av Nilsen
  • Liker 1
Lenke til kommentar

GTX 580M har ikke en kjernefrekvens på 1200MHz, eller 1500MHz minnefrekvens...

GF114 har også 32 ROPs, og jeg vil tippe at GTX 580M har det også.

 

Det er helt ok å ha riktig informasjon, om enn noe rart plassert, som et toppkort på skrivebordsfronten mot et toppkort i laptopfronten. Det er ikke ok å ha gal informasjon.

Lenke til kommentar

http://uk.geforce.com/hardware/notebook-gpus/geforce-gtx-580m/specifications

 

Minnefrekvensen er 1500 MHz, den effektive minnefrekvensen er imidlertid høyere, men det er ikke den tabellen omtaler i dette tilfellet (derav 900 MHz på AMD-kortene)

Hva er det du prøver å si egentlig? At 1500MHz fra Nvidia er effektivt 3000MHz pga quad data rate, og at 900 MHz fra AMD er effektivt 3600MHz?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...