Gå til innhold

NÅ: Nvidia har avduket GTX 1080!


Anbefalte innlegg

Videoannonse
Annonse

 

Nvidia har bare pleid å skrive "ASIC" uten å spesifisere at det er kvaliteten på ASIC'en det er snakk om.

 

Så da betyr altså ASIC her selve GPU chippen. Og høy ASIC betyr altså høyt binnede chips, om jeg forstår dette riktig?

 

Eksempelvis har Samsung kategorier for sine Exynos SoCer. De rater dem fra 1 til 15, der 15 er best (tror jeg). Så FE blir da 13-15 f.eks. 1-7 blir kastet, og 8-13 er 1080.  Som et eksempel. 13-15 er bedre når det kommer til volt, og vil kunne klokkes høyere.

Lenke til kommentar

 

 

 

 

 

 

 

 

 

 

Endelig kan 4k bli normalen.

 

 

 

 

 

 

Nei, vi må ha 120+hz 4k skjermer på markedet først!

Ellers så vet jeg at det er mange som ikkje synes 4k g-sync er verdt 9-10k heller enda.

 

4k er ikkje så kult enda.

 

 

 

- Misforstå meg rett, men jeg har fått intrykket av at G-Sync og Free-Sync var begge ment som en kompensasjon for manglende ytelse i den øvrige HW'en.

 

Jo svakere HW, desto større fortjeneste får man for å innvistere i en slik skjerm.

Som i mine øyne er ganske så bakvendt, ironisk nok.

 

Granted..., ting bør stå i still, for å si det på den måten.

Men istedenfor for å kjøpe en skjerm til 10k, så kanskje det er like greit å heller gå til innkjøp av et kraftigere skjermkort.

 

Med det sagt..., så synes jeg at det var modig av dem å komme med en slik påstand om at "GTX 1080" skal være istand til å servere 60-FPS i samtlige spill, ved Ultra-settings.

 

Jeg stiller meg i hvert fall letter skeptisk til den påstanden når det kommer til 4k-oppløsninger.

 

 

 

 

Hjelper lite med et bedre skjermkort hvis skjermen ikke klarer å henge med oppdateringsmessig. Gsync forhindrer som kjent "Tearing".

 

 

 

-Svak skjermkort vs kjapp skjerm, eller treg skjerm vs kraftig skjermkort.

 

G-Sync eller Free-Sync gir best utslag på eksempel 1, men ja...

Tearing er fortsatt et problem som vedvarer ved eksempel 2.

 

Uttrykket "I pose og sekk" passer ganske bra i forbindelse med G-Sync eller Free-Sync.

Slike skjermer kan ikke garantere deg 60-FPS, spesielt så lenge ikke skjermkortet er kraftig nok.

Men de kan forbedre bruker opplevelsen ved å gjevne ut avvikene.

 

Spørsmålet er om folk vil synes det er verdt pengene å betale en god del ekstra for en slik skjerm.

Free-Sync-skjermer er en god del billigere i motsettning til G-Sync-skjermer, men de er ikke direkte kompatible med G-Sync, så det er ikke ideelt å bruke dem sammen.

Lenke til kommentar

I utgangspunktet så forventer jeg som sagt en økning på 25% i ytelse på toppkortet , 5 til 15% på 1070 kortet dette kontra 980 ti , det store denne generasjonen er jo tross alt krympingen og langt høyere ytelse per watt som mange har påpekt.

 

Er usikker på hvor bra Amd kan konkurrere mot Nvidia sine kort , selv med lavere nm og høyere antall transistorer så kan dette bli et løp som Nvidia vinner og da tror jeg løpet er kjørt for Amd.

 

Med hver generasjon nye skjermkort, får jeg mer og mer en følelse av at Nvidia og AMD løper hvert sitt løp. Det tvinger seg jo frem til en viss grad, på samme måte som i CPU-markedet. Kan man ikke konkurrere på ren ytelse, får man satse på pris istedet.

Når det er sagt, skjønner jeg ikke hvorfor så mange her er pessimistiske til hva AMD kan få til med Polaris. Foreløpig har vi jo ingen konkrete ytelsestall å gå på derfra, kun vage sammenligninger og antydninger om at de har tenkt å fokusere på pris over ytelse.

 

Ikke det at jeg tror det har så mye å si til syvende og sist. AMD har i løpet av årene pådratt seg et slags underlig stigma om dårlige drivere, dårlig kjøling og dårlig alt mulig annet.

Samtidig er Nvidia flinkere til å markedsføre seg, og til å komme med ulike "ekstrafunksjoner" slik som Shadowplay og nå Ancel. Mer gimmick enn nyttig, men jeg tror uansett det går rett hjem hos dem som er den tiltenkte målgruppen.

 

Selv ligger jeg an til å kjøpe to nye high-end kort i nærmeste fremtid. Har ventet i over et år på "krympen" til 14 og 16 nm, og kommer ikke til å handle for en eneste krone før alle kortene er på bordet. Så da er det bare å vente på neste lansering.  :wee:

  • Liker 2
Lenke til kommentar

AMD har gått kjermpedårlig i mange år allerede nå. Tenk på hvor lite penger de har lagt ned i utvikling mot nVidia.

Jeg tror vi allerede kan avskrive dem, dessverre.

Det er ikke at de gjør det dårlig, men nVidia har rett og slett akselerert hardt de siste årene. Fremskrittene er store for hver generasjon.

Noen som vet om Volta blir første med ARM cpu på kortet for fysikk? Lurer på om man bør vente til da, selv om det sikkert er over 2 år til.

Lenke til kommentar

og til å komme med ulike "ekstrafunksjoner" slik som Shadowplay og nå Ancel. Mer gimmick enn nyttig, men jeg tror uansett det går rett hjem hos dem som er den tiltenkte målgruppen.

Er ikke uenig i helheten av innlegget ditt, men akkurat her er jeg veldig uenig. Shadowplay er en flott funksjon og gleder meg til Ancel også. Det er flotte verktøy for oss som vil ta vare på det som skjer i spillet. Selv om shadowplay er lossy er det en flott ting å ha. Akkurat som g-sync/freesync.

 

Shadowplay og snart Ancel er to store grunner for å sikte meg inn på Nvidia framfor AMD. Hvis ytelse er ganske lik så betaler jeg lett en forskjell på feks 500kr (tilfeldig tall) for å få disse funksjonene.

Lenke til kommentar

 

De sier at 1080 har dobbel ytelse av Titan X, men på grafen som viser "relative gaming performance" ligger Titan X på ca 3.6 mens 1080 ligger på ca 4.4. Hvordan får de dette til å bli 2x ytelse?

 

980 ligger på ca 2.6 på samme graf, så det er vel heller ikke her en dobling i ytelse til 1080.

 

Uansett imponerende ytelse, og det største hoppet på veldig lenge. Blir spennende å se hva AMD får til. Forhåpentligvis en konkurrent til 1070 ...

Fordi verken 1070 eller 1080 gir 2x ytelse i spill. Det eneste grafen til nVidia sier er at 1080 scorer 2x bedre per watt, enkel markedsføring som får hoppet til å høres langt større ut enn det faktisk er. Rart at ingen her har bemerket seg at ytelsen de måler i her er per watt og effektivitet. I stede går folk av skaftet og begynner å selge Maxwell kortene sine som hett hvetebrød, før vi i det heletatt har sett noen benchmarks. Og det er jo akuratt det nVidia ønsker, for da får de økt mersalg.

 

Intel gjorde det samme, Skylake hadde 40% mer ytelse enn Haswell-E, men det var per watt. Så det som derimot blir spennende er å se hvor bra 1070 og 1080 faktisk yter når vi får se noen skikkelige benchmarks.

 

 

Det faktisk noe å merke seg. Markedsføring er sleipe greier. 

  • Liker 1
Lenke til kommentar

AMD har gått kjermpedårlig i mange år allerede nå. Tenk på hvor lite penger de har lagt ned i utvikling mot nVidia.

Jeg tror vi allerede kan avskrive dem, dessverre.

Det er ikke at de gjør det dårlig, men nVidia har rett og slett akselerert hardt de siste årene. Fremskrittene er store for hver generasjon.

Noen som vet om Volta blir første med ARM cpu på kortet for fysikk? Lurer på om man bør vente til da, selv om det sikkert er over 2 år til.

 

Med lansering av Polaris 10 og 11 er jo det tydelig at AMD sikter seg inn på mellomsjiktet (GTX 1070 og nedover), hvis vi skal tro ryktene. Vi får vente og se om de i det hele tatt lanserer 490/490X denne sommeren. Men syns "avskrive AMD" blir en patetisk påstand. De største fremskrittene med Pascal står ikke Nvidia selv bak; det skyldes halvering prosessnoden, som tillater de å presse inn flere transistorer, og ny minneteknologi. Gevinster som AMD også kommer til å få med Polaris.

Lenke til kommentar

Dette er en paper launch, ingen kort er i butikkene enda. Usikker på hvordan folk er sikre på at AMD aldri kommer til å lansere kortene sine, når de faktisk fortsatt kan kommer Nvidia i forkjøpet.

 

Og hvis AMD lanserer 1070 og nedover så dekker de det aller meste av GPU markedet, og hvis Nvidia bare har 1070 der.....  da er det AMD som kommer til å vinne på det området.

Lenke til kommentar

En liten oppdatering til saken:

Nvidias referansedesign (avbildet) har tidligere blitt tatt av markedet kort tid etter lansering. Fra og med GTX 1000-serien ønsker Nvidia å fortsette og tilby sitt referansedesign for hele levetiden til serien, nå under navnet «Founders Edition». Nvidia endrer navnet fordi de  mener betegnelsen «referansedesign» ikke har stått i stil med arbeidet selskapet har lagt ned blant annet i utviklingen av det spesiele «Vapor»-kjølekammeret og byggkvaliteten. Founders Edition er ikke overklokket, og Pascal-brikkene på innsiden av det er ikke spesielt utvalgt (binned/cherry picked), slik som enkelte har spekulert i.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...