HKS Skrevet 19. februar 2013 Rapporter Del Skrevet 19. februar 2013 Hvorfor krymper de ikke transistorene fra 28 nm til 22/14 ?? syns grafikkortene er langt etter på det feltet...... 20nm er neste prosess for GPU'er, men vi kommer ikke til å se denne prosessen tilgjenglig i volum før 2014, iallefall ikke fra TSMC. 1 Lenke til kommentar
Artemis-Entreri Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Håper dere kan begynne å teste grafikkort i Nvidia Surround og AMD Eyefinity. Teste sånne kort på én skjerm er litt som å teste en Ferrari motor i en Suzuki FZ scooter. Gjerne med 3stk 1920x1080 skjermer som jeg regner med det er det mest aktuelle trippelskjermoppsettet for folk flest. 1 Lenke til kommentar
Nastro Azzurro Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Når prisen er så høy som den er har AMD fint liten grunn til bekymring for annet enn de som skal ha det beste uansett pris, Never Settle-kampanjen og bedre ytelse per krone gjør at AMD-kortene stort sett er førstevalget for alt av skjermkort under 3500 kr. I og med at AMD har en såpass mye dårligere merkevare så er det klart at de ser seg nødt til å konkurrere på pris. Lenke til kommentar
SVD Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Hvordan er AMD en dårligere merkevare enn nVidia? latterlig... Lenke til kommentar
Malvado Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 (endret) I og med at AMD har en såpass mye dårligere merkevare så er det klart at de ser seg nødt til å konkurrere på pris. Du bør være litt forsiktig med å komme med et slikt bombastisk utsagn når du ikke supplerer med fakta i form av linker som kan verifisere påstanden din (eller argumentere godt nok for ditt synspunkt). AMD sin merkevare er på ingen måte "dårligere" enn Nvidia, om noe har de ikke vært utsatt for de samme problemene som flere av Gpu'ene til Nvidia har hatt som feks 8xxx serien der en svært høy % døde før levetiden til kortet var over (9xxx og 2xx serien var også noe utsatt) , til en viss grad har Driverne hengt noe etter (spesielt da på Linux fronten) men dagens situasjon kan ikke sammenlignes med 5 - 10 år siden. Når det gjelder Titan gjenstår det fortsatt å se om dette blir et kort som virkelig slår an og om folk kommer til å gå amok og selge det de har for å få kjøpt seg et slikt kort, personlig tviler jeg litt på at Nvidia har planer om å lage svært mange av disse, det blir nok heller en ordentlig presse lansering og så vil man prøve å dekke i forhold til etterspørselen på etterskuddsvis. Endret 20. februar 2013 av Malvado 2 Lenke til kommentar
Pubé Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Får håpe AMD kommer med noe tilsvarende mtp. pris og ytelse. Lenke til kommentar
Legaz Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Jobber en del med 3D grafisk design i programmer der Cuda er er avgjørende for rendrerings hastigheten. Har i utgangspunktet et Gforce 580 1.5 GB som har 512 Cuda kjerner men tok spranget og sparket inn 5000 for et GTX 680 med 1500 Cuda og med en god del mer arbeidsminne. Det som Nvidia har gjort er å kappe funksjonalitet og redusert hastigheten i Cuda med 1/3, dette for å fremme de langt dyrere workstation kortene. Mitt 580 kort er betydelig raskere i 3D arbeid selv om det har 1000 Cuda kjerner færre. Denne diskusjonen har vært et gjennomgangs tema i mange forum og har vært en stor skuffelse for mange. Uttalelser fra Nvidia har vært totalt avvisende, det er gjort med fullt overlegg. 600 serien er nok flott for spill og Titan er sikkert en våt drøm for mange spill entusiaster, men for de som driver med grafikk vil jeg tro at ørten tusen Cuda kjerner blir møtt med skepsis... Lenke til kommentar
killertomato Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Vil dette være et godt kort for after effects og maya? Lenke til kommentar
Jassogitt Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Jobber en del med 3D grafisk design i programmer der Cuda er er avgjørende for rendrerings hastigheten. Har i utgangspunktet et Gforce 580 1.5 GB som har 512 Cuda kjerner men tok spranget og sparket inn 5000 for et GTX 680 med 1500 Cuda og med en god del mer arbeidsminne. Det som Nvidia har gjort er å kappe funksjonalitet og redusert hastigheten i Cuda med 1/3, dette for å fremme de langt dyrere workstation kortene. Mitt 580 kort er betydelig raskere i 3D arbeid selv om det har 1000 Cuda kjerner færre. Denne diskusjonen har vært et gjennomgangs tema i mange forum og har vært en stor skuffelse for mange. Uttalelser fra Nvidia har vært totalt avvisende, det er gjort med fullt overlegg. 600 serien er nok flott for spill og Titan er sikkert en våt drøm for mange spill entusiaster, men for de som driver med grafikk vil jeg tro at ørten tusen Cuda kjerner blir møtt med skepsis... Så vidt jeg har forstått, så har Titan en annen arkitektur (GK110) enn de andre 600-kortene (GK104), som er mye bedre når det gjelder compute. Folk snakker jo om at det er et billig Tesla-kort . Lenke til kommentar
N o r e n g Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Så vidt jeg har forstått, så har Titan en annen arkitektur (GK110) enn de andre 600-kortene (GK104), som er mye bedre når det gjelder compute. Folk snakker jo om at det er et billig Tesla-kort . Det er fordi Nvidia for første gang har sluppet et Geforce-kort med identisk FP64-ytelse som Tesla-varianten. Lenke til kommentar
Rusher Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 I og med at AMD har en såpass mye dårligere merkevare så er det klart at de ser seg nødt til å konkurrere på pris. Der dreit du deg loddrett ut gutt. Lenke til kommentar
Rusher Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Aleksander.dev skrev : Har nettopp testet dette med oppløsning 5760x1080 så må til for at FarCry3 skal bruke opptil 4gb. Når 3-4gb vram tas i bruk lagger spille som og gpuen sender ut fps i bølger. Dette er ikke pga av lav fps, har stabil fps på 60. Dette var ikke med SLI. Jo, det var akkurat det du forklarte uten å kanskje vite det selv(?) var problemet ditt tidligere. Lenke til kommentar
Gjest Slettet-Pqy3rC Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Der kommer bakplaten som man kjøper ekstra inn i bildet... Bakplate med vannføring ? Lenke til kommentar
xRun Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Vil dette være et godt kort for after effects og maya? Ut ifra de preview-artiklene jeg har lest om Titan, kan det se ut som vi endelig får den økningen i ytelse på compute som manglet på 600-serien. Sett med utgangspunkt i 400 og 500-serien var 600 en stor skuffelse på det området. Jeg og mange andre hoppet glatt over fordi ytelsen på compute ikke gikk opp overhodet. Blir spennende å se praktiske tester i morgen og de kommende ukene. Den relativt store minnemengden er også interessant. Lenke til kommentar
SoiRaM Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Gleder meg til å se skikkelige tester! Lenke til kommentar
JTBringe Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Og de med 120Hz 2D Sant men alle som har en 120hz skjerm bruker nok det for 3d, untatt de få top spillerene som er med og konkurerer i cs osv. Jeg har 120 hz skjerm, og jeg bruker aldri 3D. Kjøpte den primært sett for å få 120hz, siden det gjør at alt av spill ser mer smooth ut. Spesielt førstepersons-spill. Lenke til kommentar
ole a Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Jeg har 120 hz skjerm, og jeg bruker aldri 3D. Kjøpte den primært sett for å få 120hz, siden det gjør at alt av spill ser mer smooth ut. Spesielt førstepersons-spill. Jeg tviholdt på min gamle CRT helt til jeg fikk råd til en god 120hz flatskjerm, ene og alene pga cs 1.6 Men jeg setter også pris på den i andre spill, men kunne like greit hatt en Dell 24" UltraSharp U2410 lik den jeg sitter med nå på jobben. Lenke til kommentar
Aleksander.dev Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Jo, det var akkurat det du forklarte uten å kanskje vite det selv(?) var problemet ditt tidligere. Har et sli oppsett og tenkte at dete kanskje var årsaken, så took ut det ene og kjørte det alene. Problemet var der fremdeles! Lenke til kommentar
Aleksander.dev Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 (endret) Joona skrev 20. februar 2013 - 04:35: I og med at AMD har en såpass mye dårligere merkevare så er det klart at de ser seg nødt til å konkurrere på pris. Hehe:P Amd ligger kanskje litt bak med driverene sine. Men 7970 Kortet har vært formidabelt. Ikke vanskelig og se når du ser det slå 680 med glans! Samt prisen som ligger 500-1000 kroner lavere Hadde det ikke vært for at jeg har en nvidia 3d vision 2 monitor vil jeg aldri skaffet en 680 etter som det er et ran og kjøpe, spesielt etter som 670 ligger nesten på grensen med 680 at og 7970 slår det hands down. Gleder meg derfor sykt til og endelig få testet titan med 6gb. Se hvor mye vram som vill bli tatt i bruk ved 5760x1080 og 3d gaming. Tenker skyrim slik jeg har modifisert det(Extreme enthusiast version) vil nok på medium settings uten AA nå 6gb vram. Endret 20. februar 2013 av Aleksander.dev Lenke til kommentar
Taake89 Skrevet 20. februar 2013 Rapporter Del Skrevet 20. februar 2013 Joona skrev 20. februar 2013 - 04:35: I og med at AMD har en såpass mye dårligere merkevare så er det klart at de ser seg nødt til å konkurrere på pris. Hehe:P Amd ligger kanskje litt bak med driverene sine. Men 7970 Kortet har vært formidabelt. Ikke vanskelig og se når du ser det slå 680 med glans! Samt prisen som ligger 500-1000 kroner lavere Hadde det ikke vært for at jeg har en nvidia 3d vision 2 monitor vil jeg aldri skaffet en 680 etter som det er et ran og kjøpe, spesielt etter som 670 ligger nesten på grensen med 680 at og 7970 slår det hands down. Gleder meg derfor sykt til og endelig få testet titan med 6gb. Se hvor mye vram som vill bli tatt i bruk ved 5760x1080 og 3d gaming. Tenker skyrim slik jeg har modifisert det(Extreme enthusiast version) vil nok på medium settings uten AA nå 6gb vram. Link meg gjerne hvilke mods du tenker å kjøre da. Jeg kjører med 4k texture pack etc og med alt av settings på fullt så kommer jeg nesten opp i 2 gb vram. Med 2 ekstra skjermer så vil ikke vrambruken gå opp 200% btw. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå