Gå til innhold

RYKTE: «GeForce GTX 1185» kan bli arvtageren til GTX 1080


Anbefalte innlegg

Videoannonse
Annonse

Jeg skjønner ikke dette.. hvorfor gjøre det vanskelig? 1170 og 1180 burde jo være selvsagt om de andre skal hete 1160 1150 osv.

 

Med mindre 1160 og 1150 bare er rebrandet forrige generasjonskort. Det blir dog litt pussig, ettersom Nvidia ikke har gjort det enkelt å spotte rebranding før. Endret av nbmofo
Lenke til kommentar

Jeg venter fortsatt på at nvidia endelig skal være konsekvent, og gi de andre kort også navn etter saturns måner: GTX Titan V, GTX Rhea V (1080ti avtager), GTX Iapetus V(1080 +), GTX Dione V(1070 +), GTX Tethys V (1060+), GTX Enceladus V(1050ti+) og GTX Mimas V (1050). Men neida, nvidia vil ikke gå den åpenbare enkleste veien med navngivningen sin.

  • Liker 1
Lenke til kommentar

Man må vel snart ha nok regnekraft fra en slik dings, til at man kan kutte ut Intel og AMD CPU, og gjøre enklere dataarbeid uten dette fordyrende mellomleddet CPU? :hmm:

 

Det skal ganske mye koding for å få dette til, og det er uansett ikke i nærheten av ytelsen til en x86_64 CPU.

  • Liker 1
Lenke til kommentar

Her må jeg stille meg litt undrende til begeistringen til Journalisten "Uansett hva navnene blir, vet vi at kortene vil bli mye raskere enn de nåværende modellene"

Dette er tross alt mange forskjellige produkter og når Nvidia nå står så og si uten konkurrent trenger de ikke akkurat å lansere noe som er så "utrolig" mye sterkere enn toppkortene de allerede har, noe som også forsoner seg med krympingen som nå blir trolig gjort på produktene fra 14nm til 12nm ( https://www.tweaktown.com/news/58749/nvidia-ramps-up-12nm-production-next-gen-volta-gpus/index.html ).

Produktene som blir lansert vil bli både raskere og bedre enn 10xx serien med skjermkort, noen av toppkortene vil kanskje ha et ganske så stort ytelseløft, men de fleste kortene vil trolig ikke gå over maks 20 til 30% mer ytelse enn forrige generasjon ( min personlige antagelse ).

Men det vil være mer enn nok for å være kongen på haugen i hele 2018 da Amd trolig ikke vil komme med noe nytt om de ikke tar livet på gpu avdelingen i løpet av året da.

Lenke til kommentar

Her må jeg stille meg litt undrende til begeistringen til Journalisten "Uansett hva navnene blir, vet vi at kortene vil bli mye raskere enn de nåværende modellene"

Dette er tross alt mange forskjellige produkter og når Nvidia nå står så og si uten konkurrent trenger de ikke akkurat å lansere noe som er så "utrolig" mye sterkere enn toppkortene de allerede har, noe som også forsoner seg med krympingen som nå blir trolig gjort på produktene fra 14nm til 12nm ( https://www.tweaktown.com/news/58749/nvidia-ramps-up-12nm-production-next-gen-volta-gpus/index.html ).

 

Produktene som blir lansert vil bli både raskere og bedre enn 10xx serien med skjermkort, noen av toppkortene vil kanskje ha et ganske så stort ytelseløft, men de fleste kortene vil trolig ikke gå over maks 20 til 30% mer ytelse enn forrige generasjon ( min personlige antagelse ).

 

Men det vil være mer enn nok for å være kongen på haugen i hele 2018 da Amd trolig ikke vil komme med noe nytt om de ikke tar livet på gpu avdelingen i løpet av året da.

 

Mye raskere blir de ikke, det har du helt rett i.

Sammenlignet med hoppene man så ved overgang fra GeForce 1 til GeForce 2 vil man ikke få lengere, om man ikke sitter på kortene lengere og velger å hoppe over flere generasjoner.

Idag er dette det rette trekket å gjøre, tvinge produsentene til å lage skikkelige hopp før man investerer på nytt.

  • Liker 4
Lenke til kommentar

 

Mye raskere blir de ikke, det har du helt rett i.

Sammenlignet med hoppene man så ved overgang fra GeForce 1 til GeForce 2 vil man ikke få lengere, om man ikke sitter på kortene lengere og velger å hoppe over flere generasjoner.

Idag er dette det rette trekket å gjøre, tvinge produsentene til å lage skikkelige hopp før man investerer på nytt.

 

Enig, og det er jo det som blir kjipt for de som ønsker at det skal komme noe nytt og spennende på grafikkfronten, spesielt siden langt høyere ytelse på skjermkortene også betyr at man kan få implementert større endringer i grafikken raskere enn at man må vente 2-3 generasjoner til med skjermkort.

  • Liker 1
Lenke til kommentar

 

Her må jeg stille meg litt undrende til begeistringen til Journalisten "Uansett hva navnene blir, vet vi at kortene vil bli mye raskere enn de nåværende modellene"

...........................

Mye raskere blir de ikke, det har du helt rett i.

 

Det kommer vel helt an på hva man regner som "mye raskere".  [H] konkluderer med at Titan V er 30-40% raskere enn 1080 Ti, uten å være et spillorientert kort og uten å ha drivere optimaliserte for spill.  På det grunnlag tenker jeg at man i alle fall kan forvente en økning i ytelse på de samme 60%+ man så fra 980 Ti til 1080 Ti.  For meg er 60% i høyeste grad å anse som "mye raskere".

 

Problemet med å sammenligne med haugamle ting som GeForce 1 og 2 er at datakraft da var en distinkt mangelvare og enhver signifikant økning i ytelse var særdeles merkbar.  Det er ikke lengre tilfelle og har har ikke vært det på ganske lenge, unntatt for folk som må ha, bare må ha 120+ fps i 4K.

Lenke til kommentar

 

 

Her må jeg stille meg litt undrende til begeistringen til Journalisten "Uansett hva navnene blir, vet vi at kortene vil bli mye raskere enn de nåværende modellene"

...........................

Mye raskere blir de ikke, det har du helt rett i.

Det kommer vel helt an på hva man regner som "mye raskere". [H] konkluderer med at Titan V er 30-40% raskere enn 1080 Ti, uten å være et spillorientert kort og uten å ha drivere optimaliserte for spill. På det grunnlag tenker jeg at man i alle fall kan forvente en økning i ytelse på de samme 60%+ man så fra 980 Ti til 1080 Ti. For meg er 60% i høyeste grad å anse som "mye raskere".

 

Problemet med å sammenligne med haugamle ting som GeForce 1 og 2 er at datakraft da var en distinkt mangelvare og enhver signifikant økning i ytelse var særdeles merkbar. Det er ikke lengre tilfelle og har har ikke vært det på ganske lenge, unntatt for folk som må ha, bare må ha 120+ fps i 4K.

GeForce 1 til GeForce 2 med sine i beste fall 40% ytelsesøkning, se e.g. https://www.anandtech.com/show/537/13 , er jo ikke akkurat mye økning sammenliknet med siste generasjonshopp... nei, ikke alt var bedre i hardware verden før :D i cpu verden var forskjellen mye tydeligere før enn nå, men i grafikkkort verden har vi jo nesten hver generasjon fått mere enn forventet, bortsett fra i seriene mellom 4xx og 7xx, men det var jo stort sett basert på problemer med prosessforbedringer.
Lenke til kommentar

Som dere skriver så tviler også jeg på vi vil se 1175 TI. 1070 TI ble utelukkende lansert for å knekke seg forbi RX56, og ble vel sett på som en tullete lansering, gitt den relativt lave prisforskjellen til 1080. Nå skal det vel også sies at hvis nvidia kunne spådd cryptomine-kula så hadde de egentlig ikke trengt å lansere 1070 TI siden RX 56 kosta 4 lapper en kort periode, og så ble svindyr og nær umulig å oppdrive. I praksis var dermed RX 56 ingen 1070-killer, iallfall ikke i noen lang periode.

Lenke til kommentar

 

 

Mye raskere blir de ikke, det har du helt rett i.

Sammenlignet med hoppene man så ved overgang fra GeForce 1 til GeForce 2 vil man ikke få lengere, om man ikke sitter på kortene lengere og velger å hoppe over flere generasjoner.

Idag er dette det rette trekket å gjøre, tvinge produsentene til å lage skikkelige hopp før man investerer på nytt.

 

Enig, og det er jo det som blir kjipt for de som ønsker at det skal komme noe nytt og spennende på grafikkfronten, spesielt siden langt høyere ytelse på skjermkortene også betyr at man kan få implementert større endringer i grafikken raskere enn at man må vente 2-3 generasjoner til med skjermkort.

 

 

Synd AMD driter i å lage skjermkort, så vi kunne fått mer konkurrarnse.

Lenke til kommentar

nVidia gjør det ikke akkurat enkelt for AMD når dem bevisst sender folk til spillprodusenter for å optimalisere for nVidia-teknologi som er designet slik at det blir dårligere benchmark og eyecandy på AMD enn det trenger å være. AMD har jo en mye mer opensource tankegang hvor man prøver å lage en god ting for alle for at alle skal ha en god opplevelse. nVidia bruker markedsdominansen sin for alt det er verdt for å konkurrere ut AMD. Hvis dem lykkes der blir konsekvensen at prisen på nVidia kort kommer til å skyte i været. Så hvis man kan bruke en AMD-GPU så er jo det med på demokratisere markedet slik at man kan unngå institusjonell regulering gjennom konkurranselovgivning.

  • Liker 1
Lenke til kommentar

 

Man må vel snart ha nok regnekraft fra en slik dings, til at man kan kutte ut Intel og AMD CPU, og gjøre enklere dataarbeid uten dette fordyrende mellomleddet CPU? :hmm:

Det skal ganske mye koding for å få dette til, og det er uansett ikke i nærheten av ytelsen til en x86_64 CPU.

 

 

Ja, jeg vet at grafikkort er bedre til flyttallsberegninger og at arkitektur er noe forskjellig i fra CPU-er, men jeg synes likevel det er en litt besnærende tanke, hvor kraftige grafikkortene er blitt allerede i våre dager. Men, det hadde likevel vært artig med en teoretisk fortolkning av hvor mange CPU-år man må tilbake i tid med dagens Titan X-kort eksempelvis. Altså hvilken datamaskinkraft kunne man forventet av et slikt grafikkort?

Lenke til kommentar

 

 

Mye raskere blir de ikke, det har du helt rett i.

Sammenlignet med hoppene man så ved overgang fra GeForce 1 til GeForce 2 vil man ikke få lengere, om man ikke sitter på kortene lengere og velger å hoppe over flere generasjoner.

Idag er dette det rette trekket å gjøre, tvinge produsentene til å lage skikkelige hopp før man investerer på nytt.

 

Enig, og det er jo det som blir kjipt for de som ønsker at det skal komme noe nytt og spennende på grafikkfronten, spesielt siden langt høyere ytelse på skjermkortene også betyr at man kan få implementert større endringer i grafikken raskere enn at man må vente 2-3 generasjoner til med skjermkort.

 

 

Jeg synes en bør se 8K-kapable kort snart. Er i hvertfall på tide nå i disse 8K OL-tider som vi snart får se.

Lenke til kommentar

Det er jo litt morsomt at AMD til stadighet blir fremstilt nærmest som selve definisjonen på altruisme, mens Nvidia kun består av griske og grådige mennesker som omtrent ville flå skinnet av kundene sine om de kunne.

 

Hadde markedsposisjonene vært reversert ville AMD selvsagt tatt akkurat de samme grep som Nvidia har gjort og gjør.  Når de ikke gjør det er det helt enkelt fordi de ikke kan.  Jeg kan på ingen måte huske at ATI var spesielt preget av altruisme tilbake på tidlig 2000-tall i de (ikke veldig lange) periodene da de hadde overtaket på Nvidia.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...