Gå til innhold

Nvidias nye Pascal-grafikkbrikke har 17 mrd transistorer


Anbefalte innlegg

Videoannonse
Annonse

Til neste år når Oculus Rift er kommet ut. Samt Nvidia med 16nm. Og Intel med sin nye CPU serie... Da skal det bygges ny PC som kommer til å bli helt latterlig syk.

 

2016 kommer til å bli heftig som fyyy. 

 

Spørsmålet er om du trenger all kraften til noe, selv med Oculus Rift ;)

 

Selv la jeg akkurat ut 5 laken for et GTX980, så jeg håper det holder en stund...

  • Liker 1
Lenke til kommentar

 

Er det noen sjanse for at man får mellomsegment eller budsjettmodeller av disse snarest?

Ikke før 2016 nei.

 

 

Men hva er vanlig praksis?

 

At det skjer i 2016 sier jo artikkelen, så det var vel ikke særlig vits å nevne.

 

Jeg tenker på hvor snart etter toppmodellen, pleier de rimeligere kortene å ligge i butikkhyllene/webshops?

Lenke til kommentar

 

Spørsmålet er om du trenger all kraften til noe, selv med Oculus Rift ;)

 

Selv la jeg akkurat ut 5 laken for et GTX980, så jeg håper det holder en stund...

 

 

For min del så blir det da 3440*1440 eller 3840*2160 oppløsning så jeg vil nok trenge all kraften jeg kan få. Og Oculus Rift vil nok kreve sitt om en vil ha så bra grafikk som mulig. 

Lenke til kommentar

Til neste år når Oculus Rift er kommet ut. Samt Nvidia med 16nm. Og Intel med sin nye CPU serie... Da skal det bygges ny PC som kommer til å bli helt latterlig syk.

 

2016 kommer til å bli heftig som fyyy. 

 

Hva får seg til å tro att Intel gidder å lage noe heftig med null konkurranske på markedet? Er jo bare å se hvor stille alt har stått de siste årene..

Endret av Simkin
Lenke til kommentar

Hva får seg til å tro att Intel gidder å lage heftig med null konkurranske på markedet? Er jo bare å se hvor stille alt har stått de siste årene..

Morsomt å se folk som ikke vet hva de snakker om! :)

 

Hva har skjedd med strømforbruket på Intel prosessorer de siste årene? Har alt stått stille?

 

Selv om prosessorene ikke har blitt veldig mye raskere når man ser på single threaded ytelse så betyr ikke det at markedet har stått stille. Intel sine store kunder (Dell, Apple, HP, Lenovo etc.) ønsker bedre ytelse per watt slik at de kan begge stadig kraftigere maskiner som er tynnere og lettere. Det er dette markedet etterspør. Desktop er utdøende.

 

Det som derimot etterspør ytelse er workstation og servere (Xeon), og der kan jeg love deg at ting ikke står stille, og det kommer det heller ikke til å gjøre de neste årene.

  • Liker 2
Lenke til kommentar
 

Men hva er vanlig praksis?

 

At det skjer i 2016 sier jo artikkelen, så det var vel ikke særlig vits å nevne.

 

Jeg tenker på hvor snart etter toppmodellen, pleier de rimeligere kortene å ligge i butikkhyllene/webshops?

GTX 750 ble lansert i februar 2014, i motsetning til 780 som ble lansert i mai 2013. 780 Ti kom i november 2013. Likevel er jo GTX 750 det første Maxwell kortet, og kom før noen av kortene i 900-serien. En stund tidligere. Det er jo som regel lettere å få til modeller med lav ytelse enn høy ytelse tidlig. Se bare på Intel sin Broadwell launch. De første produktene som kom var Core-M med 5W TDP, så kom 15W TDP CPUer litt senere. Det var ikke før sommeren de kom med de kraftigste versjonene av CPUer, men selv da toppet de på 66W tror jeg. Det er lavere enn Haswell/DC K-versjonene av CPUer. Det er jo de nye C-CPUene som er toppmodellene for Broadwell og disse er i5/i7 CPUer som er klokket lavere, og klarer ikke å overklokke opp til nivåene du får med Haswell i5/i7.

 

Så jeg ville tippet billig/budsjett før de råeste toppmodellene, eller muligens en tilnærmet samtidig release. Litt mer usikker på AMD, da de har massevis med rebranda kort, som de har dratt med seg lenge. Vil likevel tippe at de ikke klarer å konkurrere på noen som helst måte hvis de ikke gjør det. Strømforbruket vs NVIDIA er allerede i høyeste laget, så de vil nok gjøre alt de kan for å få alt på 14/16 nm de også.

Endret av TKongen
  • Liker 1
Lenke til kommentar

 

Hva får seg til å tro att Intel gidder å lage heftig med null konkurranske på markedet? Er jo bare å se hvor stille alt har stått de siste årene..

Morsomt å se folk som ikke vet hva de snakker om! :)

 

Hva har skjedd med strømforbruket på Intel prosessorer de siste årene? Har alt stått stille?

 

Selv om prosessorene ikke har blitt veldig mye raskere når man ser på single threaded ytelse så betyr ikke det at markedet har stått stille. Intel sine store kunder (Dell, Apple, HP, Lenovo etc.) ønsker bedre ytelse per watt slik at de kan begge stadig kraftigere maskiner som er tynnere og lettere. Det er dette markedet etterspør. Desktop er utdøende.

 

Det som derimot etterspør ytelse er workstation og servere (Xeon), og der kan jeg love deg at ting ikke står stille, og det kommer det heller ikke til å gjøre de neste årene.

 

 

Strømforbruk ja...  :closedeyes:  Hadde ting sett sånn ut idag om Intel hadde hadde sterk konkurranse? Jeg bare spør.

 

Ikke mye spennende har skjedd siden jeg hadde min 2600K og 3930K, sett bortsett fra 8 kjerner da til over 10.000kr.

 

Men for all del, om du mener ting går i expressfart fremover så be my guest :)

 

Hva har min 5930K eller 5960X å stille opp med mot en 3930K rent ytelsesmessig? Hvor stor forskjell er det egentlig? Eller for å ta 2600k vs 4790K? Mye forskjell?

Endret av Simkin
Lenke til kommentar

 

Strømforbruk ja...  :closedeyes:  Hadde ting sett sånn ut idag om Intel hadde hadde sterk konkurranse? Jeg bare spør.

 

Ikke mye spennende har skjedd siden jeg hadde min 2600k og 3930K, sett bortsett fra 8 kjerner da til over 10.000kr.

 

Men for all del, om du mener ting går i expressfart fremover så be my guest :)

 

Hva har min 5930K eller 5960X å stille opp med mot en 3930K rent ytelsesmessig? Hvor stor forskjell er det egentlig? Eller for å ta 2600k vs 4790K? Mye forskjell?

 

Hvorfor kjøper du da nye Intel prossesorer, hvis du selv mener ytelsesforskjellen er liten, og at det ikke går fremover?

 

Det er vel av den grunn pc-salget har gått i dass også. Lite strøm er bra, men tidligere fikk man mange ganger ytelsen for hver prosessorgenerasjon.

Når alle gikk over til å anbefale i5 over i7 for noen generasjoner siden, fordi i5 var raskere enn de andre komponentene du hadde likevel, så forsvant og den store grunnen til å øke ytelse. 

 

I de aller aller fleste spill vil en i3 sammen med et toppkort (som GTX 980 Ti) gi 80% av ytelsen sammenlignet med i5/i7. Hadde vi sett store ytelsesforbedringer hadde altså en i3 i dag vært nok til så godt som alle spill. Poenget med å gå for en i7 hadde bare blitt enda mindre. Det er rett og slett ikke bruk for kraftigere CPUer slik som forbrukermarkedet er i dag.

 

Ellers er det stort sett bærbare som har gått ned. Her er faktor nr. 1 for å overleve effektivitet. PC taper terreng til nettbrett/mobiler osv som er på ARM arkitektur med svært lavt strømforbruk. Det er her Intel må konkurrere i fremtiden. Det å få CPUene til å bruke mindre strøm er det beste de kan gjøre for å selge mye.

Lenke til kommentar

Strømgjerrige prosessorerer er bra (for både laptoper og mediapc'er; slik at man slipper viftestøy). Men driver man med prosessorkrevende oppgaver er det ingen tvil om at det er ønsket med forbedringer mellom generasjonene også på dette området (mindre behov for kjøling er jo en gevinst, og ikke minst redusert strømforbruk; men i Norge koster strøm ingenting... så med mindre man har et gigantisk server-senter betyr dette veldig lite for flertallet). For stasjonærmaskiner blir verdien kort og greit for liten med å oppdatere hver gang; dette medfører selvsagt til redusert salg for alle som tidligere oppdaterte prosessor/hovedkort hvert eller annenhvert år. Laptop markedet har økt, men det begynner å si stopp der også; har selv en macbook pro 15" retina med relativt heftig quadcore i7 prosessor. Jeg kan  bruke laptopen hele dagen og ytelsen er bra. Har ingen behov for å oppdatere før det skjer noe spennende på hardwarefronten.

Endret av TGB
Lenke til kommentar

 

 

Men hva er vanlig praksis?

 

At det skjer i 2016 sier jo artikkelen, så det var vel ikke særlig vits å nevne.

 

Jeg tenker på hvor snart etter toppmodellen, pleier de rimeligere kortene å ligge i butikkhyllene/webshops?

GTX 750 ble lansert i februar 2014, i motsetning til 780 som ble lansert i mai 2013. 780 Ti kom i november 2013. Likevel er jo GTX 750 det første Maxwell kortet, og kom før noen av kortene i 900-serien. En stund tidligere. Det er jo som regel lettere å få til modeller med lav ytelse enn høy ytelse tidlig. Se bare på Intel sin Broadwell launch. De første produktene som kom var Core-M med 5W TDP, så kom 15W TDP CPUer litt senere. Det var ikke før sommeren de kom med de kraftigste versjonene av CPUer, men selv da toppet de på 66W tror jeg. Det er lavere enn Haswell/DC K-versjonene av CPUer. Det er jo de nye C-CPUene som er toppmodellene for Broadwell og disse er i5/i7 CPUer som er klokket lavere, og klarer ikke å overklokke opp til nivåene du får med Haswell i5/i7.

 

Så jeg ville tippet billig/budsjett før de råeste toppmodellene, eller muligens en tilnærmet samtidig release. Litt mer usikker på AMD, da de har massevis med rebranda kort, som de har dratt med seg lenge. Vil likevel tippe at de ikke klarer å konkurrere på noen som helst måte hvis de ikke gjør det. Strømforbruket vs NVIDIA er allerede i høyeste laget, så de vil nok gjøre alt de kan for å få alt på 14/16 nm de også.

Nvidia har historisk sett lansert topp modellene før budsjett modellene. 750 med maxwell er et eksempel på et prøveprosjekt med ny teknologi, dette er ikke standard for Nvidia å gjøre, så kan ikke brukes som en "norm"

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...