Gå til innhold

NVIDIA GeForce RTX 40xx tråden


Nizzen

Anbefalte innlegg

KurvSlangen skrev (46 minutter siden):

Kan ikke Nvidia bare fjerne LHR/hash/ sperren på 40 serien så minerne røsker dem vekk? Jeg kan ingenting om mining.

Det er ikke sikkert det gir noen mening med mining sperre på 40xx serien. Den blir neppe like attraktiv som 30xx serien var. 

Den største grunnen til at lhr sperren ble implementert ligger i at nvidia ønsket å selge CMP kort. Og prisen på disse var høyere enn tilsvarende rtx 30xx kort i ytelse.

Det er stor sjangse for at mining stuper uttfor et gigantisk stup om 2 måneders tid. 

Endret av Ephrus
Lenke til kommentar
Videoannonse
Annonse

Det finnes ikke noe grunnlag for å si at det går til helvete. De som har kjøpt alt for dyre kort for sent og i tillegg har dyr elektrisitet er kanskje litt svette, men for andre skal det mye til for at det bare er å pakke sammen for godt. Det kommer også nye muligheter med kort for realtime AV1 encode. Nå antar jeg at NVIDIA ikke sover i timen og blir forbigått av både Intel og AMD.

Endret av BadCat
Lenke til kommentar
1 hour ago, Ephrus said:

Det er stor sjangse for at mining stuper uttfor et gigantisk stup om 2 måneders tid. 

Fordi om 1 type gjør det betyr det ikke at absolutt alt forsvinner. Men det kan bli trangt i døra for å komme inn der det er mest profitt, så det er ikke sikkert man får profitt noen steder. Det er nå uansett en grei varmeovn til vinteren.

Lenke til kommentar
kremt skrev (8 timer siden):

Fordi om 1 type gjør det betyr det ikke at absolutt alt forsvinner. Men det kan bli trangt i døra for å komme inn der det er mest profitt, så det er ikke sikkert man får profitt noen steder. Det er nå uansett en grei varmeovn til vinteren.

Sa ikke at alt forsvinner. Eth står for 21mil usd per dag, mens resten er under 1 mil samlet per dag. Utfor stupet refererte til at det sannsynligvis er lite lukrativt i en periode etter pos. 

Lenke til kommentar

Hvis det stemmer at 4090 er vil ha 450W, hva tenker dere man må ha av PSU? Det er 1000W opp fra 3090 som jeg har nå.

Skjønner det avhenger av hva ellers man har i maskinen, men en generell pekepinn?

Jeg har R9 5950, 2 DDR4 moduler, 2 M2, Noctua kjøler og 3 kabinettvifter.

PSUen jeg har nå er HX1000.

Endret av OlaHaldor
Lenke til kommentar
Gjest Slettet+6132

Hva kommer 4090 til å ligge på, når det kommer? Vil det bli vanskelig å få tak i? Jeg leser på techradar at de mindre kortene ikke kommer før til neste år.

Lenke til kommentar
Gjest Slettet+6132
On 7/30/2022 at 2:59 PM, ticx said:

Tipper 4090 prises mellom 3090 og 3090ti retail pris.

Stor prisforskjell på kortene... jeg vet ikke helt hvorfor? Dette er ikke noe jeg har greie på. Har det med klokking og kjøling å gjøre? Tenker på ulike 3090... og ulike 3090ti... ikke 3090 vs. 3090ti.

Lenke til kommentar

Ulik power limit, kjøling og kretskort. Fellesnevn er for 30-serie har vært  termiske puter til besvær, uavhengig av merke. Termiske puter må komprimeres for å oppnå bra varmeoverføring. Trykket kan skade både kretskort og komponenter. De putene med høyest merket varmeoverføring er ikke nødvendigvis best i praksis. Puter som ikke holder seg over tid ser ut til å være ei utfordring.
 

 

Lenke til kommentar
BadCat skrev (På 28.7.2022 den 23.27):

Det finnes ikke noe grunnlag for å si at det går til helvete. De som har kjøpt alt for dyre kort for sent og i tillegg har dyr elektrisitet er kanskje litt svette, men for andre skal det mye til for at det bare er å pakke sammen for godt. Det kommer også nye muligheter med kort for realtime AV1 encode. Nå antar jeg at NVIDIA ikke sover i timen og blir forbigått av både Intel og AMD.

Vil påstå at det har gått ganske til helvete allerede 🤣

Jeg miner (dog kun 15 skjermkort), og lå på rundt 12000kr i måneden når det var på toppen. Nå bikker jeg såvidt 1500kr etter at strømmen er betalt. Uten strømstøtte hadde jeg tapt penger på å mine.

Lenke til kommentar
BadCat skrev (På 1.8.2022 den 9.51):

Ulik power limit, kjøling og kretskort. Fellesnevn er for 30-serie har vært  termiske puter til besvær, uavhengig av merke. Termiske puter må komprimeres for å oppnå bra varmeoverføring. Trykket kan skade både kretskort og komponenter. De putene med høyest merket varmeoverføring er ikke nødvendigvis best i praksis. Puter som ikke holder seg over tid ser ut til å være ei utfordring.
 

 

Som jeg har sagt tidligere i mining tråden så er Kobber veien og gå, selvfølgelig er jo vannkjøling best.

Når det gjelder kobber så bør man vite hva man gjør, men man får ferdig prefabrikkerte løsninger også.

 

Blant annet fra disse.

 

https://www.coolmygpu.com/

Lenke til kommentar
2 hours ago, BadCat said:

Det høres mer ut som at du bor på feil sted.

Nå har INTEL levert bra saker med encode av AV1 så da håper jeg at NVIDIA ikke sover i timen. Jeg forventer har store forventninger til 40-serien når det kommer til encode.
 

 

Vil Twitch bruke AV1 ?

Lenke til kommentar

https://wccftech.com/micron-24-gbps-gddr6x-memory-enters-mass-production-coming-to-next-gen-nvidia-gpus/

Håper strømforbruket blir lavere enn dagens GDDR6X. Ligner ikke grisen når 3070ti bruker nesten 80W mer enn 3070 (de er nesten identiske på alt unntatt vram) og kun yter 3-7% bedre.

power-gaming.png

Samsung lanserte jo nulig vanlig GDDR6 24GHz, tipper det er vesentlig mer effektivt.

Lenke til kommentar

Effektøkningen skyldes hovedsaklig GPU GA104-400-A1 og ikke minnet. Effektiviteten går i vasken i bytte mot ytelse. Nå vet ikke jeg effekten til en 1GB modul GDDR6X, men en på 2GB er litt over 3W. Jeg tror ikke man er helt på vidda hvis man anslår effekten til minnet på 3070 Ti til 10-12W.

Lenke til kommentar

Siden monitorer er litt trege i utviklingen og mye stagnerer på 34" vurderer jeg å gå for en 42" C2 men venter litt for å forsikre meg om at jeg får WBE kontra WBC.

Quote

 

Here's a google translate of an article from Korea with statements from LG.

"LG Electronics explained that it is true that WBC and WBE are mixed in the 42-inch OLED TV EVO, and that it is an unavoidable situation depending on LG Display's panel supply situation. WBE panels will be applied sequentially after 2Q."

 

Men vil det være noen fordeler å gå for et 4000 serie kort kontra 3000 serie kort i den sammenheng? 3090 har vel HDMI 2.1 såvidt jeg husker. Samt hvordan er det med Windows 10? Må vel over på Windows 11 for å få full utnyttelse av HDR?

Ulempen med å gå for en "TV" er jo bla. maks 120Hz men etter å ha kjørt 38" 21:9 3840x1600 75Hz siden 2016 er ikke det noe stort tap for min del. Blir lei av å vente på den monitoren man vil ha 😛 38-42" G-Sync miniLED/OLED 21:9 144+.

Endret av Theo343 (takk for meg)
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...