Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Støtter en spesifikk regneoperasjon som brukes under dyp læring, kan du utdype? Er dette noe 2080Ti også kan gjøre?

FP16 w/FP32 Accumulate

https://www.anandtech.com/show/13668/nvidia-unveils-rtx-titan-2500-top-turing

 

Altså FP16-utregninger på Tensor-kjernene, som så akkumuleres i 32-bit.

Det er kun en bryter i software, 2080 Ti kunne gjort det samme om Nvidia ikke var opptatt av markedssegmentering.

Lenke til kommentar
Videoannonse
Annonse

Sånn sett er de nesten identisk bortsett fra mengden RAM. Du kan ikke si at Titan kun er beregnet for dyp læring, CAD etc etc når 2080Ti kan gjøre nøyaktig den samme jobben.

 

En kan spørre seg: "hvem,hva og hvor" krever denne ekstra RAM for å gjøre oppgaven? Jeg skulle anta at Nvidia plan var å selge MASSE av disse kortene? Realistisk? Neppe... mulig kun få av disse? 

 

Angående konge kort? uhm til hva da liksom?

Maskinlæring... For større og mer kompliserte modeller trenger vi nesten all VRAM vi kan få.

 

Spesielt når man kjører kompliserte modeller med veldig mange lag som for eksempel VGG-16 eller ResNet. Selvsagt kan man redusere batch-størrelsen, det kan ofte gå ut over presisjonen på nettverket. Har man ikke nok VRAM så øker da tiden det tar å trene modellene drastisk.

  • Liker 2
Lenke til kommentar

Maskinlæring... For større og mer kompliserte modeller trenger vi nesten all VRAM vi kan få.

 

Spesielt når man kjører kompliserte modeller med veldig mange lag som for eksempel VGG-16 eller ResNet. Selvsagt kan man redusere batch-størrelsen, det kan ofte gå ut over presisjonen på nettverket. Har man ikke nok VRAM så øker da tiden det tar å trene modellene drastisk.

Det har jeg skjønt, mitt ufrodring er: Titan kortet er ikke noe Nvidia kommer til å selge mange av !! Du har også quadro kortene som gjør jobben svært bra til modellering. Mao: Titan kortet er en vits

Lenke til kommentar

Haha ja, og alle andre som skal knuse bencmarks og velte ting ned fra bord og hyller med sin gigantiske e-penis.

 

Var vel ca en million her knne som påsto 2080 +Ti aldri kom til å selge nor særig oga pris osv osv .Men de fleste modeller er jo nå utsatt til»på lager» i januar og har omtrent vært det siden de begynte å komme inn (ja det har vært mulig og snappe opp litt kort innimellom men det styrker jo bare poenget mitt)

Lenke til kommentar

Haha ja, og alle andre som skal knuse bencmarks og velte ting ned fra bord og hyller med sin gigantiske e-penis.

 

Var vel ca en million her knne som påsto 2080 +Ti aldri kom til å selge nor særig oga pris osv osv .Men de fleste modeller er jo nå utsatt til»på lager» i januar og har omtrent vært det siden de begynte å komme inn (ja det har vært mulig og snappe opp litt kort innimellom men det styrker jo bare poenget mitt)

 

Skjønner ikke helt hvordan det kan styrke poenget ditt? Vet du noe som resten av oss ikke vet? Hvor mange skjermkort som er solgt f.eks? Det er jo strengt tatt litt enklere å bli utsolgt om man har 50 skjermkort å selge, enn om man har 5000 skjermkort å selge.

 

Personlig tviler jeg på at Nvidia's aksje kurs er halvvert siden lanseringen av Turing på grunn av at de selger så jævlig mange skjermkort. Det faktum at det ble meldt om overstock av Pascal kort før lanseringen av RTX. Og at de så mindre enn 2 måneder senere meldte at det var tomt på lager for GTX1080Ti, viser at den gamle arkitekturen ble foretrukken så lenge den var rimeligere.

 

Nå er det tomt i Norge også, billigste GTX1080Ti kommer på ~9200 Kr fra noe så seriøst som n00b-shop. Euro-Tec med sine 4 stjerner på Prisjakt gir deg muligens muligheten til å bestille et kort for ~9700 Kr. Faktisk finner jeg ikke et eneste 1080Ti fra en reputabel butikk under 11 799Kr hos Power.

 

Grunnen til at folk handler RTX nå, er rett og slett at de ikke får tak i Pascal lengre, ikke billigere ihvertfall...

  • Liker 1
Lenke til kommentar

Spørs om ikke nVidia bevisst produserer lite RTX for å ikke ødelegge for mye for seg selv, men det er nesten garantert lavere volum også p.g.a innkjøringsproblemer. Spesielt på toppkortene som er de aller vanskeligste å lage.

De har jo fått en omgang så det holder på børsen når de droppet ca 50% i verdi fra primo Oktober til ultimo November.

Det er jo en del som spekulerer i om dette bare var en korreksjon fordi markedet priset verdien høy p.g.a kryptoforventninger og den forsinkede responstiden på leveringen til nVidia når boblen hadde sprukket.

Lenke til kommentar

Jeg tok kontakt med EK og spurte om blokken til RTX 2080 Windforce OC passer på 2070 Windforce. Tar man en titt på PCB så ser disse kortene like ut. Jeg fikk svar fra EK:

 

"We have received some reports that there is some issue with 2070. We will release our revised block soon."

 

Så .. Litt småkryptisk dette svaret. Men det kan se ut til at det kommer ut nye (eller ny revisjon) av EK blokker som vil passe 2070 kort.

 

Vi får se hvor mange modeller av RTX 2070 det kommer blokker til.

Endret av Kyrre S.
Lenke til kommentar

Folkens, det er noe jeg ikke helt skjønner med mitt 2070 kort og boost.

 

Jeg har dette kortet:

https://www.asus.com/Graphics-Cards/ROG-STRIX-RTX2070-O8G-GAMING/specifications/

 

I henhold til det jeg klarer å finne så skal boost på dette kortet være 1815 i normal mode og 1845 i OC mode.

Jeg har bare installert nvidia driver, og jeg har MSI Afterburner V 4.5.0 installert. Jeg har ikke tweaket noe som jeg vet om, hverken i driver eller Afterburner. Jeg har ikke installert Asus sin software for å confige kortet (velge mode etc).

 

Men det som da er rart, er at når jeg spiller så booster GPUen til 1950 om jeg ikke husker feil. Og dette er jo langt høyere enn det Asus sier, selv med sin OC mode.

 

Så, hva skjer her? Noen som vet? Er det noen andre med dette kortet som kan si hva de har i boost og under hvilke innstillinger/tweaks?

Lenke til kommentar

Folkens, det er noe jeg ikke helt skjønner med mitt 2070 kort og boost.

Så, hva skjer her? Noen som vet? Er det noen andre med dette kortet som kan si hva de har i boost og under hvilke innstillinger/tweaks?

 

Kjent "problem" siden 600-serien kom ut: boost clock forteller ikke hvilken klokkefrekvens kortet vil kjøre på.

 

Normal oppførsel for Nvidia-kort er at kortene kjører på en høyere klokkefrekvens enn hva boost clock er oppgitt til.

Hvor mye høyere? Det avhenger primært av hvor heldig du er.

 

EDIT:

Her er et eksempel: Techpowerup sin test av RTX 2070 Strix OC

Oppgitt "boost-frekvens" er 1815 MHz

Reell klokkefrekvens i spill er 1920 MHz

 

Hvis du syns dette er problematisk er jeg prinsipielt enig med deg, men når de aller fleste gir blaffen hjelper det lite.

Endret av N o r e n g
Lenke til kommentar

Det har jeg skjønt, mitt ufrodring er: Titan kortet er ikke noe Nvidia kommer til å selge mange av !! Du har også quadro kortene som gjør jobben svært bra til modellering. Mao: Titan kortet er en vits

:hm:

Tesla V100 som brukes i servere har en veiledende pris på rundt 100.000 kroner... Sammenlignet med for eksempel RTX 2080 så selger de ikke mange.

Er det også en vits?

 

PS! Et Quadro-kort som "matchter" RTX Titan i ytelse (Quadro RTX 6000) har en veiledende pris på 60.000 kroner...

 

Edit:

 

Spørs om ikke nVidia bevisst produserer lite RTX for å ikke ødelegge for mye for seg selv, men det er nesten garantert lavere volum også p.g.a innkjøringsproblemer. Spesielt på toppkortene som er de aller vanskeligste å lage.

Det stemmer nok helt, men etterspørselen etter kort er høy. Husk at TU102 og brukes i andre produkter enn GeForce. Generelt setter yield gode, da Turing bruker en velkjent 12nm FFN prosess i produksjonen. Endret av HKS
  • Liker 1
Lenke til kommentar

The Titan RTX is aimed at AI researchers, data scientists, and content creators, with NVIDIA claiming "breakthrough performance" from FP32, FP16, INT8 and INT4 operations that allows for faster training and inference of neural networks. Researchers will also be able to leverage NVLink to combine two Titan RTXs when working with large data sets. Of particular interest for data scientists will be the fact that the Titan RTX supports RAPIDS, the open-source libraries that integrate with popular data science workflows to boost machine learning use cases." 

Lenke til kommentar

:hm:

Tesla V100 som brukes i servere har en veiledende pris på rundt 100.000 kroner... Sammenlignet med for eksempel RTX 2080 så selger de ikke mange.

Er det også en vits?

 

PS! Et Quadro-kort som "matchter" RTX Titan i ytelse (Quadro RTX 6000) har en veiledende pris på 60.000 kroner...

 

Edit:

 

Det stemmer nok helt, men etterspørselen etter kort er høy. Husk at TU102 og brukes i andre produkter enn GeForce. Generelt setter yield gode, da Turing bruker en velkjent 12nm FFN prosess i produksjonen.

Det store spørsmålet mitt er om du mener det er greit at et selskap kan ta såpass stor avanse for et skjermkort de lager, selv om det er til et annet marked.

Jeg mener at det ikke er greit ( uansett om det er Intel, Amd eller Nvidia ) å ta seg alt for stor avanse, noen av disse skjermkortene har trolig en avanse på opp til 20x når man fordeler det på totale salgstall over hele linjen og da sier det seg selv at om man selger et kort til 100.000 at avansen er på hele 95.000.

 

 

 

SANTA CLARA, CA - NVIDIA (NASDAQNVDA) ( 2017)

  • Record quarterly revenue of $2.17 billion, up 55 percent from a year ago
  • Record full-year revenue of $6.91 billion, up 38 percent from a year ago
  • Record quarterly GAAP gross margin at 60.0 percent, non-GAAP gross margin at 60.2 percent
  • GPU computing platform continues to power gains across full product line

     

NVIDIA (NASDAQ: NVDA) today reported revenue for the fourth quarter ended January 29, 2017, of $2.17 billion, up 55 percent from $1.40 billion a year earlier, and up 8 percent from $2.00 billion in the previous quarter.

 

Search News Archive 2018
Record quarterly revenue of $2.91 billion, up 34 percent from a year ago
Record full-year revenue of $9.71 billion, up 41 percent from a year ago
Record quarterly GAAP gross margin of 61.9 percent, non-GAAP gross margin of 62.1 percent
Record full-year GAAP EPS of $4.82, up 88 percent from a year ago 
NVIDIA today reported record revenue for the fourth quarter ended January 28, 2018, of $2.91 billion, up 34 percent from $2.17 billion a year earlier, and up 10 percent from $2.64 billion in the previous quarter.
Endret av Malvado
Lenke til kommentar

Maskinlæring... For større og mer kompliserte modeller trenger vi nesten all VRAM vi kan få.

 

Spesielt når man kjører kompliserte modeller med veldig mange lag som for eksempel VGG-16 eller ResNet. Selvsagt kan man redusere batch-størrelsen, det kan ofte gå ut over presisjonen på nettverket. Har man ikke nok VRAM så øker da tiden det tar å trene modellene drastisk.

 

Mja... spørsmålet er om du har ein veldig stor modell så kan den slite med å konvergere og du ender opp med 1000x lengre treningstid igjen. Mange av maskinlæringsmodellene jeg har lagd i det siste er mindre enn 10MB. Nokon er faktisk godt under 1MB også. Dei aller fleste greier seg kjempefint med dagens skjermkort, det er snakk om 0.0001% av deep learning ingeniører som trenger meir enn 11GB VRAM.

Lenke til kommentar

Bumper denne.

Kanskje litt på siden av trådens tema, men har noen hatt anledning til å titte på Nvidia NGX SDK? 

Denne pakken skal inneholde forhåndstrente modeller for bla. Nvidia super slomo videobehandling (fancy interpolering), for AI oppskalering mm.

Utnytter tensor cores i Titan V, Titan RTX og RTX 20XX-serien.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...