Gå til innhold

Slik blir Nvidias nye skjermkort


Anbefalte innlegg

Gjest Slettet+513

Grafikkutviklingen i spillverden er såpass dårlig at GTX 690 er vel det eneste skjermkortet man trenger de neste ti årene. 

 

 

Endret av Slettet+513
Lenke til kommentar
Videoannonse
Annonse

Og Washington Post fikk Nixon til å gå av på grunn av "rykter". Journalisme er ikke bare opptrykk av pressemeldinger, noen foretrekker å jobbe litt for pengene også!

Beklager, dette er ikke Washington Post og det foregår ikke et politisk maktspill i offentligheten via en politisk styrt avis i dette tilfellet. Artikler som dette minner meg mer om Fudzilla.no. Hvis å jobbe for pengene i denne sammenheng betyr type "Se & Hør" artikler i hardware verdenen så er det rett og slett trist.

 

I tillegg til dette er mange av de mer informative artiklene stort sett blåkopier fra andre nettsteder som engadget, wired, techpowerup, anandtech, tomshardware, guru3d etc. Ikke at det nødvendigvis er noe galt med det sistnevnte.

 

Du har et veldig naivt syn på journalisme, og jeg mistenker at du aldri har vært bak scenen hos et nyhetsmedie. SÆRLIG i tech-bransjen er slike lekkasjer kjempevanlige, og når $NETTSIDE får en mail fra [email protected] eller [email protected] med slike tabeller som denne, er det ingen vits for $NETTSIDE å gjøre stort mer enn å sjekke at det er korrekt før de trykker det. Og måten de sjekker at det er korrekt på? Jo, de sender mail til [email protected] og spør rett ut: Er dette korrekt?

 

Det er sånn det skjer. Hele tiden. Noen ganger er det feil likevel, men i så fall er det som regel en god forklaring, som at produktet ble forandret etter kilden, eller det ble spredt falsk informasjon med vilje.

 

Det siste er faktisk godt mulig, Nvidia tjener FETT på at folk venter tre måneder pga denne lekasjen.

Lenke til kommentar

Nå er det engang slik at nVIDIA stort sett har fokuset på BETA drivere etter hva jeg forstår på Guru3D.com sitt brukerforum, rett og slett fordi det som stort sett er eneste forskjellen på BETA og "ikke-BETA" er WHQL sertifiseringen til Microsoft som i all hovedsak går ut på at nVIDIA må sitte å vente på at Microsoft skal gå igjennom og godkjenne driveren.

 

Og hva problemer med drivere angår så har folk problemer med hver eneste driver, om det så er nVIDIA driver, AMD driver eller hvilken som helst annen driver. Noen vil alltid oppleve problemer og klage, og i de fleste tilfeller så er det ikke driverne i seg selv om er problemet i det hele tatt.

 

Går du inn på Guru3D sitt forum så er det jo tilsynelatende flere som har hatt problemer med de siste WHQL sertifiserte driverne kontra de siste BETA driverne, det er hvertfall mitt generelle inntrykk.

Hvordan skal jeg kunne skille mellom stabile driver og ikke stabile drivere når 80% er markert BETA, og selv WHQL-driverne har problemer?

Er det virkelig greit at det er slik? Man betaler for maskinvare og det er ingen gode, oppdaterte drivere tilgjengelig det fungerer bra.

 

Og her trodde jeg et av hovedargumentene for å kjøpe Nvidia-kort var bedre drivere...

 

enkleste er å rett og slett prøve driveren på de spillene du spiller, så vet du om driveren er bra nok/stabil for deg. ingen driver fungerer 100% optimalt i alle spill, noen drivere er bedre for de og de spilla, mens en annen er bra for andre spill.

når det er sagt så har jeg merket veldig lite problemer med nvida driverene, og jeg bruker kun "beta".

så det er ikke så vanskelig som du skal ha det til.

Lenke til kommentar

Problemet er at om en tenker etter er det sannsynlig at de har smurt så tykt på at de fleste skjønner at det er noe muffens med disse tallene.

Never underestimate the stupidity of idiots

 

Ta en kikk på Overclock.net, eller denne tråden. Samme type rykter gikk rundt om Fermi, mange som kjøpte at GTX 380/480 skulle være 150% raskere enn GTX 285 eller lignende absurde tall.

 

Eller Bulldozer, var en haug som trodde det ville bli en brikke med noe slikt som 85-90% av enkelttrådytelsen til Sandy Bridge med dobbelt så mange kjerner.

GTS450 her. Egentlig veldig fornøyd med det, særlig til prisen, men...

Da GTS 450 lanserte kostet det 1100 kr og oppover, samtidig fikk man et 50-60% raskere GTX 460 1GB for 1400 kr (25-30% høyere pris). Selvfølgelig leverer kortet varene, men sammenlignet med alt annet rundt det prismessig er det en total miss.

Lenke til kommentar

enkleste er å rett og slett prøve driveren på de spillene du spiller, så vet du om driveren er bra nok/stabil for deg. ingen driver fungerer 100% optimalt i alle spill, noen drivere er bedre for de og de spilla, mens en annen er bra for andre spill.

når det er sagt så har jeg merket veldig lite problemer med nvida driverene, og jeg bruker kun "beta".

så det er ikke så vanskelig som du skal ha det til.

Det er mer prinsippet at du må bruke BETA-drivere for å få programmer til å fungere. En BETA er jo en testkompilering for å hjelpe med feilsøking, ikke for å brukes til 24/7 bruk som en permanent fiks på et problem. Hadde det vært snakk om Release Candidate hadde jeg ikke hatt like store problemer med det, en Release Candidate er det man sender inn til MS for WHQL-sertifisering, ikke en BETA.

Lenke til kommentar

enkleste er å rett og slett prøve driveren på de spillene du spiller, så vet du om driveren er bra nok/stabil for deg. ingen driver fungerer 100% optimalt i alle spill, noen drivere er bedre for de og de spilla, mens en annen er bra for andre spill.

når det er sagt så har jeg merket veldig lite problemer med nvida driverene, og jeg bruker kun "beta".

så det er ikke så vanskelig som du skal ha det til.

Det er mer prinsippet at du må bruke BETA-drivere for å få programmer til å fungere. En BETA er jo en testkompilering for å hjelpe med feilsøking, ikke for å brukes til 24/7 bruk som en permanent fiks på et problem. Hadde det vært snakk om Release Candidate hadde jeg ikke hatt like store problemer med det, en Release Candidate er det man sender inn til MS for WHQL-sertifisering, ikke en BETA.

 

joda forsåvidt enig, men da måtte de lansert flere release candidater da, siden en driver er bra på noen spill, mens en annen er bedre på andre.

 

jeg i hvertfall går etter de spillene jeg spiller og finner den beste drivern på kun de. hjelper lite med en release candidate som er bra på spille jeg ikke spiller.

Lenke til kommentar

Trodde Kepler ikke skulle ha hotclocks? Ikke godt å si hva som er sant, men sjansen for at dette stemmer helt nøyaktig er vel ~0%.

Rykter fra 3DCenter.org uten noen sikre kilder, ingen vet sikkert før Nvidia sier noe selv i presseuttalelser.

 

For alt jeg vet planlegger Nvidia å lansere en brikke med 64 ROPs, 256 TMUs og 1024 shaderprosessorer som kjører med "coldclocks" (halve frekvensen resten av brikka kjører på), med et strømforbruk på 75W og 50% bedre ytelse enn Tahiti XT.

Lenke til kommentar

Du har et veldig naivt syn på journalisme, og jeg mistenker at du aldri har vært bak scenen hos et nyhetsmedie. SÆRLIG i tech-bransjen er slike lekkasjer kjempevanlige, og når $NETTSIDE får en mail fra [email protected] eller [email protected] med slike tabeller som denne, er det ingen vits for $NETTSIDE å gjøre stort mer enn å sjekke at det er korrekt før de trykker det. Og måten de sjekker at det er korrekt på? Jo, de sender mail til [email protected] og spør rett ut: Er dette korrekt?

 

Det er sånn det skjer. Hele tiden. Noen ganger er det feil likevel, men i så fall er det som regel en god forklaring, som at produktet ble forandret etter kilden, eller det ble spredt falsk informasjon med vilje.

 

Det siste er faktisk godt mulig, Nvidia tjener FETT på at folk venter tre måneder pga denne lekasjen.

Du ga meg akkurat dagens latter. Move on.

Endret av Theo343
Lenke til kommentar

Problemet er at om en tenker etter er det sannsynlig at de har smurt så tykt på at de fleste skjønner at det er noe muffens med disse tallene.

Tofagerl, It pains me to state the obvious.

 

Jeg snakker ikke om sannhetsverdien her, jeg snakker om kildebruk i media! De eneste som ikke ville publisert en nyhet som dette om den kom fra troverdige kilder er tydeligvis du.

Jeg tipper spesifiasjonene blir 100% identisk med denne artikkelen, mens prosentsatsen opp mot Radeon kort antageligvis er sterkt overdrevet.

Endret av tofagerl
  • Liker 1
Lenke til kommentar

Ikke det?

Her har vi 10. Nov, 28. Nov og 21. Des 2011 + en ny nettopp 31. Jan 2012.

 

Ikke at de har fikset nevneverdig på battlefield 3 i surround mode, ei heller utviklerne.

 

Problemet er at midtskjermen (hovedskjermen) viser ikke viktige ting som "laser signatures" eller mission critical objekter i co-oop. (de røde rutene rundt enheter du locker på)

 

Er det et problem med ATI EyeFinity ?

Lenke til kommentar

Jeg snakker ikke om sannhetsverdien her, jeg snakker om kildebruk i media! De eneste som ikke ville publisert en nyhet som dette om den kom fra troverdige kilder er tydeligvis du.

Jeg tipper spesifiasjonene blir 100% identisk med denne artikkelen, mens prosentsatsen opp mot Radeon kort antageligvis er sterkt overdrevet.

Så har det seg dessverre slik at en av to (noenlunde) troverdige kilder om Nvidia-skjermkort er Nvidia selv og anmeldere av gitte skjermkort. Du kan henvise til fabrikkarbeider X i land Y eller kontakt Z fra partner W, men når alt kommer til alt er det ikke særlig troverdige kilder. Vi kan si noe om ytelsen og spesifikasjonene når kortene lanserer, alt som sies før dette bør tas med en klype salt med mindre det er 20 forskjellige kilder og poster på forum som viser til at ytelsen legger seg på omtrent samme nivå (Bulldozer.)

 

Angående spesifikasjoner bommet Nvidia selv kraftig på sine spesifikasjoner rundt Fermi:

Originalt: 512 shadere @1500MHz

Revidert: 512 shadere @1250-1300MHz

Lansering: 480 shadere @1400MHz

 

SemiAccurate GK110 tapes out

Semiaccurate begynner på enkelte vis å få en ganske god historie om å treffe ganske bra med estimatene sine, men jeg hadde ikke stolt på noe annet fra denne enn at GK110 har fått en tapeout for å begynne produksjon av brikka og at den er enorm (som alle tidligere brikker fra Nvidia.)

 

Med andre ord tviler jeg på at vi kan si noe interessant om ytelsen før vi kommer en måned unna lansering, i verste fall må de kjøre et par respins på tapeouten grunnet dårlig yield og ytelse, og vi får en lansering som får GTX 480 til å virke som HD 6870. I beste fall er yields fenomenale og GK110 yter 100% bedre enn GTX 580. Realistisk tipper jeg et sted imellom med grei ytelse og greit strømforbruk.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...