Gå til innhold

Guide: Dette er Nvidias nye skjermkort


Anbefalte innlegg

Videoannonse
Annonse

*snip*

 

Om du leser dokumentet deres litt i detalj. Feks tesselation med displacment mapping... ingen spill støtter dette idag sikker = waste.

Den raytrace greia dems, veldig kul, men sikkert ingen spill som støtter dette idag = waste

 

På toppen av dette... spill er ikke bare grafikk. Det er faktisk ofte jeg ser spill med bra grafikk... og jeg irriterer meg over grafikken av en eller annen grunn.

 

Men i all verden....

Det at det ikke er støttet pr. dags dato betyr altså at det er waste? HALLO!? Skulle verden utviklet seg etter dine prinsipper ville man fortsatt vært i steinalderen.

Å betale ekstra penger for noe du ikke kan bruke er waste. Er du uheldig, så har du erstattet kortet ditt med et nyere innen det kommer et spill som du liker, som bruker effektene. Men du kan hvertfall dra på vors og skryte av at du er klar for tesselation displacementmapping ... det har jo unektelig en verdi i seg selv.

 

Har selv kjøpt både billige og dyre kort, så har selv sittet og betalt noen tusenlapper der eneste forskjell var null og niks i et tilfelle, og 20 ekstra fps med et annet. Det kortet jeg har skaffet meg nå, fikk spillet mitt til å vise langt mer detaljer og skygger, men spillet ble ikke noe bedre av den grunn - men så var ikke grafikken noe jeg ergret meg over før heller. Men så var mitt gamle kort så dårlig at flere spill ikke ville kjøre, og oppgraderingen løste det fint.

 

 

 

 

Artikkel forfatter skriver....

 

"På bildet over er det benyttet tesselation på døren, fordi kulehullene faktisk er bøyd innover. Se litt nærmere på våpenet, kantene er hakkete."

 

Kulehullene der er fullt mulig og få til uten tesselation, med parallax mapping eller displacement mapping, også normal mapping klarer den effekten der ganske godt, så lenge det ikke er i kanten av ett objekt..

 

Syns kanskje artikkelen gjenspeiler artikkelforfatters litt tynne kunnskap om emnet....

 

Web

Noen som har en link til en god forklaring på normal mapping? Nå trodde jeg at en vertex bare har en normal som brukes til å regne ut hvordan lyset skal falle på polygonen ... og normal mapping ser ut til å være en metode for å ta vertex normalene fra en detaljert modell (som jo vil ha en bråte vertexter, og derfor en bråte normaler), overføre dette til et rgb bilde, så bruke dette bildet på en lowpoly figur, og så "hente opp normalene, og bruke dem i prosessen for å regne ut lyset" ... som igjen vil fake detaljer ganske bra. Men jeg skjønner ikke hele prosessen ... altså man lager vel ikke flere vertexer eller normaler på polygonen vel? Så det er vel kun i prosessen der man kalkulerer hvordan lyset faller som benytter dette?

 

Parallax er nå greit nok, der flytter man kun litt på uv koordinatene med utgangspunkt fra view vektoren.

 

Men displacement mapping handler jo om fysisk flytting av vertexter. Problemet med en dørflate er at den bare består av 2 triangler med 3 vertexter hver(altså 6), og de vil være ute i hjørnene seff ... så et kulehull midt i døra blir litt vanskelig å få til da det ikke er noe vertexer å flytte på der.

Derfor tesselerer man døra først slik at man får en firkantet flate med et tonn av polygoner, og flytter på vertexene der kulehuller et etter et displacmentmap (som egentlig bare er et bilde der hver pixel beskriver en høyde ala slik DEM bilder er. tata nesten ekte kulehull

 

Var sikkert ikke rett alt dette ... men tror det er sånn ca greit.

Lenke til kommentar
Det er ikke Nvidia sin skyld at 3parts produsenter lager feil på kortene sine, det vet du like godt som jeg.

ATI har en enklere struktur og det er lettere for jalla-produsenter å lage feilfrie kort , den er jeg med på.

Men jeg snakker i min post om driver problemer og diverse andre software problemer med ATI-kort , og dette forsvant fullstending når jeg byttet til Nvidia.

 

Igjen er egentlig dette mer tilfeldigheter enn egentlig et tegn på feil på hardware, jeg har personlig byttet mellom Ati / Nvidia i det siste og har opplevd at begge kortene er knall stabile.

 

Hovedproblemet mitt med Nvidia er at jeg ikke helt stoler på byggekvaliteten på kjernen, spesielt siden Nvidia har Trikset / jukset / gjort en stor feil som forårsaker at den tar kvelden mellom 1 - 3 års bruk , noe jeg selv opplevde på mitt 8800Gts kort.

 

Drivermessig så føler jeg at begge to er side om side og ingen av utvikklerene kan kalle seg for feilfrie...

 

Edit : /Back to Topic

 

Jeg er ganske så spent selv på Fermi , ytelsemessig forventer jeg ikke helt det store forspranget på Ati men vi vil nok merke Nvidia sin kraftige satsing på raytracing og vil sannsynligvis få ganske gode resultater i blandt annet folding.

Endret av Malvado
Lenke til kommentar
Det er en enkel grunn til å velge Nvidia ; Lave temperaturer,ingen BSOD, stabile drivere, få krasjer og kvalitet tvers gjennom.

Man slipper å vente en måned på bedre drivere og enda en måned på en "hotfix".

Har bygget mine egne PCer nå i snart 20 år , og er av erfaring blitt en Nvidia-fan

 

Nja, har opplevd mindre problemer med mitt radeon 4890 enn jeg noen gang opplevde med Nvidia 6600GT, 8600GT og 275GTX

 

Hvorfor er det slik at nVidia og ATI ikke har hørt om blondt, brunt og svart hår? Grønt og sjokkrødt er jo det det går på ser det ut som

 

Tja, jeg har da brunt hår på damen til Gainward 8600GT Golden Sample esken min

Lenke til kommentar
Mye bra patetisk fanbois i denne tråden ser jeg. Fin artikkel, litt ned dummet i forhold til anandtech sin versjon men det passer vel til målgruppen hvis en ser på komentar feltet.

 

Kommer helt ann på hvordan du ser på det.

For min del så er det en kombinasjon av produkt og tileggstjenester, der Nvidia foreløpig scorer høyere enn ATI.

For de som ikke har "behov" for 3D briller osv så er foreløpig ATI det definitivt beste valger mtp pris/ytelse.

Lenke til kommentar
Skal du benytte deg at 3D-teknologien, er oppløsningen begrenset til tre skjermer på 1920 x 1080 piksler. Hvorfor bildehøyden er satt til 1080 og ikke 1200 piksler vet vi ikke, men sistnevnte hadde vært foretrukket.

1920 x 1080 = 1080p = HD-oppløsning?

 

-For etter det jeg kan forstå med 3D-støtte, er det vel snakk om den 3D teknologien som også har begynt å dukke opp i hjemmeunderholdningsmarkedet, som Blue-Ray disken til 'Avatar' er annonsert skal ha, der man med spesielle skjermer og briller i kombinasjon kan se den i 3D, slik vi kunne på kino? HD-oppløsning er da nærmest et logisk valg?

 

Nå har ikke Samsung's skjerm HD-oppløsning, men det er da produsenter som kommer med dette?

Endret av Mirandur
Lenke til kommentar
Det er en enkel grunn til å velge Nvidia ; Lave temperaturer,ingen BSOD, stabile drivere, få krasjer og kvalitet tvers gjennom.

Man slipper å vente en måned på bedre drivere og enda en måned på en "hotfix".

Har bygget mine egne PCer nå i snart 20 år , og er av erfaring blitt en Nvidia-fan ;)

Håper den nye kjernen biter i fra seg i kampen med ATI.

Konkurranse mellom produsentene er vi brukere tjent med , både når det gjelder pris og ytelse.

 

Tullete innlegg.

Få deg et ATI kort, så endrer du fort mening.

 

Fin artikkel, men jeg tror fortsatt at Gf100 kommer litt for sent.

Ati klargjør nok en konkurent til gf100 nærmere lansering.

Ati har ytelsestronen akkuratt nå og tipper de vil prøve å holde på den..

 

Alt som har blitt publisert av info rundt gf100 så lang er det Nvidia vil at vi skal se.

Tror ikke at Gf100 vil yte så mye bedre en ati sine kort.

 

Erfaringsmessig så yter alltid nye kort littebitt bedre en toppkortet til motstander. Men vi snakker ikke 60% høyere ytelse her. Kansje mellom 5-10%

 

(er også sikker på at jeg har lest denne artikkelen på engelsk andre steder...)

Endret av MiRaCL
Lenke til kommentar

Selvsagt kommer dette kortet til å være bedre enn ATIs RV600. Problemet er at det konkurrerrer ikke akkurat nå, nå leder ATI.

Om du tror at det ene er veldig mye bedre enn det andre, er årsaken mest sansnynlig fanboyisme.

Du kan selvsagt vente i noen måneder før dette kommer ut for å få det beste kortet, men da er det bare spørsmål om tid før det kommer enda nyere kort på markedet igjen.

Lenke til kommentar
Mye bra patetisk fanbois i denne tråden ser jeg. Fin artikkel, litt ned dummet i forhold til anandtech sin versjon men det passer vel til målgruppen hvis en ser på komentar feltet.

 

Kommer helt ann på hvordan du ser på det.

For min del så er det en kombinasjon av produkt og tileggstjenester, der Nvidia foreløpig scorer høyere enn ATI.

For de som ikke har "behov" for 3D briller osv så er foreløpig ATI det definitivt beste valger mtp pris/ytelse.

 

ATI vil støtte dette i neste driver (10.1) og spillprofiler i februar (10.2).

Lenke til kommentar
Mye bra patetisk fanbois i denne tråden ser jeg. Fin artikkel, litt ned dummet i forhold til anandtech sin versjon men det passer vel til målgruppen hvis en ser på komentar feltet.

 

Kommer helt ann på hvordan du ser på det.

For min del så er det en kombinasjon av produkt og tileggstjenester, der Nvidia foreløpig scorer høyere enn ATI.

For de som ikke har "behov" for 3D briller osv så er foreløpig ATI det definitivt beste valger mtp pris/ytelse.

 

ATI vil støtte dette i neste driver (10.1) og spillprofiler i februar (10.2).

 

Skal de selge egne briller?

Om de i såfall kan benytte seg av Nvidia sine briller som jeg har i dag så er det en smal sak... da blir det ATI på meg.

 

Dog er jeg redd for at ATI ikke fullfører denne tjenesten 100% slik Nvidia har gjort.

Nvidia har til og med fått samsung med på laget.

 

Så greit nok at drivere støtter 3d funksjonen, men finnes det noe utstyr?

Lenke til kommentar

YO jeg må bare si fra siden ingen andre har sakt det. Største ulempen med ATI det er at de støtter ikke 120hz ikke med sine nye 58XX skjermkort heller :wallbash: Derfor har jeg ikke kjøpt 58XX korta.

 

De støtter maks 85hz i følge forumer. Leste litt på ati sine forumer hvor mange har klaget. Men 38XX og 48XX støtter heller ikke 120hz så tror ikke ati kommer å fikse det. Feilen er for lite 2D mzh sier de, men folk har prøvd å overlkokke 2D mzh men 120hz funker ikke fordet.

 

Har lest at mange som er skuffet, forbannet som ikke viste det før de kjøpte og de har sent inn skjermkortene i refund og kjøpt Geforce 295 GTX eller annett Geforce skjermkort imens. Det er mange som venter på Geforce sitt nye skjermkort på grund av det.

 

Det finst 2 pc lcd skjermer med 120hz Samsung og Viewsonic begge er 22 tommere. 120hz skjerm er et must for gamere. Er fortsatt de som spiller på CTR skjermer fordi vanlige lcd skjermer kunn støtter 60hz, Men nå har de kvitta seg med den.

 

Har selv den Samsungen og du ser stor forskjell på spilla og til og med bare i windows. Musepekeren beveger seg raskere uten laag. Så får man 120fps hvis skjermkortert klarer det :whistle:

 

Counter Strike Source første gang gikk det egenltig for fort, men når man blir vant med det så kan man faktisk regarer fortere en motstanderen. Folka tror jeg cheater :dribble: så jeg må forklare det

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...