Gå til innhold

forskjell mellom VGA og DVI?


fATAL

Anbefalte innlegg

Skrevet

Hei!

 

Jeg har nettopp kjøpt meg en ny 19" LCD skjerm, Hyundai L90D+. Det jeg lurer på er hvilken kabel som er best og bruke av DVI og VGA. Når jeg bruker VGA så kan jeg kjøre 75hz på skjermen min uten å fjerne den "Hide modes that this monitor cannot display", men med DVI er den låst på 60. Vil skjermen ta skadde om jeg tar bort låsen og setter hz høyere med DVI, for jeg vet jo at den kan kjøre 75hz med VGA.

Og er det no forskjell mellom VGA og DVI tilkobling, reponstid, bildekvalitet f.eks?

Noen som kan hjelpe?

Videoannonse
Annonse
Skrevet

Hva prøver du å oppnå? Har jo ingen praktisk betydning. 50 hz er omtrent så raskt øyet klarer å oppfatte forandringer. Så på en LCD har det ingenting å si om du kjører på 60 eller 75hz. Kanskje statshorer som syns FPS i spill er viktigere enn lengden på ja hmm. ja så kanskje, men har null å si i ditt tilfelle.

Skrevet

På LCD har jeg alltid hørt at det beste er lavest mulig frekvens (60Hz). Og DVI er jo digitalt. Altså overlegen kvalitet i forhold til VGA. (Med mindre man har en überdårlig LCD).

Skrevet

I og emd at en LCD skjerm ikkje oppdatere bildet med en elektronstråle som en CRT skjerm gjør, så er refresh rate revnende likegyldig. Bildet på en LCD flimrer ikkje uansett.

Skrevet

Skal helst ikke kjøre høyere en den annbefaler (altså ikke fjern det krysset så du kasse stille høyere oppdaterings frekvens!), ikke på lcd, for hvis du gjør det kan skjermen ta skade av det, den kan bli varm og utvikle døde pixler. :(:p

Skrevet (endret)

Ikke takk for hjelpen før du vet om den faktisk hjelper fATAL:P

Er det umulig å sjekke ut informasjon før man sier ting? Er det veldig vanskelig å vite harde fakta eller komme med kilder? Er frustrerende å lese en del svar, som er feile!Jeg anbefaler alle her å lese Hardware.no's lcd-guide , mye nyttig fakta der...

 

Trådstarter: DVI gir generelt sett et klarere bilde, og du slipper å justere bildet selv. Grunnen til at det gir et bedre bilde er (kort forklart) at du da får følgende "vei" fra PC til skjerm.

Digitalt signal fra pc - digitalt signal over kabel - ferdig skjermbilde

mens med vga får du:

Digitalt signal fra pc - omgjøres til analogt i skjermkortet - analogt signal over kabel - omgjøres igjen til digitalt i skjermen - ferdig skjermbilde.

dvi.jpg.

Det at signalet går gjennom adapterne gjør gjerne at kvaliteten blir forringet.

 

Herr Brun

Endret av Herr Brun
Skrevet (endret)

Ja, så kom det en besserwisser som skryter av det her også... vel vel...

 

fATAL, test hvilken kabel du skal bruke, er ikke noen fasit her. Greit nok, DVI skal i teorien gi bedre bilde, men i en blindtest er det tvilsomt at du ser forskjell. En del skjermer viser en del kjedelige artifakter ved bruk av DVI, så derfor anbefales det å faktisk ha begge løsningene klare. I hvertfall dersom det viser seg at din skjerm holder på med akkurat dette :D (en del anbefaler også å bruke analog tilkobling i spill for å kunne anvende f.ex 75hertz på lcd-skjerm, men stiller meg tvilende på at dette har noe for seg. mener kanskje det var hardware.no som skrev dette også) Konverteringen digital-analog-digital er i dag så bra at det (stort sett) ikke spiller noen rolle.

 

Når det gjelder oppdateringsfrekvensen er det ikke vits å gå høyere enn 60, som allerede nevnt, så bruk det.

 

Så, prøv DVI, får du feil i bildet bytter du til analog. Kjør DVI på 60 og analog på 75 hertz, som er det meste den skjermen klarer. :thumbup:

 

Edit: ser ikke helt at innlegget over mitt forklarer noe mer enn de andre innleggene, og de er slettes ikke feilaktige. Å vise bare til det bildet der og konkludere er faktisk det mest feilaktige i hele posten.

Endret av dobbelmann
Skrevet

Det var da voldsomt. Jeg synes det bildet er veldig oppklarende jeg

 

50 hz er omtrent så raskt øyet klarer å oppfatte forandringer.
Rart. De flest her på forumet vil sverge på at de får vondt i hodet av å sitte foran en CRT med 50Hz - normen er faktisk at man må opp på 85Hz før bildet er flimmerfritt. Jeg vil gjerne se en god kilde på denne uttalelsen. Får jeg det, så skal jeg lete fram en rapport som viser at mennesket kan oppfatte så høyt som 120Hz.

 

Det er lenge siden jeg har sett en skjerm som har god nok da-konvertering til at jeg ikke se at signalet er analogt. Kommer man rett fra CRT vil man nok ikke merke forskjellen, men bruk DVI på skjermen i noen uker og bytt til analog, så bør du se at skarpheten blir dårligere.

Skrevet
Rart. De flest her på forumet vil sverge på at de får vondt i hodet av å sitte foran en CRT med 50Hz - normen er faktisk at man må opp på 85Hz før bildet er flimmerfritt.

Jeg tror han snakker om bevegelser (fps) ikke opptegningsfrekvens (Hz).

Skrevet (endret)

50. Og når det gjelder rene bevegelser så tror jeg man ser minimalt forskjell på 50 og 75. Når det gjelder flimring/blinking derimot så merker man god forskjell på 50 og 75Hz.

 

Eller mener du at man får vondt i hodet hvis man spiller CS og ikke får mer enn 10-15 fps? :p

 

Edit: I tillegg er det snakk om LCD her så flimring er utelukket.

Endret av sedsberg
Skrevet

He he, dere diskuterer vel 2 forskjellige ting her nå kanskje..?

Men for å oppklare litt (evnt forvirre mer) kan man si at allle fps over skjermfrekvensen er "bortkastet", altså at man ikke i realiteten får mer enn 60 fps med en oppdateringsfrekvens på 60?

 

Til trådstarter; jeg er ingen ekspert på temaet, men tror det beste råd uansett er at du bør prøve og se selv. Jeg erfarte senest i går at teori og praksis ved bildeoverføring ikke alltid stemmer med det jeg oppfatter som best ;)

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...