Gå til innhold

AMD har lansert sin G-Sync-konkurrent


Anbefalte innlegg

Videoannonse
Annonse

 

Hvordan vil dette fungere med Nvidia GPUer?

Ikke i det hele tatt, vist jeg har forstått det riktig krever det AMD GPU, akuratt som at gsync krever nvidia.

 

Det krever ikke AMD gpu, men det er bare AMD som har støtte per i dag med Free Sync.
Det er ingen ting i veien for at Nvidia, Intel eller andre kan støtte Adaptive Sync som det heter i Displayport 1.2a standarden fra VESA.
G-Sync derimot er en proprietær løsning fra Nvidia.
  • Liker 1
Lenke til kommentar

 

 

Hvordan vil dette fungere med Nvidia GPUer?

Ikke i det hele tatt, vist jeg har forstått det riktig krever det AMD GPU, akuratt som at gsync krever nvidia.

 

Det krever ikke AMD gpu, men det er bare AMD som har støtte per i dag med Free Sync.
Det er ingen ting i veien for at Nvidia, Intel eller andre kan støtte Adaptive Sync som det heter i Displayport 1.2a standarden fra VESA.
G-Sync derimot er en proprietær løsning fra Nvidia.

 

Sånn var det :)

men Adaptive Sync er vell noe nvidia støtter allerede?

Lenke til kommentar

Man kan vel grovt forenklet si at Adaptiv V-sync er skjermkortet som prøver å tilpasse seg en skjerms faste oppdateringsfrekvens. Adaptic sync er skjermen som prøver å tilpasse sin oppdateringsfrekvens til det den får servert fra skjermkortet.

 

nVidia var kjapt ute etter at FreeSync ble kjent og bekreftet at det ville ikke være noe problem for dem å støtte FreeSync skjermer. Et par dager senere fikk pipa en annen lyd. Det gikk opp for dem at folk kanskje da ville la vær å kjøpe dyre G-Sync skjermer dersom det er billige FreeSync skjermer på vei. nVidia er så mafia på dette at jeg får ikke lenger kjøre 3D-Vision på min Samsung monitor, nVidia har aktivt gått inn for å blokkere det...

Lenke til kommentar

 

 

Håper det raskt dukker opp en 144hz 1440p IPS skjerm med Freesync, da blir det bra

Frykter at det vil bety høy pris.

Derfor ville det jo vært mye bedre med en OLED skjerm. Responstiden ligger jo på 0.001 ms, med mye bedre bildekvalitet enn IPS. OLED er jo den beste teknologien til alt, og spilling er absolutt ikke et unntak.OLED vil bli dyrt, men det vil jo som sagt også en 144Hz 1440p IPS skjerm være.

 

Førøvrig kan du få 1440p IPS skjermer som kan overklokkes til rundt 120 Hz avhengig av modell. Bare å kjøpe det av koreanske selskaper som kjøper rett fra Samsung og LG sine fabrikker via tjenester som ebay osv.

 

Ser Acer faktisk har en 144Hz IPS skjerm med 2560x1440 nå, med GSync. Ikke billig, men den vurderes. TFTCentral kårer den til beste gamingskjerm de har testet...

  • Liker 1
Lenke til kommentar

Selvsagt så får man en dårligere opplevelse når fps går under minimumskravet til å kunne kjøre kjermen i Fressync. At Nvidia har en hardware løsning som fungerer bedre under de samme omstendighetene (lav fps som er under hz til skjermen) kommer ikke som en bombe når man tross alt betaler en god del for det...

 

Men har man et skjermkort som ikke gir deg et minimum med 60fps på en G*sync skjerm eller en Freesync skjerm så kan man spørre seg hva man holder på med når det gjelder valg av skjerm og skjermkort...

Lenke til kommentar

Selvsagt så får man en dårligere opplevelse når fps går under minimumskravet til å kunne kjøre kjermen i Fressync. At Nvidia har en hardware løsning som fungerer bedre under de samme omstendighetene (lav fps som er under hz til skjermen) kommer ikke som en bombe når man tross alt betaler en god del for det...

 

Men har man et skjermkort som ikke gir deg et minimum med 60fps på en G*sync skjerm eller en Freesync skjerm så kan man spørre seg hva man holder på med når det gjelder valg av skjerm og skjermkort...

 

4K og 60hz g-sync har det virkelig noe for seg, men for 120/144hz g-sync, så går man ikkje så langt ned i fps. Isåfall har man faila som du sier :)

Lenke til kommentar

 

Selvsagt så får man en dårligere opplevelse når fps går under minimumskravet til å kunne kjøre kjermen i Fressync. At Nvidia har en hardware løsning som fungerer bedre under de samme omstendighetene (lav fps som er under hz til skjermen) kommer ikke som en bombe når man tross alt betaler en god del for det...

 

Men har man et skjermkort som ikke gir deg et minimum med 60fps på en G*sync skjerm eller en Freesync skjerm så kan man spørre seg hva man holder på med når det gjelder valg av skjerm og skjermkort...

 

4K og 60hz g-sync har det virkelig noe for seg, men for 120/144hz g-sync, så går man ikkje så langt ned i fps. Isåfall har man faila som du sier :)

 

 

Nettopp.

Men med de skjermkortene som faktisk greier dagens "normale" oppløsnigner på kurrant hz så vil de neppe oppleve disse problemene med Freesync eller (nevneverdig mindre) G-Sync. 4K er dog trolig en generasjon eller to fremover for å oppleves "smooth" med mindre vi plutselig får se et skjermkort som gjør et kvantesprang rent ytelsemessig med 100% økning i forhold til dagens kort.

Lenke til kommentar

Selvsagt så får man en dårligere opplevelse når fps går under minimumskravet til å kunne kjøre kjermen i Fressync. At Nvidia har en hardware løsning som fungerer bedre under de samme omstendighetene (lav fps som er under hz til skjermen) kommer ikke som en bombe når man tross alt betaler en god del for det...

 

Men har man et skjermkort som ikke gir deg et minimum med 60fps på en G*sync skjerm eller en Freesync skjerm så kan man spørre seg hva man holder på med når det gjelder valg av skjerm og skjermkort...

I lang tid nå så har vi hørt at G-Sync bare er en DRM av den allerede implementerte standarden, og AMD-fansen har ikke vært særlig "stille" når det kommer til å påpeke det heller. Nå har har Freesync kommet ut, og det viser seg til å være en dårligere løsning enn Nvidia sin, og Nvidia har kommet ut med hvorfor de har laget denne modulen. Syns hele greia blir litt "god dag mann økseskaft" og mange har møtt seg selv i døra. Jeg legger i allefall en lapp eller to på bordet for en bedre løsning, når skjermen allerede koster mer enn 5000,- :)

 

Note: Det er ikke rettet til deg spesielt, men heller AMD fans her og ellers i andre forumer. :)

Endret av bshagen
Lenke til kommentar

He he, dette er faktisk første gang jeg hører G-Sync modulen omtalt som "bare en DRM".

 

Jeg må innrømme min skepsis til Nvidia handler ikke om hva som er best. Det handler om den forbrukerfiendtlige filosofien de opererer etter, og de mafia liknende metodene de benytter for å skade konkurrenter.

 

Jeg håper virkelig neste generasjon skjermkort fra AMD kommer til å levere varene. For nå som AMD kunder har et alternativ til G-Sync er det ingen grunn til å ikke velge det skjermkortet som gir best ytelse. Til nå har vi vært tvunget til å velge Nvidia om vi ville ha VRR.

 

Vi vil alle være tjent med at FreeSync blir en suksess, og for at det skal skje er vi avhengig av gode skjermkort fra AMD nå. "Heldigvis" har G-Sync skjermene vært for dyre til å bli allemannseie riktig enda. Men når Nvidia sier at de ikke vil støtte FreeSync så er det en forbrukerfiendtlig holdning. De ønsker da å låse sine kunder i sin egen løsning. Hvem er det som kommer til å velge et AMD skjermkort neste gang, når de sitter på en 7000 kroners skjerm som yter som en 3000 kroners skjerm uten et Nvidia skjermkort?

 

Så når Nvidia nå har trukket linjene for slagmarken. Hva er det beste vi forbrukere kan håpe på? Jeg mener som sagt at det er at FreeSync blir en suksess. Det kan da vise seg å bli et tveegget sverd for Nvidia å klynge seg til sin egen løsning. For hvis AMD selger en haug av "390X", og mange av disse kjøperne må velge FreeSync skjerm for å få VRR. Hvordan skal Nvidia vinne disse kundene tilbake ved neste korsvei? Har man da først en FreeSync skjerm blir det jo motsatt, hvorfor velge Nvidia skjermkort? "De støtter jo ikke min FreeSync skjerm". Det vil tvinge Nvidia til å åpne sine drivere for å fungere med FreeSync skjermer (noe de med enkelthet kan gjøre) om de vil ha disse kundene. Men sannsynligvis bare vil gjøre hvis det er mange nok av skjermene på markedet.

 

I en perfekt skjermkortmarkedverden kan vi som kunder mikse som vi vil. Kjøpe en G-Sync skjerm hvis vi har råd, eller en FreeSync skjerm hvis ikke. Drive G-Sync skjermen med et Nvidia kort i år, og et AMD skjermkort til neste, eller omvendt med FreeSync skjermer. Det Nvidia legger opp til er en krigserklæring mot alle forbrukere. Jeg håper AMD kommer med noe som frister nok til at vi ikke blir sittende igjen med bare en skjermkortleverandør i toppsegmentet, slik det ble med prosessorer.

Lenke til kommentar

I lang tid nå så har vi hørt at G-Sync bare er en DRM av den allerede implementerte standarden, og AMD-fansen har ikke vært særlig "stille" når det kommer til å påpeke det heller. Nå har har Freesync kommet ut, og det viser seg til å være en dårligere løsning enn Nvidia sin, og Nvidia har kommet ut med hvorfor de har laget denne modulen. Syns hele greia blir litt "god dag mann økseskaft" og mange har møtt seg selv i døra. Jeg legger i allefall en lapp eller to på bordet for en bedre løsning, når skjermen allerede koster mer enn 5000,- :)

 

Note: Det er ikke rettet til deg spesielt, men heller AMD fans her og ellers i andre forumer. :)

holder på med når det gjelder valg av skjerm og skjermkort...

 

 

Gabri3l svarer ganske så fornuftig ovenfor G-sync og problemene med at det er en lukket standard for kun Nvidia skjermkort , i en Idéel verden så hadde Nvidia sin løsning kunnet fungere også med Amd skjermkort uten problemer , men dessverre så ble det kun software løsningen til Amd (med sine begrensninger) som har den muligheten til at den kan taes i bruk av samtlige aktører om de så ønsker det.

Er det egentlig et problem at en software løsning ikke er like bra som en hardware løsning som Nvidia sin? Nei egentlig ikke, om  Freesync faktisk hadde vært like bra som Hardware løsningen til Nvidia burde man jo egentlig spørre seg selv hva pokker i h* bruker man pengene på når amd sin løsning som koster 2 - 3 tusen mindre gir akkurat de samme mulighetene?

Lenke til kommentar

Opplever ein inputlag med g-sync når ein er under dynamic range? Viss det er tilfelle, og så lenge nvidia ikkje lar oss slå av vsync med lav fps, så trur eg det er mange som heller vil velge freesync og tåle litt tearing enn å slite med inputlag.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...