Blaz3r Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Hva med 1280x1024 for oss som ikke er så hardcore på oppløsning? de som er ikke så hardcore på oppløsning trenger ikke sli eller crossfire. så enkelt er det hehe Lenke til kommentar
Gromit Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Så synd. For Crossfire bar preg på å øke ytelsen mer i % sammelignet med SLI Lenke til kommentar
Malvado Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Dette kan også dreie seg om FUD fra Nvidia sin side så vær litt skeptisk før det ligger tester ute på nettet av kortene. Lenke til kommentar
Crazy_Viking Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 (endret) Noen som vet om dette går utover de med widescreen? jeg kjører oppløsning på 1680x1050, vil dette bety at jeg ikke kan kjøre min 20wide på full oppløsning med xfire? Endret 16. september 2005 av Crazy_Viking Lenke til kommentar
JediMindTriks Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 (endret) vil ikke akkurat kalle det krise løsning, de har jo tross alt jobba med Xfire i et år nå, Nvdida derimot de kommer med krise løsninger, SLI, det kommende SLI2, og PS3.0, som selvfølgelig var helt ubruklig, men lurte de fleste av oss til å kjøpe Nvidia baserte kort. og det med oppløsninga plager ikke meg akkurat, du merker lite forskjell fra 1280x1024 og 1600 x 1200. og under 1280x, kan man vel sette opp RR høyere enn 60hz. Endret 16. september 2005 av JediMindTriks Lenke til kommentar
Re-Offender Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Raptor' date='16/09/2005 : 09:53'] Jeg klarer ikke å bruke CRT skjermer på 60Hz uten å få vindt i hovet, så hvis du har CRT så er i realiteten begrensningen ti til Crossfire 1280x1024. Er vel kun LCD skjermer som kan brukes på 1600x1200 da... Edit: Tipper på at PR-maskinen til nVidia kommer til å bruke dette for hva det er verdt... 400 MHz RamDAC ut mot den analoge tilkoblingen på masterkortet gjør at brukere med CRT skjerm slipper å få vondt i hodet (p.g.a. 60Hz). Masterkortet vil kunne kjøre så høy oppdateringsfreksvens som du måtte ønske Lenke til kommentar
Ko_deZ Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Dette kan da ikke stemme. Er det slik at Crossfire bruker DVI utgangen fra det ene kortet og sender info fra slave til moderkort over denne kanalen? I såfall er det er greitt nok at informasjonen som kan overføres fra slave kortet ikke kan tilsvare mer enn 1600x1200@60, men det har jo ikke nødvendigvis noe med refresh rate på skjermutgangne å gjøre. Sjekk tegningen her: Link. Dersom ATI har vært litt smarte (og det må vi kanskje kunne anta) så har dem vel kanskje gjordt slik at med to like kort, så rendres halvparten av bildet på hvert skjermkort. DVS at data som overføres fra slave-kortet ikke kan være 1600x600x120, hvorpå moderkortet lager de resterende delene av bildet. Dermed ender man opp med en mulig fps på 120Hz med 1600x1200. Uansett så vil vel skjermutgangen fra et crossfire oppsett kunne kjøres en annen oppdateringsfrekvens enn det den interne kommunikasjonen mellom VPUene bruker. Nå har ikke jeg lest stort om dette, men jeg ville anta at slave kortet rendrert og sendte små deler av hver frame (f.eks 320x240), og så overførte del for del. I såfall vil jo slavekortet kunne supplere med opptil 1600x1200@60Hz i tillegg til det moderkortet klarer å rendre. Dersom V-sync hadde fungert andre vegen, slik at skjermen oppdaterte først når en frame var ferdig rendret, så ville jo dette kanskje hatt noe å si for refresh raten dersom v-sync-reverse var skrudd på. Som regel er det jo derimot slik at det samme bildet bare vises om igjen og om igjen frem til neste frame er klar, og da har jo ikke rendrings-tiden noe å si for refresh-rate på skjermen. En lang uttalelse av en som ikke har lest noe serlig om dette her, men det virker da forferdelig usansynlig at måten dem tolker frekvensen på den lille chipen på er riktig. -Ko_deZ- Lenke til kommentar
efikkan Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Om det blir maks 60Hz på noen oppløsninger så blir det grusomt! Isåfall er det helt uaktuellt for meg. Lenke til kommentar
dravisher Skrevet 16. september 2005 Forfatter Rapporter Del Skrevet 16. september 2005 vil ikke akkurat kalle det krise løsning, de har jo tross alt jobba med Xfire i et år nå, Nvdida derimot de kommer med krise løsninger, SLI, det kommende SLI2, og PS3.0, som selvfølgelig var helt ubruklig, men lurte de fleste av oss til å kjøpe Nvidia baserte kort. og det med oppløsninga plager ikke meg akkurat, du merker lite forskjell fra 1280x1024 og 1600 x 1200. og under 1280x, kan man vel sette opp RR høyere enn 60hz. Skal ikke starte en flamewar her nå altså, men XFire bærer mye mer preg av kriseløsning enn SLI. Og SM3.0... Nei, skal ikke starte en flamewar her. Og merker du ikke forskjell når du øker oppløsningen så trenger du i allfall ikke SLI uansett. Sitter du nært nok skjermen så er det forskjell i massevis. Sitter du ikke så nært skjermen så trenger du vel egentlig ikke så høy oppløsning heller. Da kan du jo like greit spille konsoll, eller koble PCen til TV (TV = lav oppløsning, og fyller lite av synsfeltet). Ko_deZ: Tror problemet er at det er chippen som skal kombinere de to signalene som ikke kan sende ut mer enn 1600x1200@60Hz. Er i allfall slik jeg forstår det. Man skulle kanskje tro at RAMDAC ville gjøre det mulig å sende med mer enn 60Hz til analoge displays, men de vil uansett være begrenset pga. 60Hz. Men man vil slippe unna flimringen da. Lenke til kommentar
Ko_deZ Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Stemmer, har lest litt nå. =) 1600*1200*60 = 115MHz+ overhead. DVS at 165MHz burde kunne fungere. Dersom man antar at den brikka har mer enn en pipeline, sånn som skjermkort-løsningner ofte har idag, så vil jo fort 165MHz bli til effektivt 330MHz med to pipes. Jeg Tviler sterkt på at ATI ville skyte seg selv i foten slik. De ville jo begrense max FPS ved 1600x1200 til 60Hz (dette er FPS, og ikke refreshrate Hz), og alle vet jo at et skjermkort må yte 99999 FPS ved enhver oppløsning for å få godkjent av hardware skribenter verden over. En øvre grense ved 60FPS ville jo ikke hatt noe med brukeropplevelsen å gjøre seff, men reklamemessig ville det jo være ei stor blemme. -Ko_deZ- Lenke til kommentar
Simen1 Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Sjekk tegningen her: Link. Et spørsmål til tegninga: Hvis det fungerer som det står der, altså at crossfire-porten kun fungerer som inngang fra slavekortet, hvorfor er det da en Y-kabel på bildet av kortene? Kan masterkortet sende ut bilde på crossfireporten samtidig som det mottar bilde fra slavekortet? I så fall så kommer ikke det frem på noen en tegningene der. Lenke til kommentar
martiol Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Mange som glemmer den store fordelen med Xfire som gjør at SLI virker totalt håpløst. Man kan ha to forskjellige kort med Xfire. Man kan kjøpe et kort i dag, også oppgradere med et til om et halvt år. Da kan man kjøpe tregere/raskere kort uten problemer. Lenke til kommentar
Ko_deZ Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 (endret) DVI støtter tovegskommunikasjon mener jeg å huske. Du kan jo kjøre både analogt, digitalt og masse kontrollsignaler sammen i en fullkoblet DVI. Sjekk http://en.wikipedia.org/wiki/Dvi -Ko_deZ- EDIT: Der står jo 165MHz nevnt også. Ser ut til at det er høyeste frekvens som støttes av DVI. På tide å gå over til HDMI til skjermer snart da... Endret 16. september 2005 av Ko_deZ Lenke til kommentar
HKS Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Sjekk tegningen her: Link. Et spørsmål til tegninga: Hvis det fungerer som det står der, altså at crossfire-porten kun fungerer som inngang fra slavekortet, hvorfor er det da en Y-kabel på bildet av kortene? Kan masterkortet sende ut bilde på crossfireporten samtidig som det mottar bilde fra slavekortet? I så fall så kommer ikke det frem på noen en tegningene der. Hvis du ser på porten på master-kortet så vet du hvorfor (se på bildet av master kortet på den linken)...Den inneholder to DVI kontakter, en for inn og en for ut... Dette kan også dreie seg om FUD fra Nvidia sin side så vær litt skeptisk før det ligger tester ute på nettet av kortene. Selv når admin på Rage3D bekrefter det? Earlier today I was given information regarding ATI’s upcoming Crossfire technology that, at first, I passed off as so ridiculous it couldn’t possibly be true. However, after having the information verified from several very reputable sources I’ve decided it would be a disservice to keep this information private. vil ikke akkurat kalle det krise løsning, de har jo tross alt jobba med Xfire i et år nå, Nvdida derimot de kommer med krise løsninger, SLI, det kommende SLI2, og PS3.0, som selvfølgelig var helt ubruklig, men lurte de fleste av oss til å kjøpe Nvidia baserte kort. Gratulerer med 13 års dagen forresten. Anfebaler deg å begynne å følge med på litt fakta isteden for å være helt fanboy... Lenke til kommentar
dravisher Skrevet 16. september 2005 Forfatter Rapporter Del Skrevet 16. september 2005 (endret) EDIT: Der står jo 165MHz nevnt også. Ser ut til at det er høyeste frekvens som støttes av DVI. På tide å gå over til HDMI til skjermer snart da... Med Dual Link så er det jo ikke noe hastverk med å bytte til HDMI. Men det er jo sant at 165 MHz skal kunne støtte 1920x1200@60Hz (med reduced blanking). Ville vært veldig snodig om ATi ikke klarte å få det til... Endret 16. september 2005 av dravisher Lenke til kommentar
ATWindsor Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Blir jo interessant å se om dette er riktig, isåfall er crossfire en stor skuffelse, men om ikke annet så har det antaklig fått nvidia til å forte seg litt med å oppgradere SLI-støtten i nyere drivere. I prakses er vel SLI ubruklig for de fleste, men reklameverdien er tydligvis relativt høy. AtW Lenke til kommentar
dravisher Skrevet 16. september 2005 Forfatter Rapporter Del Skrevet 16. september 2005 (endret) Oppfølgning fra The Inq: Crossfire does 1600x1200@60Hz or 1920x1200@52Hz Endret 16. september 2005 av dravisher Lenke til kommentar
Simen1 Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Noen som vet om dette går utover de med widescreen? jeg kjører oppløsning på 1680x1050, vil dette bety at jeg ikke kan kjøre min 20wide på full oppløsning med xfire? 1680x1050 er jo lavere oppløsning enn 1600x1200 så det skal nok gå minst like bra som 1600x1200. Altså på 60Hz. Lenke til kommentar
Millmax Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Det blir spennende å se om dette flopper etter en generasjon eller om det endelig er kommet for å bli. Historien har dømt tidligere. Enig i innlegget om at dette virker som et panikkstund for å ikke la nVidia sitte med teknologien alene. OM dette fortjener livets rett venter jeg på neste generasjon før jeg kjøper. Man kommer tross alt veeeeldig langt med et 700 GTX kort. Lenke til kommentar
Goodall Skrevet 16. september 2005 Rapporter Del Skrevet 16. september 2005 Skulle ønske at flere som skrev artikler på hw.no var som Rolf Wegner som skrev denne artikelen om Crossfire begrenset til 1600x1200@60 Hz? og klarte og linke den til en eksisterende tråd Diskusjonen er allerede startet i vårt forum. Det er 2. gang siden jeg begytne å lese på hw.no at dette har skjedd. Dette beviser at det er mulig og håper flere som skriver artikler klarer å gjøre det samma! Rolf Wegner LÆR de andre i forumet hvordan du fikk det til Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå