Gå til innhold

R700 støtter DX 10.1?


Anbefalte innlegg

Videoannonse
Annonse
Jeg går utifra at 8800gts vil støtte DX 10.1 ?

 

Hvis ikke, så er dette bare latterlig..

8662714[/snapback]

8800 GTS vil ikke støtte D3D10.1 som visst skal lanseres i slutten av dette året, og det ikke latterlig i det hele tatt.

 

Tesselering er etter hva jeg vet ikke en obligatorisk del av verken D3D10 eller D3D10.1, men er det kanskje tidligst i D3D10.2?

 

Tesselering-støtten finnes selvsagt, men HLSL-profilen finnes ikke enda (i likhet med SM2.0b og SM3.0 da D3D9 ble lansert med bare maksimalt SM2.0).

8664139[/snapback]

Det var ikke sånn jeg mente det med latterlig, men det at det hele jvla tiden skal oppdaterest HW..

 

 

Irriterende om det kommer bra spill, der man må ha de oppgraderingene..

8664178[/snapback]

Det kommer til å ta svært lang tid (2009?) før D3D10 begynner å bli et krav for å kjøre et spill, og enda lenger før D3D10.1 eventuelt blir det. Eksempelvis hvis et spill krever Vista != krever et D3D10 skjermkort!

 

SM3.0 (kortene begynte å komme i 2004) har jo knapt begynt å bli et minimum og SM2.0 vil være standarden i lang tid enda (Crysis, UT3, osv.).

Endret av guezz
Lenke til kommentar

Minimumskrav for UT3 er vel egentlig SM3-kapable kort. Fordi den bruker Unreal 3 engine som krever akkurat det. (R6 Vegas vil vel ikke kjøre på noe mindre såvidt jeg vet). Crysis på den annen side ser ut til å kunne klare seg med minimum SM2.0-kort.

Endret av Smirnoff
Lenke til kommentar
Minimumskrav for UT3 er vel egentlig SM3-kapable kort.  Fordi den bruker Unreal 3 engine som krever akkurat det. (R6 Vegas vil vel ikke kjøre på noe mindre såvidt jeg vet). Crysis på den annen side ser ut til å kunne klare seg med minimum SM2.0-kort.

8664433[/snapback]

UE3 støtter SM2.0, og jeg regner med at UT3 følger etter når systemkravene lanseres, selv om Vegas ikke gjør det.
Lenke til kommentar
Herre..........

 

Kan ikke dataverdenen roe seg ned litte grann.

 

Dx10 er nettopp lansert, så begynner de å whine om en ny en, pluss ny hardware.

 

Man utvikler neste generasjon "centrino" før santa rosa er blitt lansert LOL!

Dette betyr slutten på venting for min del, ikke la de kapitalistiske dataprodusentene bestemme når vi skal kjøpe ny hardware, om folk boikotter produktene tvinger man produsentene til å vente mer mellom hver lansering og ytelseøkningen mellom hver lansering blir større.

 

Unnskyld meg, men jeg blir litt irritert av dette maseriet om nye ting hele tiden, lengre tid mellom lanseringene og lag bedre produkter isteden. Om man er slik som meg som vil ha det nyeste så ofte som mulig, rekker man jo ikke å være fornøyd over det man har!

 

 

HUFF!

 

Ellers har jeg det fint :!:

8663394[/snapback]

 

Hva er problemet? Du kan vel bare vente litt lengre tid mellom hver gans du kjøper, og så får du et større ytelseshopp når du bytter?

 

AtW

Lenke til kommentar
Tesselering ser jo veldig kjekt ut det da! Bra at de utvikler slike løsninger!

8663017[/snapback]

Jeg tenker stikk motsatt - dette bidrar jo bare til å åpne gapet mellom ATi og Nvidia, og før vi vet ordet av det har vi spill som ser rævva ut på ATi men bra ut på Nvidia og omvendt. Jeg vil heller ha spill jeg kan spille like bra uansett kort. Litt ytelsesforskjeller er det jo, men spillene ser da i det minste like ut per dags dato, for det er brukt samme teknologier.

 

----------

 

Jeg hadde tenkt å oppgradere PCen etter nyttår, og tenkte å gå for SLI/Crossfire og hele pakken slik at kortene varer en stund - ytelsen vil jo holde lenge med to skjermkort, og "kortene blir vel ikke utdatert med det første grunnet mangel på teknologiske funksjoner, det er sikkert leeenge til neste versjon av DirectX kommer" tenkte jeg. Yeah right. :hrm:

Lenke til kommentar
Tesselering ser jo veldig kjekt ut det da! Bra at de utvikler slike løsninger!

8663017[/snapback]

Jeg tenker stikk motsatt - dette bidrar jo bare til å åpne gapet mellom ATi og Nvidia, og før vi vet ordet av det har vi spill som ser rævva ut på ATi men bra ut på Nvidia og omvendt. Jeg vil heller ha spill jeg kan spille like bra uansett kort. Litt ytelsesforskjeller er det jo, men spillene ser da i det minste like ut per dags dato, for det er brukt samme teknologier.

8664802[/snapback]

Hvem vet, tesselering kan ha en like lys fremtid som ATIs Trueform hadde ... :!:

 

Jeg er veldig skeptisk til slike teknologier så lenge dem ikke er en obligatorisk del av D3D, ikke minst grunnet at suksess er så avhengig av spillutviklernes iver (eller mangel av) til å bruke funksjonen.

Endret av guezz
Lenke til kommentar
men tenk kor rått dn dagen d blir støtte for 4 gpu i spill. Sikkert rå ytelse, og sjuk grafikk! Cant wait!

8664187[/snapback]

 

Tenk den dagen folk sluttet å bruke sms språk på forum :)

 

Syns ATI burde legge litt mer arbeid i driverene sine fremover. ATI har jo i årevis hvert kjent for å være håpløs i Linux, nå i det siste har jeg hatt samme erfaring i Windows også. Grunnet det håper jeg faktisk at mellomklassekortene til ATI fremover blir litt svakere enn Nvidia sine. Er surt å sitte på det nest beste grafikkkortet, fordi man ikke får brukt det beste grafikkkortet, grunnet noe så patetisk som driverproblemer.

Nå er det over et halvt år siden Vista ble sluppet og ATI har fremdeles ikke klart å lage en driver som virker skikkelig i Vista, jeg kan til nød forstå at det tar litt tid å optimalisere ytelsen, smekk til Nvidia også der, men at det ikke en gang virker som det skal syns jeg er uhørt.

Lenke til kommentar
Som flere har nevnt i andre tråder så blir det nok mer fokus på flere kjerner fremover også på GPU. Men ikke likeverdige kjerner, men muligens flere små spesialiserte kjerner osv.

8665474[/snapback]

 

Det har vi egentlig hatt lenge, selv om man ikke kan sammenligne med CPU kjerner, da CPU og GPU er veldig forskjellige ting. En moderne GPU har som tidligere nevn her flere hundre paralelle prosesseringsenheter (Stream-prosessorer, vertex engines, etc...) som nødvendigvis må bli det man samenligner med CPU kjerner. En moderne GPU har vesentlig større rå ytelse enn en moderne CPU grunnet mer spesialiserte prosesseringsenheter. En CPU er beregnet på å gjøre alt man ber den om, en GPU skal bare utføre enorme mengder spesifikk matematikk. En kan bare spekulere i hva det siktes til med flere kjerner i artikkelen her, men siden kildene var noe tvilsomme, er det vel ikke sikkert det betyr noe egentlig.

Lenke til kommentar

jeg tror, at om det blir flere "kjerner" så blir det et opplegg ala det gigabyte har hatt før, med to individuelle prosessorer, bare at denne gangen blir det på samme silikon-brikke.

 

dessuten så er det utrolig hvor lite mange her bruker hodet.

kommer med stygg kritikk uten å undersøke ting først.

 

det er ikke uten grunn at AMD ikke har lansert en sterkere modell, fordi at disse gpu'ene er laget med en teknikk som desverre også medfører mye lekkasje i prosessoren.

 

når de har fått hele linjen over på 65nm så blir det også brukt en annen teknikk for å lage dette som også medfører mindre lekkasje.

mindre lekkasje betyr mindre varme, mindre varme betyr at man kan øke klokkefrekvensen. og R600 skalerer meget bra hvis man overklokker den.

 

når HD2900 XTX og 2950XTX kommer så blir disse etter det jeg vet produsert ved 65nm teknikk, og vil av flere grunner, også det jeg har nevnt få høyere klokkefrekvens.

 

det har også vært snakk om at den dedikerte kretsen for AA var defekt, og dermed deaktivert. Og at det er derfor at AA på HD2xxx seriene er "SW" AA, eller programmerbar for å si det på en annen måte.

 

hvis dette er sant, så håper jeg at de klarer å fikse dette når de skal lage prosessorene ved 65nm. de har i allefall en stor mulighet her, sett at dette ryktet (om at AA kretsen(e?) er ødelagt) er sant.

 

Ang. DX 10.1 så er dette snakk om en utvidelse av DX10, og er ikke en stor forandring.

og som folk sier, man trenger ikke være redd for å måtte vente på dette, siden det neppe blir brukt uansett.

 

Ang. Tesselering, så venter jeg bare på at nVidia kommer med det samme, og at man får et felles grensesnitt for dette, enten via OpenGL eller DX eller begge deler.

når begge leirene har støtte for dette, da kommer spillprodusenter til å legge inn støtte for dette.

 

Vi trenger IKKE å være redd for å få utrolig god grafikk med et nVidia skjermkort, og dårlig med et AMD skjermkort, (eller motsatt) fordi at spillprodusentene ikke ønsker dette selv, og dermed unngår dette. f.eks. ved å ikke bruke funksjoner som bare finnes hos en skjermkortprodusent.

 

men jeg tror at tesselering vil være enkelt å implementere støtte for, i allefall i begrenset omfang, som f.eks. på "kartet/banen" i et spill.

og da kan vi oppleve bedre grafikk med et AMD kort som støtter dette.

men det vil jo da også medføre at nVidia kanskje ønsker å implementere en lignende funksjon selv. Med tanke på prosessorens oppbygning, så kan det kanskje hende at de implementerer støtte for dette via en driver også :)

 

Ang. at R700 skal bli forsinket, så husk nå på at ATI nå heter AMD, og har fått ny styring. som ønsker å snu denne trenden.

om den blir snudd med en gang er ikke sikkert, men bare se på linux-drivere, det har blitt bedre allerede ;)

Endret av tha stoffi
Lenke til kommentar
Med 55nm må det vel være mulig å få effekten brukbart ned. Tesselering virker også interessant, har ikke hørt om det før.  :hmm:

8661815[/snapback]

 

 

jeg har hørt om den funksjonen før, men da under ett annet navn.

 

ATI TruForm

TruForm ble først lansert innebygget i ATI's 8500 kort, og kom senere i en oppgradert version i 9x00 serien fra ATI, men det slo aldri an grunnet noen problemer med implenteringen av den funskjonen og DX8 og DX9 og funksjonen gikk i glemmeboken hos dem fleste :p

 

Wiki

presselansering, år 2001

PDF whitepaper

Mpeg video demostrasjon

Flash basert "teknisk" demo

 

sånn jeg ser det, så er tesselering en gammel ide fra ATI. litt morsomt egentlig, for i de gamle artiklene og demoene så skriver dem ofte "tessalation" når dem snakker om effekten TruForm gir i de dokumentene. ^^

 

 

Ang. Tesselering, så venter jeg bare på at nVidia kommer med det samme, og at man får et felles grensesnitt for dette, enten via OpenGL eller DX eller begge deler.

når begge leirene har støtte for dette, da kommer spillprodusenter til å legge inn støtte for dette.

 

Nvidia har hatt 6 år på seg med å støtte denne funksjonen. :evil::lol:

Endret av Prelude
Lenke til kommentar

det har også vært snakk om at den dedikerte kretsen for AA var defekt, og dermed deaktivert. Og at det er derfor at AA på HD2xxx seriene er "SW" AA, eller programmerbar for å si det på en annen måte.

 

hvis dette er sant, så håper jeg at de klarer å fikse dette når de skal lage prosessorene ved 65nm. de har i allefall en stor mulighet her, sett at dette ryktet (om at AA kretsen(e?) er ødelagt) er sant.

AMD explains Radeon HD 2900XT's poor AA performance 1:16PM, Monday 14th May 2007

 

The R600 is finally here, and in keeping with its mysteriously long gestation, in at least in its first incarnation as the HD 2900XT, AMD's new GPU still poses a lot ofquestions.One of the things we noticed during our in-depth testing of the card is that compared to its principle rival, the Nvidia GeForce 8800 GTS 640MB, the HD 2900XT performs poorly in many games when anti-aliasing is enabled.

 

In F.E.A.R., at 1,600 x 1,200, with AA and AF disabled, the HD 2900XT easily outstripped the 640MB 8800 GTS, delivering a minimum that was 23fps higher than the latter's. However, with 4x AA, the HD 2900XT's minimum framerate dived from 82fps to 21fps, while the 640MB 8800 GTS produced a minimum of 30fps. Adding 4x AA results in a 74% drop for the Radeon, compared to only a 49% drop for the GeForce.

 

The Radeon's framerates suffer disproportionately with anisotropic filtering, too. Again testing in F.E.A.R. at 1,600 x 1,200, we saw the HD 2900XT's minimum FPS drop by 10 per cent with 16x anisotropic enabled, compared to 3 per cent for the GTS, although the HD 2900XT still had a faster average. It was a slightly different result at 2,560 x 1,600, as the HD 2900XT's massive bandwidth gave it a boost, although adding 16x AF still had more impact than it did on the 640MB GTS.

 

As most gamers will want AA and AF enabled in games, the HD 2900XT's poor performance with these processing options enabled is a serious problem for the card and ATi. We asked ATi to comment on this surprising result and the company revealed that the HD 2000-series architecture has been optimised for what it calls 'shader-based AA'. Some games, including S.T.A.L.K.E.R., already use shader-based AA, although in our tests the 640MB 8800 GTS proved to be faster than the HD 2900XT.

 

We asked Richard Huddy, Worldwide Developer Relations Manager of AMD's Graphics Products Group, to go into more detail about why the Radeon HD 2000-series architecture has been optimised for shader-based AA rather than traditional multi-sample AA. He told us that 'with the most recent generations of games we've seen an emphasis on shader complexity (mostly more maths) with less of the overall processing time spent on the final part of the rendering process which is "the AA resolve". The resolve still needs to happen, but it's becoming a smaller and smaller part of the overall load. Add to that the fact that HDR rendering requires a non-linear AA resolve and you can see that the old fashioned linear AA resolve hardware is becoming less and less significant.' Huddy also explained that traditional AA 'doesn't work correctly [in games with] HDR because pixel brightness is non-linear in HDR rendering.'

 

While many reviews of the HD 2900XT have made unflattering comparisons between it and Nvidia's GeForce 8800-series, Huddy was upbeat about AMD's new chip. 'Even at high resolutions, geometry aliasing is a growing problem that can only really be addressed by shader-based anti-aliasing. You'll see that there is a trend of reducing importance for the standard linear AA resolve operation, and growing importance for custom resolves and shader-based AA. For all these reasons we've focused our hardware efforts on shader horsepower rather than the older fixed-function operations. That's why we have so much more pure floating point horsepower in the HD 2900XT GPU than NVIDIA has in its 8800 cards... There's more value in a future-proof design such as ours because it focuses on problems of increasing importance, rather than on problems of diminishing importance."

 

- http://www.custompc.co.uk/custompc/news/11...erformance.html

Lenke til kommentar
Herre..........

 

Kan ikke dataverdenen roe seg ned litte grann.

 

Dx10 er nettopp lansert, så begynner de å whine om en ny en, pluss ny hardware.

 

Man utvikler neste generasjon "centrino" før santa rosa er blitt lansert LOL!

Dette betyr slutten på venting for min del, ikke la de kapitalistiske dataprodusentene bestemme når vi skal kjøpe ny hardware, om folk boikotter produktene tvinger man produsentene til å vente mer mellom hver lansering og ytelseøkningen mellom hver lansering blir større.

 

Unnskyld meg, men jeg blir litt irritert av dette maseriet om nye ting hele tiden, lengre tid mellom lanseringene og lag bedre produkter isteden. Om man er slik som meg som vil ha det nyeste så ofte som mulig, rekker man jo ikke å være fornøyd over det man har!

 

 

HUFF!

 

Ellers har jeg det fint :!:

8663394[/snapback]

 

Det har nok alltid vært sånn at hardware-produsentene har ligget en generasjon eller to foran det feteste på markedet, i hvertfall på planleggingsstadiet. Men etter hvert som feks gamingindustrien har vokst så kolossalt som den har, så har man begynnt å spekulerer i rykter og lekasjer.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...