Gå til innhold

Domaldel

Medlemmer
  • Innlegg

    25
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av Domaldel

  1. Jeg er med på hva trådstarter sier (og vurderer selv pc til denne generasjonen, da jeg allerede har Wii U), men konsoll er etter mitt vett fortsatt overlegen pc på ett område; couch multiplayer.

     

    Pris er et annet argument for konsoll; vis meg gjerne en spill-PC til 3500kr som kan konkurrere med denne generasjons konsoller.

    Tja, hvorfor er konsollen bedre for flerspiller i sofaen slik du ser det?

     

    Hva pris angår, tja, du trenger ikke kjøpe mange spillene på pc istedenfor konsoll for å spare inn forskjellen i plattform pris.

     

    Dessuten så kan du oppgradere en pc del for del uten å skifte ut alt på en gang.

    Så 6000 for en grei pc som kun bruker integrert grafikk og spiller enklere spill, så kanskje rundt 4000 senere for et av de beste grafikkortene eller rundt 2000 for et midt på treet kort eller rundt 800 for et kort som kun er litt bedre en intel sin integrerte grafikk (eller som kan brukes i dual graphics med amds apu, skjønt det er egentlig bedre å spare til man har råd til noe bedre)

     

    Etter det så kan man når som helst forbedre PCen for noen tusenlapper og dermed få den opp på mere enn høyt nok nivå til å håndtere det meste av spill.

    Det blir kanskje en høyere start investering, men over tid vil jeg påstå at det egentlig er billigere å drive en pc en å holde seg oppdatert med konsoller.

  2. Nuvell... Ikke noe nytt at AMD kommer slentrende etter på teknologisiden da. Ikke noe negativt, da de som ikke fremmer fremskrittet hele tiden, ofte kan ta å skape rimelig gode og billige løsninger.

     

    At Nvidia sin løsning ikke var like "elegant" er vel ikke så rart, når det ikke eksisterte noe lignende fra før. Trengte å få ut løsningen, uten at de trengte å måtte vente på at skjermprodusenter skulle implementere det fullt ut.

     

    Pioneerende forbrukere på feltet har nok lite problem med å gjøre en så liten filleting selv.

     

    Men joda, godt å høre at noen tar å utnytter DP sine muligheter, selv om det er lovlig sent implementert. Hadde de fått til en felles standard så hadde det dog vært konge. :)

     

    Edit:

    Det begynner å bli ganske vanlig for spillene å kunne dele opp oppgavene i flere parallelle tråder. Gjerne 3-4, men noen få opp mot 6-8 tråder. Og selv om det ikke belaster maksimalt, så funker det godt nok til å gi stabilt god ytelse.

     

    Så det som virkelig har noe å si er en kombinasjon av god multitrådytelse og singeltråd. Både for realistisk last i bakgrunnen, men også at hver enkelt tråd ikke holder igjen informasjonen, slik at resten av maskinen må vente. Da dundrer minimum-FPS i bånn.

     

    Er det for få tråder/kjerner, så vil plutselig en kjerne kunne være opptatt med noe annet, som igjen betyr at visse oppgaver i spillet ikke lengre kan kjøre parallelt, men må vente på at noe annet blir ferdig. Også nå vil minste-FPS falle en god del. Helt typisk at dette skjer når det teller mest.

     

    Intel er klart best på enkelttrådytelse, men også på nivå med AMD på multitrådytelse, spesielt med HT, og ikke sjokkerende så vil denne fordelaktive kombinasjonen gjøre det sterkt i spill.

     

    Dog, nå begynner jo også 6-kjerner med HT å bli ganske "billig" fra Intel, så kanskje verdt å vurdere om man vil ha pose og sekk. :wee:

    Når en fx 8350 kan bli kjøpt i norge for like over 1300 NOK om du er heldig og en seks kjerners intel som ikke er xeon prossessorer med nedsatt hastighet koster like under tre tusen...

     

    Jeg tror jeg holder meg til amd her takk.

    Dessuten får jeg tilleggsbonusen at jeg ikke støtter "the devil" men "the underdog".

     

    Både intel og Nvidia bruker til tider ufine forretnings metoder mot amd.

     

    Kommer seks kjerners prossessoren til intel ned til rundt 2 000 så blir jeg nok nødt til å tenke meg litt mere om.

  3.  

    Tja, de fleste "vanlige" tester har neppe særlig mange andre programmer enn selve testen kjørende i bakgrunnen.

    Ja det er riktig. Alt for få benchmarker bruker realistisk last. F.eks. folk avslutter ikke nettleseren med 20 faner når de skal spille, så sitter det ørten sider med JavaScript og Flash og gnurer på CPUen, sammen med kanskje Skype, Spotify, antivirus osv. Disse kan påvirke gjenomsnittlig ytelse litt, men de påvirker latency ennå mer, siden Windows og de fleste Linux-distroer er ikke en real-time kernel, som gjør at prosesser kan bli forstyrret av andre. Flere kjerner hjelper på med å "isolere" spill når de kjører, så tanken er riktig så langt.

     

    Men den totale ytelsen til f.eks. en i5-4690K er i praksis totalt litt bedre enn en FX-8350. Som du har nevnt har Intel cirka en teoretisk ytelse på ~1.5x per kjerne i ren integer-ytelse, men forskjellen blir faktisk nærmere en faktor på 2 i praksis når det inkluderer overhead fra threading/scheduling og Intels bedre prefetcher. Sannheten er dessverre at AMDs kjerner er for svake til å kunne veie opp med flere kjerner.

     

    De fleste spillere som lager sin egen PC prøver jo å unngå bloatware som pesten. Men når det er mange prosesser (andre en de som har med OpenCL, OpenGL og directx å gjøre) så er det en fordel med flere tråder siden det gir flere forskjellige "køer" som oppgavene kan fordeles på uten at de kommer i veien for hverandre.

    Den her forstod jeg ikke.

     

    Se forøvrig det HKS skrev om HT.

     

    Jeg antar at du refererer til minimums oppdaterings hastigheten på skjermen.

    Og ja, selvsagt er en i5 bedre enn en fx 8350 på det, den har jo høyere enkel tråds hadtighet.

    Kan du forklare hva du mener her?

    20 faner!?!

    Det er nesten ingenting. :-P

    Selv er jeg ofte på omtrent 400 selv... :-/

    (Jeg vet, kjempe uvane)

     

    Når deg gjelder ytelse i spill så dreier det seg om enkelts tråds hastighet.

    Hvis du har oppgave 1, 2, 3, og 4 som må skje i rekkefølge før gpuen kan forsette og oppgave A, B, C, D og E (i rekkefølge) som er urelatert så vil en intel cpu gjøre oppgave 1 til 4 raskere og så a til e raskere.

    Tiden fra den får oppgaven til oppgaven er ferdig er mye kortere.

    Men jeg tenker mere på totalt antall oppgaver som blir gjort, på spillet, nettleserene, den virtuelle maskinen, tor, spotify, andre vpaer, hjemmeserveren som serverer flere folk samtidig med mere.

    Det blir en del ting.

  4.  

    Hva grafikk kort med prosessering angår så ser jeg frem til å lese om hva som kommer til å skje med HSA.

    Vi får se, jeg er ikke like optimistisk til HSA. Cache coherence på GPU er etter min mening en dårlig ide. Å programmere for en GPU er allerede fundamentalt forskjellige fra å programmere for en CPU.

     

    Uansett ser jeg på Mantle som et steg i riktig retning siden den blir åpen til forskell fra CUDA.

    Hvis den noen gang blir åpen. Jeg misstenker at Mantle er død og begravet den dagen DX12 er public.

     

     

     

    Jeg er fullt klar over at hypertråder dreier seg om at man simpelthen bytter catchen (hva nå det blir på norsk) mens en annen oppgave blir gjort og at det derfor ikke blir gjort to oppgaver på samme tid, og ja, det er lurt, du slipper å laste ut informasjon fra catchen til ram fra den første oppgaven og fra ram til catchen for den andre for å bytte mellom oppgaver slik du må med en vanlig kjerne.

    Du trenger ikke å bytte ut innholdet i cachen for å bruke HT. Begge de virtuelle CPU'ene kan ha data i cache samtidig. Det HT handler om er å dele eksekveringsresurser. En Haswell-kjerne kan eksekvere 8 operasjoner i parallell (8 ekekveringsporter)

     

    Jeg snakker ikke om å bytte ut data i catchen, ben å bytte selve catchen.

    Jeg må innrømme at informasjonen min om cpu arkitektur nok er for gammel til å si noe spesifikt om haswell eller andre nyere cisk cpuer)

    Men slik jeg forstår det på en risk cpu så aktiviserer man simpelthen enn annen catch (eller flere catxher) når man setter en tråd på vent slik at statusen på xpuen for den tråden simpelthen fryses mens den andre tråden jobber.

    Cpuen trenger litt tid på å bytte mellom oppgaver likevel og kan ikke gjøre det f. eks. mens den er i prosessen med å flytte data til en catch.

    Men dette er likevel langt raskere enn å fysisk flytte data til å fra ram for å bytte data på catchen som man må gjøre på en prosessor uten hypertråder.

     

    Men fordi prosessoren kun kan *arbeide* med en oppgave (selv om den kan ha en annen oppgave på vent i catchen mens den venter på nødvendig informasjon eller på at den andre oppgaven blir ferdig) så vil de likevel forsinke hverandre litt.

    Alle moderne prosessorer i dag har såkalte superscalar pipeline som gjør at prosessoren gjør mange oppgaver i parallell.

     

    Ja, greit...

    Det stemmer for så vidt.

    Men vi snakker likevel om en sammensatt kode.

    Ett sett med instrukser som blir gitt på en gang, som blir satt i gang på en gang og deler resurser i varierende grad på forskjellige steg i prosessen med å bearbeide dataen som cpuen ble gitt.

    Det er kanskje åtte forskjellige oppgaver på et vis, men det er likevel kun en kommando, er det ikke?

    Jeg trenger ennå å lese mere om dette temaet...

     

    Så ytelsen på den enkelte tråden sett utenfra på to tråder på en enkel intel prosessor vil vise en svært rask tråd mens den andre er tom men de to trådene vil likevel ikke yte like bra som to enkel kjerner fra amd i en amd modul når både intel kjernen og amd modulen har to fulle tråder.

    Du har nok misforstått litt hvordan en moderne CPU fungerer. Det som teller her er hvor mange instruksjoner i sekundet (IPS) prosessoren klarer å prosessere. Her er det et veldig komplisert blide. Jeg har dessverre ikke tid til å forklare alt, men parametere som er viktig er hvor god prosessoren er til å dekode instruksjoner, hvor effektiv minne hierarkiet er, cache prefetching, etc. Her er rett og slett Intel sine prosessorer i en helt annen liga en AMD.

     

    Jeg tror ikke jeg er helt på gjordet her.

    Men det høres ut som jeg kan lære av deg selv om jeg fremdeles er uenig.

    Så slår gjerne av en prat når du har mere tid.

     

    Disse prossessorene er flinke på forskjellige ting.

    Det er selvsagt mulig å plukke noen spesielle test case, men i de fleste tilfeller er Intel-prosessoren raskere. Som en bonus så bruker den også mye mindre strøm på å løse oppgaven.

     

    Vel, jeg vil likevel påstå at bruks mønsteret mitt passer bedre for den prosessoren enn en fire kjernes intel prosessor.

    Og at det slett ikke er så stor forskjell som du vil ha det til.

     

    Ps. En intel kjerne er ikke 1.5 x en amd kjerne men nermere 1.4, men det avhenger av om det dreier seg om reelle tall eller flyttall, og om det er enkel presisjon eller dobbel presisjon det dreier seg om.

    Den generaliseringen stemmer nok ikke, da det i praksis er veldig mye mer en teoretisk integer eller float ytelse man snakker om.

    Ja, du har også rett i at det er langt mere som spiller inn.

    AMD sliter virkelig med catch hastigheten f. eks, har dårligere minne kontrollerere, pluss, pluss pluss...

    Men jeg vil likevel påstå at det tallet gjelder når prossessorene går det alle remmer og tøyler kan takle.

    Det at den situasjonen der dette tallet kan gjelde i ikke oppstår så ofte for gjennomsnittsbrukeren er en annen sak.

  5.  

    Like fullt så frigjøres resurser slik at prossessoren ender opp med å ta seg av det som virkelig må bli gjort av den istedenfor å bli belastet med alle disse unødvendige oppgavene som den ellers må gjøre og som gjør at grafikkkortets opdaterings hastighet blir mere bundet til enkeltråds hastigheten til prossessoren enn den ærlig talt trenger å være.

    Slik det er i dag så yter en firekjerners i5 bedre til spill enn en åtte-"kjernes" FX-CPU fra AMD, selv om mye kjører i bakgrunnen. At AMD har flere "kjerner" veier ikke opp nok for dårligere kjerner.

     

    Uansett ser jeg på Mantle som et steg i riktig retning siden den blir åpen til forskell fra CUDA.

    Og uansett så er teknologien ny, så det kommer selvsagt til å ta tid før den blir relativt vanlig i spill. (Akkurat som physx blir den neppe universell med mindre Nvidia velger å støtte mantel med sine grafikk kort)

    CUDA-kompilatoren er åpen i dag i motsetning til Mantle, og er ikke noe luftslott.

    Jeg antar at du refererer til minimums oppdaterings hastigheten på skjermen.

    Og ja, selvsagt er en i5 bedre enn en fx 8350 på det, den har jo høyere enkel tråds hadtighet.

  6.  

    Hva som er raskest og/eller mest hensiktsmessig kommer nemlig an på arbeids oppgaven prosessorene blir gitt.

    En fx 8350 kan være raskere enn en i7 4750k eller tregere enn selv en (overklokket jubileums) pentium avhengig av oppgaven den blir gitt.

    Forklar et bruksscenario hvor en FX-8350 er bedre enn en i7-4670K. Nå snakker jeg om reelle bruksscenarier, ikke bare sære enkeltbenchmarks.

     

    I spill yter som regel intel bedre pga høyere enkeltråds ytelse og fordi få spill virkelig bruker mange tråder, og selv de som gjør det fyller ikke opp de gamle (noe som skal til for at fx serien skal skinne)

    Det er en gammel skrøne. Hverken Direct3D eller OpenGL støtter i dag bruk av flere CPU-kjerner samtidig, og det ville heller ikke gitt store gevinster. Flere kjerner hjelper kun til å hindre at kjernen med GPU context blir forstyrret, har du nok kjerner til at denne får fred så vil ikke flere kjerner hjelpe utover det.

     

    Men selv har jeg et bruksmønster som gjør at fx for meg personlig er et bedre alternativ en i5 (som fx 8350 konkurerer med på pris) eller en fire kjerners i7 (som er bedre så lenge kun seks eller ferre tråder er fylt opp)

    En seks eller åtte kjerners intel prosessor ville nok vært enda bedre men med prisen på de prossessorene samt hovedkort og minne moduler som kan brukes med dem så kan det være det samme.

    Da tar jeg heller noen få færre bilder pr sekund i gjennomsnitt på noen spill samt litt dårligere minimums hastighet.

    Jeg ville uansett fått lavere hastighet selv med en fire kjernes intel prosessor pga andre ting jeg gjør.

    (Hypertrådene kan bare virke på bekostning av de vanlige trådene så en intel kjerne med begge trådene fulle har dårligere ytelse på den enkelte tråden enn en amd modul (to forskjellige kjerner med vær sin tråd med noen få delte resurser) om de blir gitt flere oppgaver med reelle tall enn flyttall.

    HT er ikke egne kjerner, det er "virtuelle kjerner" som utnytter dødtid på de eksisterende kjernene.

     

    Å ha flere kjerner slik at spill får jobbe uforstyrret i forhold til bakgrunnsprosesser er riktig tenkt, men når en i5 har cirka dobbel ytelse per kjerne så har ikke AMDs 8 "kjerner" noe reelt fortrinn over Intel. Argumentet ditt hadde derimot vært gjeldende for en firekjerne mot en seks- eller åttekjerne fra Intel, hvor dette kan bidra til jevnere spillytelse.

    Tja, de fleste "vanlige" tester har neppe særlig mange andre programmer enn selve testen kjørende i bakgrunnen. De fleste spillere som lager sin egen PC prøver jo å unngå bloatware som pesten. Men når det er mange prosesser (andre en de som har med OpenCL, OpenGL og directx å gjøre) så er det en fordel med flere tråder siden det gir flere forskjellige "køer" som oppgavene kan fordeles på uten at de kommer i veien for hverandre.

     

    (Du ungår derfor den forstyrrelsen du nevnte, og ja jeg gjør nok samtidig til at de *vil* bli forstyrret)

    Og siden det er snakk om forskjellige programmer så er det *ikke* snakk om at oppgavene i de programmene har informasjon som spillene trenger eller motsatt, så parallelisering er definitivt ikke et problem.

     

    Forøvrig, jeg argumenter jo *for* amds prosessorer her...

    Tror du virkelig at jeg tror at en modul er der samme som en kjerne eller at en intel kjerne med to tråder er det samme som en modul?

     

    Jeg er fullt klar over at hypertråder dreier seg om at man simpelthen bytter catchen (hva nå det blir på norsk) mens en annen oppgave blir gjort og at det derfor ikke blir gjort to oppgaver på samme tid, og ja, det er lurt, du slipper å laste ut informasjon fra catchen til ram fra den første oppgaven og fra ram til catchen for den andre for å bytte mellom oppgaver slik du må med en vanlig kjerne.

    Men fordi prosessoren kun kan *arbeide* med en oppgave (selv om den kan ha en annen oppgave på vent i catchen mens den venter på nødvendig informasjon eller på at den andre oppgaven blir ferdig) så vil de likevel forsinke hverandre litt.

    Så ytelsen på den enkelte tråden sett utenfra på to tråder på en enkel intel prosessor vil vise en svært rask tråd mens den andre er tom men de to trådene vil likevel ikke yte like bra som to enkel kjerner fra amd i en amd modul når både intel kjernen og amd modulen har to fulle tråder.

    Men nå snakker jeg om 4750 (uten en k) mot en fx 8350 (som alltid er ulåst for overklokking uten at det koster ekstra).

    Tross alt så ble fx 8350 utviklet når i7 3750k var den beste prosessoren for den gjevne mannen i gata (seks kjernes prosessoren til intel var nå tross alt i en annen liga både på ytelse og pris)

    Og fx 8350 var tol tider bedre enn den da, og selv nå greier den av og til å yte bedre enn 4750k på standard hastighet om du overklokker fx prosessoren.

    Av og til slår den selv overklokkede 4750er, skjønt jeg er enig o at vi definitivt snakker om unntakene og ikke regelen.

    Det er ikke verst for en såppas gammel prosessor.

    Spesielt med tanke på prisen.

    Du får kanskje mere ytelse i de fleste situasjoner med i7 prosessorene, men fx 8350 slår i5 ofte og i7 en sjeldent gang og ligger ikke lenger bak i andre tilfeller enn at fordelene overgår ulempene i mitt eget tilfelle.

    Disse prossessorene er flinke på forskjellige ting.

     

    Ps. En intel kjerne er ikke 1.5 x en amd kjerne men nermere 1.4, men det avhenger av om det dreier seg om reelle tall eller flyttall, og om det er enkel presisjon eller dobbel presisjon det dreier seg om.

     

    Pps. Beklager bastante og raske uttalelser.

    Hadde en hund som måtte på tur og er litt trett.

    Men altså, så vidt jeg har forstått, har man en intel cpu og en amd cpu som begge kjører det remmer og tøy kan tåle så blir kjernene i intel cpuen omtrent tilsvarende 1, 4 amd kjerner, eller fire intel kjerner blir omtrent 5, 8 amd cpuer, (i noen sammenhenger, kommer selvsagt an på koden som kjøres, amd lcpuen iker reelle tall, intel er bedre på flyttall)

    Men det forholdstallet forutsetter at alle tråder faktisk blir fylt (jeg snakker 100% her ikke 80%).

    Har de mindre å gjøre så blir enkelt tråds ytelsen hos intel mere merkbar.

    Så ja, som regel vil en i5 kjennes bedre ut enn en fx 8350 i spill selv med noen andre oppgaver.

  7.  

    MantelMantle fungerer bra den for folk med både amd prosessor, amd gpu og spill som implementerer det bra (battlefield 4 er kanskje ikke det beste eksempelet her)

     

    Så ingen grunn til å rake ned på mantel ennå.

    Siden du ikke vet hva Mantle faktisk er, så klipper jeg inn et tidligere sitat fra meg selv:

    De fleste av dere vet ikke hva Mantle er og hva det prøver å adressere. Tradisjonelt har GPUer fungert veldig enkelt; du velger input-data(1), velger en operasjon som skal utføres på dataen(2) og du velger hvor eventuell output skal lagres og data frigjøres(3). (eksempel: du binder en mesh og en tekstur til et område i GPUens minne, tegner, og så frigjør bindingen) Dette gjøres gjennom en rekke API-kall. GPUens fordel har vært evnen til å parallelisere, men til mer manipulering som et spill trenger til flere API-kall blir det. Eks: hvis du har en stor mesh av et detaljert statisk terreng kan du gjøre det med ett enkelt sett med kall, men om du vil animere et stort antall objekter så ender du opp med å sende API-kall for hvert av disse. Om du vil animere deler av et objekt blir det ennå mer komplisert osv. Hver gang vi sender slike kall til en GPU blir det ekstra overhead, og det hindrer optimal utnytting av GPUens prosesseringskraft. For å tillate mer mangfoldig og effektiv manipulasjon av data har GPUer siden OpenGL 1.5 og Direct3D 8 tillatt programmering av operasjonene som ser inne i GPUen. Dagens versjoner av OpenGL og Direct3D fungerer fremdeles veldig tungvindt, og opererer fremdeles på låste minneområder for inn- og utdata, og krever fremdeles store mengder API-kall i spill med mye dynamikk. OpenCL fungerer prinsippielt veldig likt med OpenGL på (1)(2)(3), som gjør at det er veldig utfordrende å utnytte effektivt. Programmering med disse APIene er også svært ulikt måten CPUer programmeres på.

     

    Nå må jeg ta et lite sidespor; disse problemene er nettopp noe Nvidia har forsøkt å løse med CUDA. I CUDA er GPUen i langt større grad programmerbar til generelle operasjoner, er i stand til å aksessere vilkårlig data innen minneområde, avansert kontrollflyt, strømme data direkte fra PCIe-enheter og til og med kontrollere threads på GPUen. Å programmere i CUDA blir prinsippielt veldig likt med å programmere i C, som gjør det enklere å bruke CPU og GPU mest mulig effektivt sammen, fremfor OpenCL, OpenGL osv. hvor CPUen sløser mye ressurser på å styre GPUen. Nvidias GPUer er i stand til å styre minneallokering og threading internt, og andre APIer er for gamle til at de er designet for å utnytte dette. Parallelt med utviklingen av CUDA har Nvidia tilbydd utvidelser til OpenGL som utnytter samme egenskaper i GPUen til grafikk. Dette omtales ofte som "bindless graphics" og generell dataaksessering. Denne økte programmeringsfunksjonaliteten har blant annet to store fordeler:

    1) Redusert overhead med mindre API-kall fra CPU

    2) Mer effektiv utnyttelse av dyrebar L2-cache i GPUen, og kan gi raskere minneaksesser når GPUen selv får styre dette.

    Selv tilbake på GT200-serien kunne dette gi omtrent 7.5x høyere VBO-ytelse, som er viktig til flere objekter som manipuleres. Dette har gradvis blitt utvidet til at GPUen nå kan aksessere f.eks. teksturdata direkte via pekere.

     

    Den som forstår det jeg snakker om her forstår også at Mantle som enkelt og greit prøver å redusere overhead per API-kall bare er en mellomløsning. Alle GPU-programmerere vet at fremtiden ligger i å programmere GPUen direkte, så Mantle vil fungere som et botemiddel frem til at AMD har en GPU-arkitektur med mer funksjonalitet. Hverken AMD eller Intel er i nærheten av å kunne tilby den funksjonaliteten Nvidia har i GPUene sine, og derfor blir ikke OpenGL oppdatert til å utnytte dette på en stund. Det er muligheter for at AMD har muligheten for noe slikt med sin neste arkitektur som skal avløse GCN. Mantle er ikke en god løsning på noen av problemene, og burde heller kommet for 10 år siden.

     

    Dessverre er det slik at utviklingen holdes tilbake av en rekke GPU-produsenter, deriblant også de små. Jeg ønsker at AMD og Nvidia tar seg sammen for å utforme en helt ny generasjon spesifikasjon ("OpenGL 5.0"), som følger mange av prinsippene Nvidia har brukt i CUDA, men selvsagt på en produsentnøytral måte. Jeg ønsker en spesifikasjon som er designet for å utnytte fremtidige GPUer optimalt, ikke for GPUer midt på 90-tallet. Det er noen som syter over at OpenGL burde hatt Direct3Ds objektmodell, men den har faktisk mer overhead og er også uansett utdatert.

    Det blir uansett feil å fremstille det som at det er AMD-CPUer som utnytter Mantle godt, det er tvert imot at Mantle som klarer å motvirke AMDs ulemper.

     

    Like fullt så frigjøres resurser slik at prossessoren ender opp med å ta seg av det som virkelig må bli gjort av den istedenfor å bli belastet med alle disse unødvendige oppgavene som den ellers må gjøre og som gjør at grafikkkortets opdaterings hastighet blir mere bundet til enkeltråds hastigheten til prossessoren enn den ærlig talt trenger å være.

     

    Hva grafikk kort med prosessering angår så ser jeg frem til å lese om hva som kommer til å skje med HSA.

    Får de det til å fungere bra på en prosessor så ser jeg ingen grunn til at de ikke kan overføre det de lærer der til grafikkkortene.

     

    Uansett ser jeg på Mantle som et steg i riktig retning siden den blir åpen til forskell fra CUDA.

    Og uansett så er teknologien ny, så det kommer selvsagt til å ta tid før den blir relativt vanlig i spill. (Akkurat som physx blir den neppe universell med mindre Nvidia velger å støtte mantel med sine grafikk kort)

  8.  

     

     

    Det er grunn nok til å rakke ned på mantel nå, fordi det er ikkje konge enda. Har 2x 290, og de blir ikkje brukt mye for å si det slik. DX fungerer bedre og har mindre bugs enn mantel for meg.

    Intel prosessor?

    Hvem er det som har AMD cpu nå :rofl:

    Flere en du tror.

    Hva som er raskest og/eller mest hensiktsmessig kommer nemlig an på arbeids oppgaven prosessorene blir gitt.

    En fx 8350 kan være raskere enn en i7 4750k eller tregere enn selv en (overklokket jubileums) pentium avhengig av oppgaven den blir gitt.

     

    Om jeg skal spille dwarf fortess så er selvsagt en intel prosessor best pga en langt bedre enkeltråds ytelse (spillet benytter bare en enkel tråd og selv en pentium kan derfor potensielt yte bedre enn prosessorer med flere kjerner som f. eks. en i7 om du er heldig med overklokkingen)

     

    I spill yter som regel intel bedre pga høyere enkeltråds ytelse og fordi få spill virkelig bruker mange tråder, og selv de som gjør det fyller ikke opp de gamle (noe som skal til for at fx serien skal skinne)

    Men selv har jeg et bruks mønster som gjør at fx for meg personlig er et bedre alternativ en i5 (som fx 8350 konkurerer med på pris) eller en fire kjerners i7 (som er bedre så lenge kun seks eller ferre tråder er fylt opp)

    En seks eller åtte kjerners intel prosessor ville nok vært enda bedre men med prisen på de prossessorene samt hovedkort og minne moduler som kan brukes med dem så kan det være det samme.

    Da tar jeg heller noen få færre bilder pr sekund i gjennomsnitt på noen spill samt litt dårligere minimums hastighet.

    Jeg ville uansett fått lavere hastighet selv med en fire kjernes intel prosessor pga andre ting jeg gjør.

    (Hypertrådene kan bare virke på bekostning av de vanlige trådene så en intel kjerne med begge trådene fulle har dårligere ytelse på den enkelte tråden enn en amd modul (to forskjellige kjerner med vær sin tråd med noen få delte resurser) om de blir gitt flere oppgaver med reelle tall enn flyttall.

  9.  

    Vel, kanskje du ikke troller. Men kommentarer som "Om et par år" er med på å skape et bilde av at du gjør det. AMD har kommet med en Q&A der de sier skjermer vil komme på markedet innen 6-12 månder

    12 månder er nok mer realistisk en 6 månder. Tipper de første skjermene er på markedet i første kvartal 2015.

     

    Når det er sagt så skal all kudos gå til nVidia som fikk sparket bransjen bak med G-sync, men lukkede løsninger lønner seg sjeldent.

    Blir litt som Mantle mener du... ;)

    Mantel fungerer bra den for folk med både amd prosessor, amd gpu og spill som implementerer det bra (battlefield 4 er kanskje ikke det beste eksempelet her)

     

    Så ingen grunn til å rake ned på mantel ennå.

  10. Det er jo en viktig grunn til at denne ikke teller. Undersøkelsen er bare for USA. Tror de fleste av disse selskapene operere utenfor landets grenser. For å finne ut hvor mye et merke er verdt er det jo da viktig å se på hele verden, når selskapene er internasjonale.

     

    Er det sannsynlig at Samsung ville kommet på 7. plass i Korea, når de står for 20% av landets BNP? Er det sannsynlig at selskaper som ikke driver noe særlig virksomhet i landet ville kommet høyt opp? Neppe. Det gjelder jo for alle land. Denne oversikten ville jo vært veldig annerledes for Norge. Mange navn der som er mer eller mindre ukjente, mens Statoil er jo ingensteds å se.

     

    Ellers er jo IBM høyt oppe, selv om de stort sett ikke er synlige på forbrukermarkedet (hvertfall ikke i Norge). Så det de gjør på bedriftsplan må jo telle med ganske mye og. (hvis du ser på logoen er det tydelig at forbrukermarkedet ikke akkurat står i fokus)

     

    Undersøkelsen er jo og åpenbart lagd slik at bare selskaper som er store og selger innenfor store kategorier kan komme på topp. Selv om du har en merkevare som er anerkjent som den klart beste, vil det ikke gi noe utslag her. Det ser du jo på Intel. Fallende PC salg fører til lavere plassering, samtidig som monopolet til Intel pga av merkevaren øker (FX serien blir jo relativt svakere og svakere i forhold til intel prosessorer. I tester kan du jo nå få like god ytelse med i3). Så selv om Apple har en 4 ganger sterkere merkevare har de ikke engang høyeste markedsandel, mens intel har 100% av toppprosessormarkedet.

     

    Heh, å si at en i3 er bedre en en fx 8350 er som å si at en G3220 (to kjerner intel prosessor uten hyperthreading som kan overklokkes) er bedre enn en i7-4960X (åtte kjernes intel prosessor)

     

    Og ja, det stemmer på et vis, men det er fordi forskjellige prosessorer er gode på forskjellige typer oppgaver og vil yte forskjellig basert på hvordan et program er kodet.

     

    Så, ja en i3 er bedre i noen sammenhenger enn en fx 8350, men på samme tid er en fx8350 bedre enn en 3770k i noen sammenhenger ved standard hastighet og om du er heldig med overklokkingen kan den også slå en 4770k med noen typer koder og ligger ikke langt bak med andre.

    Har ikke sjekket hvordan den ligger an sammenlignet med 4790k ennå...

     

    Jeg kan sikkert gå mere inn i detaljer på hvorfor det er slik om du ønsker det, men det er nå slik det henger sammen, så jeg ville sette pris på det om du ikke kom med slike absolutte påstander som at i3 er bedre enn fx serien da dette er svært situasjons avhengig.

     

    Forøvrig er nok den beste løsningen for spill en i5, men jeg kommer likevel til å bruke en fx 8350 PCen jeg skal bygge nå pga mitt eget bruks mønster som passer den litt bedre i de sammenhengene som jeg pleier å merke det best, det kommer til å koste meg litt i min fps, men det er den avveiningen jeg må ta for bedre ytelse på andre områder.

    En 4860x ville sannsynligvis vært ennå bedre for mitt bruk, men der kommer prisingen inn, samt at jeg kun har ddr3 minner tilgjengelig og ikke vil bruke penger på ddr4.

  11. En annen ting.

    Hvilke skip bruker dere?

    Riktignok har en hornet samme max hastighet som en m50, men dens forhold mellom vekt og kraft gjør det umulig å akselererer så fort som en m50.

    Spillet bruker ekte newtonsk fysikk, så ting som vekten på skipet, panseret, våpnene, ammunisjonen, lasten og så videre påvirker hvordan skipene flyr.

    Hvor på skipet du plaserer disse tingenne spiller også en rolle.

    Samt hvilken deler dere bruker.

    Noen skip er ment å være raske som f. eks. M50, og 350r, andre er laget for andre oppgaver men er ok på fart som resten av 300 serien, og avengeren.

    Andre skip igjen er fokusert langt mere på andre oppgaver som handel og/eller utforskning av universet (der energi effektivitet på motorene er viktigere en ren fart) som freelancer serien og aurora serien (skjønt noen varianter er mere kamp orientert)

    Andre skip igjen fokuserer på f. eks. kamp og har derfor ting som tungt panser og tunge våpen.

    Du kan justere skipene når spillet kommer ut for å bedre enkelte egenskaper på bekostning av andre, men det er lurt å ha i mente at disse skipene er ment for disse oppgavene og ikke fart i utgangspunktet så hvor mye du må ofre av andre ting for å oppnå ønsket adferd for et skip kan variere.

  12. Greit at styringen skal være korrekt med tanke på fysikk, men ett spill er ett spill, akkurat nå er styringen helt håpløs. Racing blir ikke det samme.

     

    Smak og behag.

    Forøvrig er dette ikke et eget spill men en del av det som kommer til å bli det færdige spillet der det er et mål at folk skal kunne leve seg inni universet uten å bli for distrahert av urealistiske ting.

     

    Forøvrig, har du prøvd å bruke turboen for ting som bremsing og svinging?

    Eller å skifte flymodus?

  13.  

     

    Avskaff kollektiv avstraffelse (lagringsmedieavgiften) og innfør straff som står i stil til forbrytelsen. For eksempel samme straff for nasking av CD fra butikk som fra nett. Et forenklet forelegg på noen få hundrelapper bør være passe. Avskaff samtidig muligheten for at det private næringsliv kan utføre politiarbeid som etterforskning.

    Enig i at det bør bli slutt på kollektiv avstraffelse. Dette er bare dumt, gagner ingen og "tyvene" lærer heller ingenting. Problemet ved å sammenligne dette med nasking fra butikk, er at i butikken har du priser og muligheten til å betale om du ønsker det. Når der gjelder film er det vel heller få plasser på nettet hvor du faktisk kan kjøpe og laste ned en film med brukbar bitrate på både lyd og video.

    Hvorfor skal filmindustrien være så forskjellig fra musikkindustrien? Ikke noe problem å finne nettsteder hvor man kan betale et par kr og laste ned en mp3 med grei bitrate. Det samme gjelder for spill, så folk som ripper spill og musikk har jeg ingen sympati for. Folk som dist. video og tv-serier ulovlig skjønner jeg godt. Her har bransjen bare med å få ut fingeren, vi lever ikke lengre på 90-tallet.

    http://everythingisaremix.info/watch-the-series

     

    Ta en titt er du snill.

    Kanskje ikke helt det samme som piratkopiering for å lytte til musikk men problemet er beslektet og dreier seg om en tullete måte å se på informasjon som eiendom...

    Det er ikke bare forbrukere som straffes av det nåværende systemet.

    Men og kunstnere.

  14. Poenget mitt er at linux varinter er så forskjellige at de selvsagt "er raskere" i den forstand at noen varianter er det, akkurat som at noen varianter er senere.

    Dette er litt som å spørre hvem har den farligste jegeren, katte dyr, hunde dyr eller primater?

    Og så stiller man med en eller annen ape som knapt kan kalles primat istedenfor mennesker...

    "Min part" har ikke tapt av den enkle grunn at den ikke en gang har fått deltatt. (Skjønt ærlig talt så er jeg ennå windows bruker så antagwlsene dine er helt på jordet)

    Missforstå meg rett, det er aspekter av ubuntu som virkelig ikke er så verst, men hele poenget med linux er at det er et så enormt utvalg av distroer at hvem som helst kan finne en distro som enten passer godt eller i noen tilfeller er nærmest skreddersydd for behovet til den enkelte.

     

    Men det enorme utvalget betyr at det blir heller dumt å si noe universelt om alle linux distroer eller å si at "linux" er bedre eller dårligere enn en annen OS.

    I det minste når det gjelder ytelse av det slaget nevnt i denne artikkelen.

     

    Hvis du først skal snakke om problemer med linux så er det bedre å forholde seg til fakta slik som at linux distroer sjeldent har tilgang til like gode drivere for maskinvaren som windows har.

     

    Og hadde de sagt "ubuntu" i overskriften istedenfor "linux" så hadde jeg ikke hatt noen problemer overhode med artikkelen.

     

    Ei heller om Windows faktisk slo linux varianter som blir sett på som gode på de oppgavene der blant brukerne.

    • Liker 1
  15. Ok, først av alt, selv om det er interessant hva Snowden forteller så er det ærlig talt ikke troverdigheten hans som har noe å si men det faktum at fordi han har informert oss om NSA sine metoder så kan vi dokumentere selv flere av de tingene han sier simpelthen ved å vite hva man skal se etter.

    Alt legger igjen spor på nettet inkludert NSA, og flere hackere har sett disse sporene nå som de vet at de eksisterer og faktisk ser etter dem.

    Man trenger ikke å involvere terrorister på noen måte for å bli overvåket.

    De har programmer som automatisk hacker deg om du besøker bestemte sider inkludert uskyldige nyhetsider om linux.

    Hvorfor gjør de det?

    Hvem vet?

    Den eneste mulige forklaringen på hvorfor de måtte være interessante nok ser uttil å være at de av og til har artikler om tails.

    Men når søren ble det ulovlig eller for den saks skyld noe som rettferdiggjøre overvåkning av alle som besøker siden?

     

    Det er ingen dommere involvert i spørsmålet om du kan bli overvåket eller ikke, føler de for å se på dataen din trenger de ingen grunn i det heletatt.

    De simpelthen har systemer som automatisk laster ned og lagrer all information om deg i femten år.

    Det trenger ikke en gang være mennesker involvert i avgjørelsen.

    De fleste som blir overvåket av NSA har overhode ingen interesse for dem.

    Men ved hjelp av datamaskiner kan de drive data mining på informasjonen og siden du ikke er amerikansk statsborger gjøre hva de vil med dqtaen din inkludert å laste ned bilder fra web kamera selv når du har dem avskrudd eller å skru på mikrofon på mobilen eller hva som helst annet de måtte ønske.

    Det er ikke vanskelig for d em heller, hakkingen er automatisert og benytter seg av sårbarheter i programvaren som enten ble laget for at de skulle bruke dem eller som i vet om men ikke varsler fra om.

    Sårbarheter som kriminelle lett kan finne og bruke til ting som å stjele kredittkort informasjon fra deg eller drive utpressing av deg.

     

    Så selv om du ikke har noe i mot overvåkningen i seg selv (noe jeg ser på som uhørt) så skader de deg likevel og er muligens indirekte skyldig i de telefon regningene som jeg regner med at du fikk om den historien din der oppe er sann.

  16. Jacob Applebaum: To Protect And Infect, Part 2 [3: http://youtu.be/vILAlhwUgIU

     

    Tja...

    Er neppe noen reelt "sikre" tjenester der ute.

    Menn disse tingene her kan hjelpe:

    https://prism-break.org/en/

     

    Installer tails og bruk hode online så kan du unngå mye.

     

    Og hva frykt angår så er du på jordet.

    Jeg er ikke redd men forbannet.

     

    Privat liv er ikke bare en gode menn en rettighet og de prøver å ta den vekk fra meg.

    Ikke pokker om jeg har tenkt å gjøre det lett for dem...

    • Liker 2
  17. Tullball, denne artikkelen tar kun for seg en av de tyngste linux variantene.

    For oppstarts og avsluttnings tid f. eks. er puppy linux milevis foran samtlige nevnte operativsystem.

    Og flere andre kan få disse til å bite støvet.

    Ubuntu har blitt for kjent og populært og er derfor nesten like ille som de andre.

    Men det har lite med "myten" å gjøre.

    Om man ønsker en rask pc med linux så velger man også os deretter.

    Se nettsiden distrowatch for et lite utvalg av det som er der ute.

  18. Haha, bruk heller Spider Oak, som dere ikke kommer inn på siden til? Jeg kommer fortsatt ikke inn.

     

    Seriøst... jeg får ikke noe bedre inntrykk av de om siden deres er nede i tide og utide.

     

    Uansett, hva har jeg på Dropbox som myndighetene kan ha interesse av da? Så lenge man er lovlydig så har man ikke noe å skjule. Og sjansen for å bli utvalg til å bli "overvåket" om man er lovlydig er mindre enn sjansen for å vinne førstepremien i lotto. Unødvendig skremselspropaganda som kun kriminelle har nytte av.

     

    Jo, forresten, nå kom jeg inn på Spider Oak. Men jeg rakk å gå inn på forumtråden, lese den, trykke "Svar" og skrive alt det ovenstående først. Og jeg har 25mbit. Nei, holder meg unna trege nettskytjenester som det der :-)

     

    Feil, feil og atter feil.

    Vi har vist i mange år at NSA har overvåket folk, men det som Snowden avslørte er ikke at de overvåker forbrytere og terrorister men nettopp lovlydige folk. Alle lovlydige folk.

    Jeg kan praktisk talt garantere at du har en mappe på NSAs database, akkurat som jeg og alle andre på Internett.

    De har brukt det til utpressing før for å skaffe informasjon om en tredjepart, noen andre en den som er overvåket.

    Om du kjenner noen av interrsse eller noen som kjenner noen av interesse eller har hat kontakt med noen slike på nettet på en eller annen måte så er du et potensielt mål for ikke overvåking (for du er alt overvåket) men analyse av de dataene som alt er lagret om deg.

    Og ja, sjansene for at det går videre fra der til å få følger for deg er små...

    Men tenk på folk som journalister som har hemmelige kilder.

    Det er alt journalister rundt om i verden som ikke lenger kan kontakte kilder fritt gjennom internet tfordi de ikke kan stole på at kildene er trygge.

    Og tror du at USA ikke deler disse dataene med allierte autoritære regimer?

    Om jeg var i opposisjonen i div land på den arabiske halvøya så ville jeg vært nervøs ved bruk av Internettet nå...

     

    Dette er ikke et triva slik som hvilken kjole Mette Marit har på en dag, men et reelt demokratisk problem for alle land i verden.

    Og selv om vi personlig ikke har mye å skjule så ser jeg det som en plikt for oss å motarbeide et slikt system ved å skjule hva vi gjør som en protest mot denne typen oppførsel og for å vanskeliggjør stor skala analyse av andre som prøver å skjule seg av bedre grunner ved å gjøre gjemsel vanligere og de med reelt behov for gjemsel vanskeligere å peke ut i mengden.

    • Liker 7
×
×
  • Opprett ny...