Jump to content

ElderScrollsinisten

Medlemmer
  • Content Count

    831
  • Joined

  • Last visited

Everything posted by ElderScrollsinisten

  1. Jeg nevnte ikke BF:V og hevdet ikke dette! Det sier seg selv at ytelsen øker for hver generasjon, men det var heller ikke poenget. Og igjen, spekulasjon men: Nvidia har ytelsestronen, og det har de soleklart hatt siden Maxwell. Videre er det rimelig å anta at de har god profittmargin, siden de generelt legger ved mindre/og/eller billigere minne (GDDR5(X)/6, ikke HBM(2)), samt bruker mindre brikker for samme ytelse sammenlignet med AMD. Kort sagt hadde de i grunn ikke behøvd å lansere Turing for å være ledere konkurransen (til og med Vega VII er antatt å yte ca som en 1080 Ti i spill!) og høste god profitt. Det er en kjent sak at krymping av produksjonsprosessen eskalerer vanskelighet og kostnad til et punkt hvor dette vil gå langsommere. Turing er laget på store brikker sammenlignet med Pascal, men mye av arealet er satt av til RT/Tensorkjerner. Nvidia kunne ha valgt regelrett å parkere Pascal i rasterisering og høste langt færre negative anmeldelser på grunn av høy pris for lite økning i ytelse, men det gjorde de ikke. Med hensyn på RT-ytelsen mot det som har vært mulig uten dedikert HW eller på eldre mobilgrafikk, dreier spekulasjonen seg om at ytelsesøkninger her (i større grad enn rasterisering) for Nvidia er svært lavthengende frukt og vil tjene som salgspitch i fremtiden. Poenget var også at nå med få spill og med stor (spekulativ) fare for å bli datert i RT allerede ved neste generasjon, tror jeg ikke folk vil angre seg ved å stå over. Å etablere eksklusive økosystemer og proprietære løsninger er Nvidias mellomnavn. F.eks: Gameworks, G-sync og GPP. Se hvordan førstnevnte ble brukt til Nvidias fordel mhp. AA i spill. Det ville overasket meg om de ikke har et ønske om å gjøre sin arkitektur til "suveren" på en lignende måte med RT-kjerner. Er selvsagt spekulasjon, så du må gjerne be meg ta av meg hatten av aluminiumsfolie, men på bakgrunn av mistanker, velger jeg å stå over Turing.
  2. Er ikke så sikker på at de vil angre seg. Det vil ta en stund før vi får en stor portefølje av spill som støtter ray tracing og det er en ekstremt liten fraksjon av markedet som faktisk har RTX kort (sannsynligvis under 0,5 %). Ytelsen taper seg en god slump ved relativt enkel hybrid rendering også. Om 10 år er det ingen tvil at dette kommer til å være vanligere, men tror jeg for min del venter til pris/ytelse er et stykke på vei og dette blir utbredt. For å spekulere litt: Nvidia har nok tatt et bestemt valg med Turing: De visste at de kun hadde utkonkurrert seg selv for ytelsestronen om de hadde brukt hele Turing-brikkene til rasterisering, men ved å etablere et økosystem rundt tensor/RT-kjerner kan de få et enda hardere grep om markedet pga. dedikert og proprietær hardware; på grunn av dette gjetter jeg på at salgspitchen i kommende generasjoner i stor grad vil dreie seg om langt flere "gigarays" enn Turing kan dytte ut. Er ikke så urimelig å anta at dette er noe de enkelt kan få til: https://www.reddit.com/r/Amd/comments/9bj93j/technical_informationpaper_for_raytracing_test/
  3. Dette blir jo en smakssak. Synes Model S ser helt OK ut. Model 3 er litt stutt, men med riktig lakk ser den også helt fin ut i mine øyne. Model 3 står i alle fall ikke svakt sammenlignet med Opel Ampera-E/Chevrolet Bolt og Hyundai Kona som sannsynligvis blir nærmeste elektriske alternativ enn så lenge. Noe som må nevnes er at designet nok har noen kompromiss for å oppnå svært lav luftmotstand, noe en trygt kan finne seg i, når dette er av betydning for rekkevidde og kjøreegenskaper.
  4. Dette kan jeg stort sett si meg enig i. Av og til er det nok nødvendig med en tredjepart for å roe gemyttene! Det er tydeligvis blitt slik at det er urealistisk å forvente at Battlefield-serien vil gå i en noenlunde historisk representativ retning. Synes for min del at atypiske karaktergalleri, antrekk o.l. over-the-top actionsekvenser ville gjort seg bedre i en spin-off av serien.
  5. Siste del av kommentaren fortjener egentlig ikke et svar. Dette er et stråmannsargument krydret med nedlatende sarkasme. Allikevel er svaret er nei, og dette burde være klart for de som har tatt seg bryet med å lese tidligere poster. Første delen har vi allerede snakket om. DICE har langt på vei uttalt seg om designvalgene i politisk øyemed. Man kan enes om dette er riktig tilnærming eller ikke. Jeg for min del foretrekker at BF-serien holder seg utenfor politikk, hva angår designvalg. Utformingen burde etter min mening holde seg relativt nært en representativ virkelighet, men med noe arkadepreg på online gameplay. Oppleves denne meningen som problematisk for deg? Poenget med sistnevnte kommentar er at jeg ikke hevdet at det ikke fantes kvinner, eller svarte, eller soldater med proteser (eller en hvilken som helst annen særkategori, hvorav noen tilhører ekstreme sjeldenheter) som tjenestegjorde i første (for aktuelle tilfeller i BF1), eller andre verdenskrig (BFV). Dette inkluderer selvfølgelig mer, eller mindre gode eksempler på kombinasjoner av nevnte særkategorier. Å påpeke at dette er en lite representativ fremstilling, som er politisk motivert (se tidl. sitat av DICE-ansatte), og at dette er noe man ikke foretrekker, burde strengt talt være fullstendig uproblematisk. Andre standpunkter er allerede uttrykt i tidligere poster og det blir lite meningsfylt å gjenta seg selv.
  6. Korrelasjon gir ikke kausalitet. Det er nokså åpenbart at de som klager har mindre sannsynlighet for å kjøpe og at de slik sett kan feilplasseres i kategorien som "de som ikke er interessert i Battlefield". På den annen side: Hvorfor hadde de kommet med utfyllende kritikk, dersom om de ikke var interessert? En langt mer sannsynlig årsaksforklaring er misnøye med retningen serien tas i. Det sammenfaller også bedre med at de du beskriver har erfaringer fra tidligere lanseringer i serien. Tre nye anekdoter. Er du tilfreds med dette svaret? Har du egentlig lest kommentarene? Jeg har ikke påstått det motsatte av det du "beviser" her.
  7. Flere mer eller mindre gode anekdoter gjør lite for å motsi argumentene som har blitt presentert for deg (med mindre du skulle klare å oppdrive et vannvittig antall av dem). Neida, det er ikke noe galt i det, selv om jeg er uenig i valgene DICE gjør. Jeg mener ganske enkelt at dette heller for mye i retning fri fiksjon og overdrevne actionsekvenser (trailer), samt at troverdigheten lider under dette. Uansett må det være takhøyde nok til å kritisere utformingen av spillet. Kritikken mot DICE har belegg, både hva angår representasjon av historien, samt DICE sitt ønske om å uttrykke sine politiske oppfatninger gjennom spillene sine. Når medlemmer stempler andre som konspirasjonsteoretikere, antyder de er skoletapere som fordreier sannheten og sammenligner dem med Donald Trump, så er det legitimt å ta en konfrontasjon. I lys av forumtråden er det er nokså ironisk å se at det er kritikerne som blir anklaget for tvilsom retorikk, å være trangsynte, dårlig informerte og å være de som lager rabalder og oppstyr.
  8. Sant nok, men så langt jeg kan huske var ikke dette en diskusjon før BF1. Da virket det ikke som om DICE hadde meldt seg på banen som politisk aktør. Å karakterisere kritikere som "små" og trangsynte blir for enkelt. Det må være lov å gi kritikk for troverdighet og stiluttrykk. Det blir delvis blåst ut av proporsjon, men det er verdt å ta en diskusjon når noen argumenterer for at dette er historisk korrekt. Dette handler ikke (nødvendigvis) om kvinnesyn, men at de stilistisk sett trekker serien nærmere actionfylt fri fiksjon enn tidligere. Noen foretrekker en noe mer representativ fremstilling. For min del synes jeg de kunne beholdt samme uttrykk som BF1942/BF2 osv. og heller latt fantasien, samt actionpreget flyte over i spillserier som går parallelt, slik de valgte å gjøre når de lanserte BFBC/2.
  9. Én ting er sikkert: Det var helt riktig tidspunkt for Nvidia å lansere dette. Siden de har liten reel konkurranse i øvre sjikt av markedet, kan de trygt sette av en god slump av brikken til ny hardware (tensor cores/RT cores); det er ingen som puster dem i nakken. På denne måten kan Nvidia utkonkurrere seg selv, men fortsatt ha et salgsargument i RT. Dessuten er det en fin kontrast til Pascal når de kan vise frem (nokså selektivt, vel og merke) hvordan Turing parkerer Pascal.
  10. Det som ble sagt stemmer jo. Det overveldende flertallet av stridende var menn (og ja de var hvite, enten du liker det eller ei). Kvinner som tjenestegjorde var også i all hovedsak plassert i støtteroller og ikke ved frontlinjene. At du kommer med ett mindre godt og anekdotisk eksempel fra etterretning endrer ikke på statistikken. Et unntakstilfelle som hadde vært å foretrekke hva angår historie, hadde vært kvinnelig rekognosering/snikskytterklasse på Sovjetisk side. Forøvrig, gjelder det som ble sagt i hovedsak også stridende Sovjetiske kvinner. At DICE tar et stilvalg i som heller i retning fiksjon, kan man diskutere. Historien er derimot en kjent sak. At du plasserer dine motdebatanter i kategorien i samme kategori som konspirasjonsteoretikere og skoletapere er ikke bare løgnaktig fordreining av virkeligheten, det er også lavmål. Det er vel ingen som har problemer med at utviklere ikke går utelukkende for realisme, eller at de bruker litt frihånd for å veve en historie. Det forventes i noen grad i et arkadespill som Battlefield. Allikevel er det jo ikke slik at DICE plasserer Battlefield-serien i et parallelt univers (som f.eks Wolfenstein). Jeg tror derimot liknende reaksjoner hadde dukket opp hvis andre graverende historisk upresise eller i det minste lite representative elementer var i spillet. Dette var jo en diskusjon selv for hyppig forekomst av høyst reele (men sjeldne) automatvåpen i BF1. Det er ganske innlysende at DICE faktisk har en politisk agenda for å innføre disse elementene. De hadde det for BF1 hvor svarte var ekstremt overrepresenterte og prydet coveret. Da valgte de forøvrig å nedprioritere kvinnelige klasser i MP grunnet troverdighet. Ellers er det bare å ta en titt på Twitteren til Oskar Gabrielson fra DICE: "Our commitment as a studio is to do everything we can to create games that are inclusive and diverse ( . . .)" Det er faktisk irriterende å få påtvunget seg en politisk agenda, når man bare vil spille et spill. At folk reagerer er et sunnhetstegn.
  11. Dette. Ser nevnte resonnement ofte. Går man tilbake en god stubb i tid, gjør en grov ekstrapolering av ytelse og pris, samt justerer for inflasjon, så må en nok velge mellom en bil eller et skjermkort! Når det er sagt, synes jeg heller ikke at det er relevant å trekke paralleller mellom Titan og Geforce som burde representere nokså ulike prisklasser. I mine øyne er det største problemet i nyere tid prisøkningen i mellomsjikt. Går vi tilbake omtrent 10 år, da markedet var langt unna de tilstandene vi har i dag, var bildet nokså annerledes. Selv da Nvidia hadde et overtak med lanseringen av Geforce 8000 serien, var det mulig å få entusiast/kort i øvre sjikt til en OK pris. Man kunne punge ut det som ble betraktet som en formue for 8800 Ultra, en betraktelig, men overkommelig sum for GTX (mer eller mindre likt, med lavere frekvens), eller en noe mindre for GTS versjonen. Disse var derimot alle basert på samme store brikke (G80 - 484mm2). Bare litt senere ble det lansert et mellomklassekort 8800GT som ytet temmelig nært, i klassen rundt 2000 kr. Segmenteringen mellom RTX og GTX tar denne trenden til et nytt nivå. Det er synd at et skjermkort fra relativt høyt sjikt gjerne kan utgjøre en kostnad ca lik summen av de andre komponentene i en ny maskin i dag.
  12. (You have reached edgelord level 9000) Det er helt legitimt at dette ender opp som en EA-diskusjon, ikke bare fordi det er en EA-tittel, men fordi EA virkelig er et av selskapene som gikk i bresjen for ubetydelige ekspansjoner og DLC (The Sims franchisen er kanskje det verste eksemplet). De har også hatt andre veldig stygge eksempler på DLC, for eksempel Mass Effect 3 som hadde DLC-innhold på dag 1 gjemt i spillet. Selvfølgelig er det mange som velger å styre unna EA, men det i seg selv er ikke nok, når mange ser coveret på et spill eller en trailer og bestemmer seg for å kjøpe det (enten til seg selv, eller som gaver). Mange, om ikke flertallet som sitter på dette og andre nettfora er klart og tydelig enig om at dette. Når det er sagt er de tydeligvis ikke representative for markedet som helhet. Så å slenge ut til dette forumets brukere at de bør se seg i speilet, kan du nok droppe.
  13. Så lenge dette er eneste verktøy for å påvirke diverse produsenter, så tror jeg folk vil bruke det. Skrive brev er langt ifra like effektivt, som å ha en svært synlig offentlig demonstrasjon. Du synes kanskje at de som gikk i rosetoget etter 22. Juli, heller skulle holdt seg hjemme og skrevet et støttebrev? Dette er litt som de som klager på alle streikende, men som har null problem med å ta imot den ekstra lønnen de får som følge av de som sørger for å presse lønnen opp. De som klager over horribel praksis fra spillprodusentene har klart å beholde gratis modder, men jeg antar du er en av de som sender penger for alle moddene du legger inn selv om de er gratis? Hvis ikke, så foreslår jeg at du enten slutter å bruke de fordelene som kjempes for å beholdes, eller at du vær så god finner deg i metodene som tas i bruk... Det sagt, så hadde det vært enda bedre om steam kunne gitt brukerne muligheten til å gi reviews av produsentene, framfor spillene... Men det skjer nok ikke med det første... Først og fremst hadde jeg satt pris på at du ikke slenger rundt antakelser om meg og mine meninger. Rosetoget var veldig fint og hadde god symbolikk bak seg. Men du vet godt at dette ikke er en ekvivalent situasjon. En demonstrasjon har som hensikt å fremme et (gjerne symbolsk) budskap. Et spill-review har som hensikt å informere potensielle interesserte om hvordan det er å spille et spill. Hva folk mener om utviklerne har ingenting med det å gjøre og ender kun med å ødelegge systemet som er satt på plass. Steam må gjerne innføre et tilbakemeldingssystem, ja, det er jeg enig i. Det er bra folk sier ifra når selskaper behandler folk som drit. Men slutt å ødelegge et annet system i prosessen. Det er barnslig og unødvendig. På bakgrunn av dine to innlegg høres det i bunn og grunn ut som om det du ser etter er en profesjonell anmeldelse. Alt det du etterspør vil du finne der. Når det dreier seg om brukerbaserte tilbakemeldinger, så gjør de nøyaktig det de er tiltenkt å gjøre og med dette verktøyet blir det mer informativt. Likevel vil du ha en relativt stor spredning i basen som anmelder. De færreste vil gi Skyrim eller Fallout 4 strykkarakter. At selskap får smake saftig kritikk for meningsløs pengegriskhet ser jeg virkelig ikke noe problem med. Dugnadbasert modding har f.eks opp gjennom årene vært en sentral del av TES-universet med creation kit. Da ligger det selvsagt forventninger om at dette er noe som kommer etterhvert og utvider spillopplevelsen. Dette er også noe en profesjonell anmelder typisk (og fornuftig nok) ikke tar med i betraktningen av spillet, i motsetning til spillerbasen. Er samme problematikk med filmanmeldelser: Kritikere og publikum er ikke nødvendigvis unisone. Publikum har også en større tendens til å være polariserte. Det gir mening ettersom de alltid er en mindre homogen gruppe, som ikke er ansatt for å gjøre anmeldelser.
  14. Hvis du tenkte at 1080 Ti SLI på 4K gir rundt 144 fps, så er det dessverre ikke i nærheten selv i dagens spill. Xbox One X har et skjermkort som er veldig tett opp til et RX580. Når det gjelder prosessoren som kreves, kommer det helt an på spillet, men i de fleste konsollspill trengs ikke så mye kraft. Tipper nok at flaskehalsen uansett vil ligge i grafikkprosessoren.
  15. "KabyLake-X" altså Intel Core i7-7640K og i7-7740K fremstår som merkelige prosessorer. Altså jeg kan se hva som er attraktivt med en Intel Core i7-7700K til LGA2066 plattformen hvor Intel har sørget for skikkelig soldering mellom IHS og CPU, de har fjernet integrert GPU og klarer å pushe klokkefrekvensene ytterligere. Dette vil jo være et monster på single-threaded ytelse og vil jo trolig klokke til over 5.0GHz temmelig greit. Og ettersom det fremdeles er sånn at 99% av alle spill er fryktelig dårlig multi-threaded hvor det meste av arbeidsoppgaver foreligger i den første tråden så det å ha superraske og effektive tråder er viktigere og mer relevant enn det å ha flere tråder så vil jo en Intel Core i7-7740K være veldig interessant og relevant. Men det som er merkelig og idiotisk er jo hvordan Intel rett og slett bare har tatt en Intel Core i7-7700K, og pakket den til å passe LGA2066 sokkelen og ikke gjort noe særlig mer enn det. Den kommer fremdeles med bare 16 PCI-Express lanes på CPU, og den støtter kun dual-channel minne. Altså... Den vil jo få flere PCI-Express lanes via PCH/brikkesettet (X299) enn hva i7-7700K får via Z270 brikkesettet vil jeg regne med så den blir jo hakket mer kapabel sånn sett. Men at den ikke har støtte for flere PCI-Express lanes til CPU for direkte kobling av NVMe SSD, dual-GPU osv og heller ikke støtter quad channel minne som alle andre CPU-er til LGA2066 gjør den jo bare til en veldig merkelig prosessor. Men om den prises riktig så kan den jo fremdeles være et attraktiv valg for mange. For som sagt, til spilling så er det jo fremdeles IPC og raskest mulig kjerner som gjelder. Og sånn sett, til et rent gamingsystem så vil jo i7-7740K trolig bli kongen på haugen og i og med at den benytter LGA2066 så vil det jo være raskt og enkelt å bytte til en CPU med flere kjerner og tråder om spill sånn helt plutselig skulle gå over til å bli mer effektive over flere kjerner/tråder. Gode poeng! 7740K er en veldig relevant prosessor for enkelttrådet ytelse. For mange (undertegnede) ville den nok fortsatt vært uaktuell på grunn dyrere HEDT sokkel. Skjønner forsåvidt at Intel kunne legge seg bakpå (ikke loddet IHS) etter Sandy Bridge, men synes likevel det er temmelig ufyselig bevisst å legge en demper på OC potensiale ut av esken for å spare penger. Ikke at det er noe voldsomt problem, deliddet for noen måneder siden min gamle 3570K. Helst skulle jeg likevel sett at dette ikke behøvdes.
  16. "i7-7640K skal ha 6 GB L3-cache" -Stort! Men fra spøk til revolver: Skjønner ikke helt hva tanken bak 7640K (eller i grunnen 7740K) er. Regner med at LGA 2066 sokkel med X299 brikkesettet er temmelig kostbart. Når det er sagt skjønner jeg heller ikke hvordan i alle dager 7640K kan kalles en i7.
  17. Hvorfor ikke overklokke eller ha høyere stock hastighet på 4-6 kjerne. Blir ikke bra nok syns jeg, blir jo slik gaming= intel i7 7700k. Videoredigering\virtualsiering\multitasking\billig ryzen 7 1800x Vet ikke om kan kan kalle det facepalm at amd ikke lager cpuer som er rått til gaming. Samme problemet hadde FX 8350. FX 8350 og co hadde jo mye større problemer enn Ryzen. Selv med "8" kjerner var den ikke så fantastisk på multitasking ifht. Intel alternativene. Når man da tenker på at IPC var i en annen klasse... At 7700K gjør det bedre enn en stock 1700 (3/3.7) er ingen overraskelse, når det ikke svelger tråder så godt. Men ser man på BF1 ville jeg nok tro Ryzen kan gjøre det nokså bra. Ville nesten gjettet på at flere kjerner etterhvert kan brukes til spilling, men de med flere enn 4 kjerner på maskinen har jo ikke vokst på trær til nå. Mener vel at selv gamle FX'er fikk seg et ytelsesløft i DX12 også.
  18. Hva tror dere om 1700 VS 1700X? - 700 kr ekstra for XFR? - 1700 booster opp til 3,7 mens 1700X går til 3.8, (men 3,9 med XFR?) Med "Ryzen master"-verktøyet burde vel 1700 bli tilnærmet lik 1700X? Hvis jeg finner adapter for Arctic Freezer 240 så er det fare for at jeg ryker på en 1700 eller 1700X
  19. CF & SLI er jo så og si dødt med alle de småproblemene de gir brukeren. Er meget god tilbakemeldinger på crossfire. Er mange som opplever dobling i ytelse fordi det skalerer så bra med rx 480 kortene. Poengløst da GeForce 1080 yter bedre enn 2x 480 i de fleste spill og med ett kort slipper du alle problemene du får med 2 kort. For ikke å glemme alle de spillene som ikke engang støtter CF og de som du faktisk får dårligere ytelse med ett kort enn to. Men hvis du absolutt vil ha alle problemene med å bruke to kort, så kjør på Meningsløst (ikke poengløst), og nei, det er det ikke nødvendigvis, avhengig av pris i landet der en bor. Per i dag finner man ikke et 1080 til under omtrent 6400 kr. Man finner heller ikke et 1070 til mindre enn omkring 4000 kr. Ett enkelt RX480 4GB kan man få til 2000 kr. Skaleringen er ganske ok (kjapt søk viser 76% i snitt for RX480 8GB i sli). For de fleste av oss er imidlertid 4000 kr mer enn vi er villig til å legge utelukkende i et skjermkort og 6400 er en hårreisende pris. Og det er slik det kommer til å fortsette, dersom Nvidia får frie tøyler (slik tankeløse tilhengere paradoksalt nok håper på). Når du sier at de som kjøper AMD generelt kjøper dårlige produkter på grunnlag av merkevare tror jeg ikke du vet helt hva du snakker om. I bestefall gjelder utsagnet ditt kun de(n) aller siste generasjon(er) av lanseringer fra AMD og Nvidia. Anbefaler å se følgende (AdoredTV): https://www.youtube.com/watch?v=uN7i1bViOkU Generelt sett og over tid har det ikke vært et enormt gap mtp. pris for ytelse ved valg av produkter fra den ene eller andre leiren. Har opp gjennom årene gjort gode kjøp fra både grønt og rødt lag. Vurderer du derimot prisforskjell mellom 970 og 1070 rundt lansering burde du, som forbruker, ikke applaudere. CF (ikke SLI) AMD har nå ligget bak siden ca 2007. Det året kom Nvidia ut med GeForce 8800 serien som totalt parkerte AMD. AMD har aldri kommet seg etter det, selv om de har hatt skjermkort som nesten kunne måle seg i ytelse med Nvidia. Bare å se på salgsstatistikken de siste 10 årene. De kan ikke skylde på andre enn seg selv for dette siden de ikke har gitt kundene produkter de har villet kjøpe. For 10 år siden lå de jo foran Nvidia både på ytelse og salg. Nå er det jo 7 måneder siden Nvidia ga ut GeForce 1080 og AMD har jo enda ikke kommet med en konkurrent. De siste par generasjonene har jo Nvidia totalt gruset AMD i salg og ytelse. At markedet (og prisene) er slik som i dag er kun AMD sin feil da de ikke har gitt ut bra nok produkter som brukerene vil kjøpe. Satser på at de kommer sterkere tilbake med ny GPU & CPU i løpet av de neste månedene, så vi får litt konkurranse igjen 8800 serien var uten tvil et gedigent hopp, hadde et 8800 GT selv. Problemet er bare det at selv om AMD i høyeste grad har hatt produkter som burde selge basert på pris og ytelse, har de likevel ikke gjort det. Dette har altså fint lite med produktet å gjøre, men handler om markedsføring og blinde forbrukere. Anbefaler som sagt AdoredTV videoen i forrige post. Eller, dersom en finner AdoredTV for partisk, denne artikkelen (går bare frem til 2013): http://www.techspot.com/article/657-history-of-the-gpu-part-3/ Det burde fremgå ganske tydelig at dette verken handler om arkitektur og teknologi eller pris. Det burde også være ganske åpenbart hvorfor AMD da heller ikke kan prioritere store brikker grunnet det som statistisk sett ikke kommer til å ende opp som noen nevneverdig økonomisk vinning (snarere tvert i mot).
  20. CF & SLI er jo så og si dødt med alle de småproblemene de gir brukeren. Er meget god tilbakemeldinger på crossfire. Er mange som opplever dobling i ytelse fordi det skalerer så bra med rx 480 kortene. Poengløst da GeForce 1080 yter bedre enn 2x 480 i de fleste spill og med ett kort slipper du alle problemene du får med 2 kort. For ikke å glemme alle de spillene som ikke engang støtter CF og de som du faktisk får dårligere ytelse med ett kort enn to. Men hvis du absolutt vil ha alle problemene med å bruke to kort, så kjør på Meningsløst (ikke poengløst), og nei, det er det ikke nødvendigvis, avhengig av pris i landet der en bor. Per i dag finner man ikke et 1080 til under omtrent 6400 kr. Man finner heller ikke et 1070 til mindre enn omkring 4000 kr. Ett enkelt RX480 4GB kan man få til 2000 kr. Skaleringen er ganske ok (kjapt søk viser 76% i snitt for RX480 8GB i sli). For de fleste av oss er imidlertid 4000 kr mer enn vi er villig til å legge utelukkende i et skjermkort og 6400 er en hårreisende pris. Og det er slik det kommer til å fortsette, dersom Nvidia får frie tøyler (slik tankeløse tilhengere paradoksalt nok håper på). Når du sier at de som kjøper AMD generelt kjøper dårlige produkter på grunnlag av merkevare tror jeg ikke du vet helt hva du snakker om. I bestefall gjelder utsagnet ditt kun de(n) aller siste generasjon(er) av lanseringer fra AMD og Nvidia. Anbefaler å se følgende (AdoredTV): https://www.youtube.com/watch?v=uN7i1bViOkU Generelt sett og over tid har det ikke vært et enormt gap mtp. pris for ytelse ved valg av produkter fra den ene eller andre leiren. Har opp gjennom årene gjort gode kjøp fra både grønt og rødt lag. Vurderer du derimot prisforskjell mellom 970 og 1070 rundt lansering burde du, som forbruker, ikke applaudere.
  21. Ser ikke at 1070 ligger under 3990... Til 3500 kr hadde det vært et ok kjøp, men noe mer vil jeg ikke strekke meg til å beskrive det som. Da 970 kom var det vel mulig å skaffe dette til 3000. For å gjøre vondt verre ble det også lansert med "Milker's Edition" så pris ved lansering lå på 5 lapper. God ytelse, prisen og prishistorikken er noe annet. Siden AMD bortimot uavhengig av både pris/ytelse og arkitektur relativt sett har hatt mindre profitt og regelrett tap over årrekker, er det ikke rart de velger bort toppkort. Dette er resultatet: Større profittmargin for Nvidia og melking av forbrukere. Verre skal det nok også bli. Forbrukere, som tidligere valgte Nvidia blindt og frikoblet fra ytelse per pris har nå skapt en selvoppfyllende profeti. Nvidia gjør rent bord. Trist for lommeboka, men sant.
  22. Da må du vente til 2018 for Intel mainstream 6-kjerne. Yup, det er mye mulig, hvis ikke Zen tilbyr god ytelse for pengene. Selv dette er kan være tvilsomt mtp. de få benchmarks som er ute nå. En annen sak er jo at når mainstream er 2 - 4 kjerner, spørs det om optimalisering for flere kjerner er på plass, slik at Coffee Lake muligens sammenfaller med det tidspunkt hvor 6 kjerner + blir mer aktuelt.
  23. Problemet er bare det at forbedringen er så marginal at ved litt overklokking forsvinner forbedringen nesten helt. En i5 2500K på 4.5 Ghz, som bør være helt overkommelig på Sandy Bridge med anstendig kjøling, kommer så tett opp til en 6600 (stock) at det blir en nesten meningsløs oppgradering. Det blir rett og slett ikke "en god del begrensninger" en gang, sammenlignet med Skylake. Er vel ca 8 % forskjell i spill, der noen spill knapt begrenses i det hele tatt. De pengene tør jeg påstå er verdt å bruke på andre ting. Tar man en titt på skjermkort ser man en helt annen utvikling. Se GTX 580 til 1080, lanseringer med noen måneder slingringsmonn for samme periode som Sandy Bridge til Skylake: Teoretisk ytelse er nær 5-doblet (TFLOPS, ja dette er forenklet og praksis kan være noe annet, men utviklingen er definitivt av større praktisk betydning).
×
×
  • Create New...