Gå til innhold

larso093

Medlemmer
  • Innlegg

    82
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av larso093

  1. Det er så mange feil i denne logikken at eg veit ikkje kor eg skal begynne.

     

    For det første: Jorda er rund. Me har satelittbilder av jorda som beviser dette. Når me snakkar om satelitter så er det verdt å nevne at jorda må være rund for at satelittane ikkje skal dette ned på jorda. Satelittane går i bane rundt jorda. Dette er drevet av tyngdekraften. Satelitten faller ned mot jorda, men siden satelitten har så høg fart rett fram, så "bommer" satelitten på jorda og fortsetter å dette ned mot jorda i ein uendelig bane. Grunnen til at satelittane står i ro på himmelen er fordi jorda roterer i samme fart som satelittane går i bane rundt jorda.

     

    For det andre så er horisonten du ser avhengig av at jorda er rund. Horisonten er flat fordi det er like langt til horisonten uansett kva retning du ser frå. Med ei flat jord så vil det einaste som begrenser kor langt du ser være objekt eller gass som står i veien. Med ei flat jord ville du ikkje hatt ein horisont, du ville sett enten heilt til grensa av jorda, eller så ville du sett det nærmaste fjellet eller så ville du sett ei tåka som blir gradvis sterkare jo lengre unna du ser.

     

    For å kunne sjå kurven på jorda så må du bevege deg langt nok ut i rommet til å sjå heile kloden. Viss ikkje, så vil du ikkje kunne sjå lenger enn til horisonten.

     

    Du påstår at du kan sjå båter så lenge du har ein kraftig nok kikkert. Det er ikkje sant. Båter forsvinner over horisonten akkurat sånn man skulle tru. Ja det er tilfeller der båter kan sjåast etter dei har gått over horisonten, men det er eit atmosfærisk lysbøyingsfenomen. Ta ein kikk på dette: https://en.wikipedia.org/wiki/Looming_and_similar_refraction_phenomena

     

    Tingen er at du leiter etter informasjon med et bekreftelsesbias mot at det som står i bibelen er korrekt. Informasjonen du viser til er ikkje basert på vitenskapelige bevis. Det er basert på far-fetched forklaringer for fenomen som kan enkelt forklarast med ei rund jord, forklart av folk som ikkje kan det dei snakkar om. Dei er ikkje vitenskapsmenn/kvinner. Dei er ikkje fysikarar. Men dei har ein ting til felles; at dei alle tar utgangspunkt i at det som står i bibelen er sant og prøver å bekrefte dette for seg sjølve, når alle bevis går mot dei.

  2.  

    Problemfri bruk i 10+ år er verd mer enn et par usle % forskjell i ytelse.

    Viss du har kun brukt Nvidia i 10 år, korleis kan du vite at AMD ville ført til fleire problem? Det er mange som bruker argumentet at driverene til AMD er dårligare. Det har ingen rot i virkeligheten. Ati sine drivere var dårlig, før AMD kjøpte opp Ati. Eg har aldri hatt driverproblem med mitt Radeon HD 5670 eller med mitt Radeon HD 7770. Eg kjøpte ikkje desse korta fordi eg er AMD fanboy. Eg kjøpte korta fordi dei gav bedre ytelse i prisklassen sin enn alternativet fra Nvidia. I dag har eg et GTX 670. Det kjøpte eg brukt til ein god pris. Eg er fornøyd med dette kortet, men betyr det at eg skal låse meg til å kjøpe Nvidia kort neste gong uansett kva AMD kan tilby?

    • Liker 4
  3. Hvorfor skal jeg prøve noe nytt når Nvidia for meg har fungert perfekt i 10+ år nå? I dag sitter jeg på et 660 som funker mer enn bra nok for mine 2x 1680x1050 skjermer i de få spillene jeg spiller. Drar alt jeg spiller på 60 fps. Den eneste grunnen til at jeg skal kjøpe nytt er mangelen på full HEVC støtte. Prisen på 1050/1060 vil jo allikevel bli så lav at kostnaden ikke er noe å bry seg om. Så hvorfor bytte merke?

     

    Eg forstår ikkje den logikken. Kvifor bytte merke, spør du. Då spør eg deg, kvifor ikkje? Dersom du kan få et bedre skjermkort til samme pris, kvifor vil du ikkje velge dette?

  4. så hvis man regner 10 + 15 + 40 = 65.

    Så IPC er 65 høyere en piledriver?

     

    Muligens Excavator er raskere per kjerne.

    Men FX 8350 har flere kjerner\omtrent som hypertreading så under belasting vil den muligens være raskere.

     

    For hvis jeg har forstått regnestykket rundt 50-60% raskere en FX 8350?

    I så fall burde den kunne fint konkurere mot overklokket i7 6700k.

     

    Da jeg lurer på om det er særlig vits å kjøpe i7 6700k nå eller om jeg burde vente et halv år til.

    Hvis jeg skal få full utbytte av 10 gigabit ethernet\ usb 3.1 og GTX titan SLI.

     

    For det sies AMD Crossfire funger best med AMD hovedkort.

     

    Det er ikkje sånn du regner med prosenter. Du tar ikkje i betraktning "rentes rente". Ved å regne med vekstfaktorer blir resultatet slik:

     

    1 * 1.10 * 1.15 * 1.40 = 1.771

     

    Så me kan regne med 77.1% bedre IPC enn piledriver.

    • Liker 4
  5. Jeg venter nok til Polaris blir lansert og hva AMD har å tilby

     

    I følge det eg har lest og hørt, så er Polaris i hovedsak middelklasse skjermkort. Så det blir sikkert radeon r9 470, 480. AMD satser meir på effektivitet denne omgangen (for å vinne laptopmarkedet?) og lager chiper i mindre størrelse enn nvidia. Men AMD skal bruke 14nm teknikk vs nvidias 16nm. Så dei vil ikkje tape veldig mykje. Men i denne omgang så vil nvidia mest sannsynlig vinne på ytelse, med mindre de flopper totalt (e.g dårlig dx12 eller vulkan ytelse) som er ein mulighet med tanke på dagens situasjon. AMD skal komme med Vega-arkitekturen sin nærmere slutten av 2016 så de vil nok gi ut nye entusiast gpuer. Vega skal ha HBM2 minne.

  6.  

     

    AMD kommer nok også til å satse på flere svakere kjerner enn én kraftig i fremtiden hvor hver kjerne samarbeider på en mye bedre måte enn XFire eller SLI idag. Kan på en måte sammenlignes med RAID oppsett hvor flere GPU kjerner vil fremstå som én GPU for utvikler. Dette ligger nok litt lenger frem, men det kommer.

    Når man da kan benytte mindre GPU kjerner enn store, så vil man få mye bedre yield pr. waffer som igjen senker prisene og øker fortjenesten til AMD.

     

    Jeg kommer ihvertfall til å kjøpe en AMD GPU neste gang jeg oppgraderer.

     

    Thank you! Nokon som har forstått det. (Har du sett dette på AdoredTV kanalen på youtube kanskje? :))

     

    Spillutviklere er late. Viss dei kan utvikle spillet ein gong og kjøre det på alle platformer (XBox, PS4, Wii og PC) så gjer dei det. AMD har APUene sine på alle konsollene så åpenbart vil utviklerene optimalisere spillene i forhold til AMD sin hardware.

     

    DX12 og Vulkan åpner opp for asynchronous compute (frå mantle), noko som auker ytelsen kraftig på AMD sine GPUer på grunn av den parallelle arkitekturen dei har på GPUane. Det er derfor AMD eiger i alle dei nye DirectX 12 og Vulkan spillene. NVidia kan ikkje få denne ytelsesauken på grunn av at arkitekturen er bygd totalt rundt singlethreading access til GPUen. DX12 og Vulkan er ein oppgradering som kun gagner AMD positivt, gitt dagens situasjon og AMD er milevis foran NVidia med arkitekturen sin på dette området. Spillutviklerene vil dra nytte av async compute på konsollene for å kunne utnytte APUen til sitt fulle. Disse optimaliseringene vil også brukes på pc-versjonene av spillene. Då sliter Nvidia med å holde tritt.

     

     

    Mtp markedsandelen til Nvidia på PC markedet så er dette noe spill utviklerene ikke vil ignorere. Nvidia hjelper også utviklerene med å optimalisere spill. Men dårlige hastverk porter, som nok Quantium Break faller inn under, vil gjerne ha en fordel på AMD GPU'er. Det er et spill som visnok ikke bruker async compute.
     
    Parallelle arbeidsoppgaver er nettopp hva GPU'er generelt er sterke på. Det er derfor dem har så mange kjerner (CUDA cores hos Nvidia og stream processors hos AMD) og hvorfor ytelsen skalerer såpass bra med med antall shader ALU'er, TMU'er og ROP'er. Async compute vil hjelpe med å utnytte disse kjernene mer effektivt, lignende hyperthreading for CPU, men å si at det øker ytelsen kraftig er å si at at disse kjernene har vært og er kraftig underbrukt uten async compute, noe ihvertfall jeg syns virker lite trolig. 
    Det er forsatt for tidlig til å si noe definitivt om alt dette.

     

    Ashes of the Singularity er eit eksempel på spel som bruker async compute. http://www.extremetech.com/gaming/223567-amd-clobbers-nvidia-in-updated-ashes-of-the-singularity-directx-12-benchmark

    Her ser du at når async compute blir skrudd av så ligger 980Ti mykje nærmere Fury X. Med async compute påskrudd, har ikkje nvidia sjangs. Men ja. nvidia vil ikkje bli ignorert heller. Men AMD vil ha overtaket på alle spel som benytter seg av async compute frem til nvidia kjem med ny gpu arkitektur som har støtte for det.

     

    Eg har personlig programmert med OpenGL og har programmert compute shadere. Eg er fullt klar over at GPUer er parallelle av natur. Det eg meinte med singlethread access på nvidia sine gpuer er at kommunikasjonen mellom gpuen og cpuen er i hovedsak singlethreaded på nvidia gpuer. Det er "GigaThread" scheduleren til nvidia som tar seg av å fordele oppgaver til gpu kjernene. I praksis så betyr dette at nvidia sine gpuer ikkje har støtte for async shading så dei må emulere det i software (nvidia driveren). GCN arkitekturen til AMD er den einaste arkitekturen som har støtte for dette. Dette er ikkje noko nvidia kan berre lure seg rundt med driveroppdateringer, dei må endre heile arkitekturen til gpuene sine.

    https://www.reddit.com/r/Amd/comments/457ke8/hitman_to_feature_amd_dx12_exclusive_feature/ (les øverste innlegget)

     

    Async compute er ikkje det samme som hyperthreading. Hyperthreading går ut på å kjøre to tråder på ei cpu kjerne. Async compute handler om å kunne kjøre fleire shader program samtidig på gpuen. Altså du kan kjøre compute (for eksempel fysikksimulering) samtidig som du rendrerer til skjermen. Du kan overføre data som f.eks teksturer parallellt med andre oppgaver. Uten async compute må du gjere desse oppgavene den eine etter den andre, som i praksis betyr at gpuen må vente ein del på kommunikasjon med cpuen, så gpuen sitter idle i mellomtiden.

    • Liker 2
  7.  

     

    Det er veldig tydelig at AMD har hatt en annen fokus i det siste, og at det kommer til å betale seg nå! Du kan ikke nekte for at spillemarkedet havner i AMD sin favør fremover!

     

    Hvorfor kommer det til å betale seg nå?

     

    Hvorfor havner spillmarkedet i AMD sin favør? Jeg ser ingen grunner til dette.

    Det kommer til å betale seg pga at når spillutviklere skal lage multiplattformspill, så blir dette designet rundt konsollene og dermed en AMD GPU. Det vil da si at de fleste spill fremover kommer til å være optimalisert for AMD GPU'er. Dette ser du litt av allerede, men kommer til å bli enda tydligere fremover.

     

    AMD kommer nok også til å satse på flere svakere kjerner enn én kraftig i fremtiden hvor hver kjerne samarbeider på en mye bedre måte enn XFire eller SLI idag. Kan på en måte sammenlignes med RAID oppsett hvor flere GPU kjerner vil fremstå som én GPU for utvikler. Dette ligger nok litt lenger frem, men det kommer.

     

    Når man da kan benytte mindre GPU kjerner enn store, så vil man få mye bedre yield pr. waffer som igjen senker prisene og øker fortjenesten til AMD.

     

    Jeg kommer ihvertfall til å kjøpe en AMD GPU neste gang jeg oppgraderer.

     

    Thank you! Nokon som har forstått det. (Har du sett dette på AdoredTV kanalen på youtube kanskje? :))

     

    Spillutviklere er late. Viss dei kan utvikle spillet ein gong og kjøre det på alle platformer (XBox, PS4, Wii og PC) så gjer dei det. AMD har APUene sine på alle konsollene så åpenbart vil utviklerene optimalisere spillene i forhold til AMD sin hardware.

     

    DX12 og Vulkan åpner opp for asynchronous compute (frå mantle), noko som auker ytelsen kraftig på AMD sine GPUer på grunn av den parallelle arkitekturen dei har på GPUane. Det er derfor AMD eiger i alle dei nye DirectX 12 og Vulkan spillene. NVidia kan ikkje få denne ytelsesauken på grunn av at arkitekturen er bygd totalt rundt singlethreading access til GPUen. DX12 og Vulkan er ein oppgradering som kun gagner AMD positivt, gitt dagens situasjon og AMD er milevis foran NVidia med arkitekturen sin på dette området. Spillutviklerene vil dra nytte av async compute på konsollene for å kunne utnytte APUen til sitt fulle. Disse optimaliseringene vil også brukes på pc-versjonene av spillene. Då sliter Nvidia med å holde tritt.

    • Liker 1
  8. Vanligvis så vil et billig hovedkort være godt nok. Men viss du treng funksjonalitet som full virtualisering (med pcie passthrough) så må ein nok punge litt meir ut.

     

    Eg vil anbefale gamere å vente med å kjøpe ny pc til neste generasjon grafikkort kjem. Eventuelt å kjøpe et billig grafikkort og heller oppgradere seinere. Både AMD og NVidia har vert stuck på 28nm produksjonsteknikk lenge no. Neste generasjon skal over på 14/16nm som vil auke ytelsen per watt kraftig (Plass til dobbelt så mange transistorer på samme arealet).

     

    På prosessorfronten har ytelse per krone omtrent stått stille siden 2011 pga monopolet til intel. Det er på grunn av floppen bulldozer (og piledriver) frå AMD og faktumet at AMD har blitt ståande på 32nm og 28nm i det siste. Så intel har ikkje hatt noko konkurranse. AMD skal gi ut 14nm prosessorer som har kvitta seg med bulldozer arkitekturen mot slutten av året eller begynnelsen av 2017 (Zen). Eg trur dette kjem til å vere gode prosessorer og utfordre intel igjen på ytelse/pris.

     

    Så poenget mitt er følgende. Viss du har ein pc som fungerer i dag, men vurderer å oppgradere, vurder å vent ei stund til, fordi spennande hardware, meir spennande enn du har sett dei siste 3-4 årene er rett rundt hjørnet.

  9. Mens moderne smarttelefoner støtter VR ved hjelp av google cardboard, så påstår oculus grunnleggaren at to firepro gpuer i crossfire ikkje er kraftig nok til å drive VR. Han har ikkje forstått at det fins fleire bruksområder for VR enn AAA spel på maks grafikkinstillinger. Alt krever ikkje like mykje GPU kraft. Eg syns det berre er ein dårlig unnskyldning for å sleppe å implementere APIen for Mac OS.

  10.  

    Så lenge det er vanskelig å gjette og er langt nok så er passordet ganske sikkert.

     

    Gitt at den serveren du oppgir det til behandler det korrekt.

    (Ikke lagrer det i klartekst, salter & hasher ordentlig, osv.)

     

    Gitt at du ikkje bruker passordet på ein usikra nettstad andre plasser så vil ikkje det gi store konsekvenser. Derimot om du har eitt universalpassord du bruker på alt, så er ein ganske sårbar om ein cracker skulle fått tak i passordet i klartekst.

     

     

    Hver gang det diskuteres passord så må noen bringe frem den XKCD-stripen med feil. Randall Munroe har hverken forstått matematikken bak entropi eller forstått hvordan moderne bruteforcing fungerer da han laget stripen:

    - Et passord på 11 tilfeldige tegn har en entropi på 65-73 bit (avhengig av om spesialtegn tillates), stripen påstår "28 bit".

    - Forklaringen til stripen bruker en ordbok med 7776 ord som eksempel. Fire tilfeldige ord gir da en entropi på ~51 bit.

    - For hver bit med entropi kreves det dobbelt så mange forsøk, 65 bit er 16384 ganger bedre enn 51 bit.

    - Om du så bruker en stor ordbok på 50.000 ord (inkl. variasjoner av samme ord, populære navn, stedsnavn osv.) så får du fremdeles en entropi på ~62 bit.

     

    Nå er ikke 11 tegn nok til et godt passord, men du ser allerede der at det er betydelig bedre enn en rekke av vanlige ord. Nøkkelen her er at entropien avgjøres av enkleste måte du kan gjette deg til passordet, så hvis passordet ditt består av vanlige ord så er det åpenbart mye raskere å gjette vanlige ord enn alle mulige rare tegn. Det finnes allerede bruteforceing som bruker ordbøker til gjetting, så det er mange passord som lever farlig. Det passord er sterkt om det er vanskelig å gjette for andre.

     

     

    Generelt så tar eg XKCD stripa med ei klype salt. Det er tross alt humor. Ein er ikkje nødt til å følge oppskrifta til stripa men den har jo eit poeng at P@55w0rd er mykje dårligare enn berre 4 tilfeldige ord frå ei bok. Bra poeng med at passorda kan bruteforces gjennom ordbøker. Og eg er enig med deg i at ein bør ikkje lage eit passord basert på ord rett ut frå ordboka. Men det går jo alltids an å for eksempel skrive på dialekt, legge til tall i setninga. Bytte mellom språk, etc. Det er mykje ein kan gjere for å gjere eit passord sikkert men å gjere det lengre er vel kanskje den mest effektive måten.

     

    Du har nok ein bedre løsning med tanke på den absolutt sikraste måten å håndtere passord på, med passordsafe og random passord for kvar teneste. Eg har aldri brukt noko passordbank sjølv så eg kan ikkje uttale meg om det før eg har prøvd. Eg har lagt litt vekt på at passordet skal være lett å huske. Fordi folk flest er generelt litt late når det kjem til å lage og å hugse passord. Og eg er blant dei late :p

  11. Dei beste passordene har desse eigenskapane:

    -Langt, minst 10 tegn, helst fleire enn det

    -Vanskelig å gjette

    -Lett å huske

     

    Det mange trur er at viss du har minst ein stor bokstav og eit tal i passordet ditt så er passordet sikkert. Det er ganske langt frå sannheten. Eg ser mange av dei andre foreslår passord som er skrevet på DenneMåtenHer123. Det er ein veldig vanlig måte å skrive passord på og det utnytter passordcrackerne. Dei har algoritmer som gjetter passord som har ord som begynner med stor bokstav og slutter på et tal.

     

    Andre foretrekker passord med tilfeldige tegn for å føle seg sikre. Problemet då blir at det blir vanskelig å huske passordet. Då har folk ein tendens til å holde passordet for kort, då blir det lett å brute force passordet uansett.

     

    Måten eg foretrekker å lage passord på er å skrive ein setning som ikkje gir meining eller berre ein haug med ord som ikkje høyrer sammen. Då får du et langt passord som er vanskelig å gjette siden det ikkje gir meining og det er lett å huske.

     

    Et standard eksempel på et slikt passord er "correct horse battery staple" sjå https://xkcd.com/936/. Ja du kan bruke mellomrom i passordet ditt og disse mellomrommene er med på å gjere passordet sikrare. Ja det går fint å berre skrive lower case uten å bruke tal og spesialtegn i passordet ditt. Så lenge det er vanskelig å gjette og er langt nok så er passordet ganske sikkert.

  12. At OLED kommer stormende er vel en sannhet med modifikasjoner. Teknologien har vel vært "rett rundt hjørnet" siden årtusenskiftet. Det er lov å håpe. OLED, kombinert med ikke-reflekterende materialer i skjermoverflaten, er vel fremdeles den eneste potensielle teknologien for å skape funksjonelle skjermer for bruk utendørs i direkte sollys.

     

    For min del så er reflektive skjermer, t.d e-ink det neste steget. mykje bedre i sollys siden du slepp å konkurrere mot sollyset med lysstyrken, berre bruk sollyset som front belysning.

  13. Ikkje rart freesync er så billig, fordi AMD skjermkort er så dårlige i forhold til nVidia akkurat nå. Folk gidder ikkje å kjøpe AMD av den grunn, dermed må de ha noe som kan friste folk over.

     

    De klarer ikkje å friste meg, slik ståa er nå. 

    Hilsen performancefanboy ;)

     

    AMD korta er ikkje dårlige. Fury X har ytelse tilsvarende GTX 980 Ti. Bedre på nokon spel (f. eks. slår fury x gtx titan x i Far cry 4) og dårligere i noken, t.d Dying Light.

     

    Men AMD korta har litt høgare strømforbruk og genererer meir varme, så dei har litt dårligare overklokkingspotensiale. Men generelt så er AMD korta prisa litt lågare enn konkurrenten frå nvidia.

  14. Det er ganske mange grunner for å ikkje bruke windows 10. Window 10 har spyware som er umulig å blokkere uten å blokkere ip addresser i brannmur. Microsoft har i praksis tilgang til ALL data du har på pcen din med windows 10 uansett om du bruker full disk kryptering (microsoft får ein kopi av krypteringsnøkkelen). Microsoft har lov til å endre alt på datamaskina di. Microsoft har muligheten til å vise targeted ads i operativsystemet ditt.

     

    Eg liker ingenting av dette. Men alikevel så har eg windows 10 installert, men i dual boot med linux. Eg bruker windows utelukkende til speling. Nylig så installerte windows ein oppdatering som endra alle standard applikasjonane til microsoft sine. Plutselig var Edge default nettleser. Og microsoft gjer det umulig å finne ut kva ein oppdatering faktisk oppdaterer. Alle har det generiske navnet "Windows oppdatering".

     

    Ellers så liker eg ikkje designet til "moderne" windows. Dei har gått frå fancy aero effekter til ein bunch med firkanter. Altså tilbake til windows 95 design. Eg savner også å kunne spele kabal uten å måtte logge inn på ein Xbox konto.

    • Liker 1
  15. Siden dere ennå ikke har forstått det, variabel oppdateringshastighet(adaptiv synkronisering) gir ikke silkemyk bildeflyt. Det gir bildeflyt slik skjermkortet leverer det, samme hvor jevnt eller ujevnt det måtte være (innen visse grenser).

     

     

    Ehh hvorfor ikke bare ha 1 modus da fra 35 til 144 Hz  :roll:

    Helt enig, dette høres ut som et forsøk på selge en tabbe som en god "egenskap":

    11948_700b.jpg

    Eizo deler opp frekvensene i to intervall på grunn av fysisk begrensing med LCD teknologien. Når du viser ein frame på ein lcd skjerm vil framen fade ut og bli mørkere over tid, med mindre du refresher og tegner ein ny frame. Så hvis frekvensen er for låg vil skjermen blinke kvar frame og det vil ikkje være særlig behagelig å sjå på.

     

    Eg antar at Eizo har løyst problemet ved å ha eit low intervall der kvar frame blir oppdatert 2 gonger. Så på 35Hz så vil skjermen faktisk vise 70Hz.

     

    Det går an å dynamisk endre kor mange gonger ein frame skal bli oppfriska. Det er GSync bevis på. Men Nvidia har utvikla ein programmerbar chip til akkurat dette formålet. Det er for det fyrste dyrt å utvikle denne kontrolleren og NVidia har sikkert ein del patentar på dette.

  16. Haha. Radiobølger er ikke skadelig med mindre du blir kokt levende av mikrobølger. Du blir konstant bestrålt av WiFi/Mobil/TV-satelitt/Radio. Hadde det vært farlig å bli eksponert for slilt hadde du dødd for lenge siden. Skjønner ikke helt hvordan dette systemet fungerer, skal det ødelegge elektronikken ved å "koke" den? Blir det som EMP bare med presisjon?

     

    Enten er det ein radio jammer eller så er det ein forvokst mikrobølgeovn med vrangsida ut som er fokusert i ein retning ved hjelp av ein parabol.

  17. Enda ein diger, men tynn telefon med alt for kraftig harware i forhold til batterikapasitet, trur eg. Kan dei ikkje produsere ein telefon som er litt tjukkere med større batteri, mindre skjerm og litt svakere prosessor med lågt strømforbruk? Det er ingen som bruker all kraften til ein 8 kjerners 2 ghz prosessor i ein liten telefon uansett. Det er kun for å brife med benchmark resultat.

    • Liker 2
  18. ikke rart det når dem har kuttet alt som heter kvalitet i sine pcer for å øke fortjeneste. Problemet er at folk har latt seg lure en gang nå og neste runde går dem dukken.

     

    Hatt lenovo W i alle år, W540 blir min siste, makan til søppel skal du lete lenger etter. Har en W540 til 30k som jeg ikke bruker..... bruker W520 isteden for....

    Eg styrte unna dei siste lenovo pcane då eg såg dei hadde fjerna trackpoint knappane. "chiclet" tastatur er og skuffande. Men skaffa meg ein t420s i staden for og den får duge ei god stund (Savner ein god ips skjerm som dei nyaste modellane har).

×
×
  • Opprett ny...