Gå til innhold

FB.106965827100006

Medlemmer
  • Innlegg

    32
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av FB.106965827100006

  1. Det er nettopp svingradiusen som følger av den unødvendig lange akselavstanden jeg reagerer på.

     

     

    Svingradius på en bil følger som regel av hvor spiss vinkel du er i stand til å justere hjulene i tillegg til avstanden. Ikke sikkert det blir så dårlig svingradius på denne om de klarer å lage et oppheng som kan gi ekstremt god vinkel, og om de i tillegg kan gi vinkel på bakhjulene så kan den kanskje klare ås nu på femøren :)

     

    Hvis bilen får motorer i hjulene, så kan kanskje forhjulene (ved behov, og ikke i fart!) roteres helt på tvers. Da blir minste svingradius lik akselavstanden.

  2. Du har jo alltid den i filutforskeren? - Ser ikke helt problemet her - den gir jo full oversikt over alt dette. - Veldig sjelden jeg har bruk for å gå inni brukermappen, men skulle jeg ha det nehovet kan jeg jo bare pinne den til quick-access?

     

     

    Kanskje de har en onpremise Sharepoint 2013/2016 server - som ikke kan bruke den nye versjonen (kun online og 2019) - men ja, den gamle versjonen er ubrukelig. - Jegutsatte nettopp et stort prosjekt til vi får oppgradert til 2019 fordi jeg ikke ville rulle ut den gamle ustabile versjonen.

     

    Jeg la inn NTNU-kontoen i den vanlige OneDrive-appen i dag, og da ble mappen "kapret" fra Business-appen. Jeg startet opp Business-appen for å se om det ble en konflikt, og den var da tom. Ved omstart av maskinen ble ikke Business-appen startet automatisk, som den ble før. Så oppgraderingen gikk greit. Men det er klin umulig å fjerne Business-appen, da. :-P

     

    Det gjenstår å se om OneDrive-appen er pålitelig, men verre enn Business-appen kan den vel ikke være. Takk igjen for tipset.

  3. De tingene du beskriver her er jo fra Windows 8, da dette stemte.

     

    "Smartmappene" i W10 fungerer upåklagelig. - De peker dit du har satt de til å peke (gjennom egenskaper eller en automatisk prosess du har godkjent) som nå bør være Onedrive ja. (Og, ja, det vil ligge igjen "Documents, Pictures osv i filsystemet fordi flyttingen av dokumenter ikke sletter de, men de ser du jo aldri med mindre du blar manuelt igjennom disken)

     

    Synkroniseringsproblemene du beskriver tilhører forrige versjon av Onedrive for business klienten som ble faset ut for to år siden. -Dagens klient er den samme for Business og privat, og fungerer stort sett upåklagelig.

     

    Altså, det jeg beskriver er Windows 10. Når det er sagt, har maskinen gått igjennom oppgradering til W10, og det er ikke godt å vite hva som kan henge igjen av gamle mappestrukturer, om det er for å ikke rote bort brukerens filer eller noe sånt.

     

    - Hvorfor skal "Denne maskinen" inneholde referanser til brukerens smartmapper? Det er rot!

    - Hvorfor er det vanskelig å i det hele tatt finne brukermappen (den hvor alle brukerens filer ligger)? Kan det være fordi MS ønsker at man skal bruke OneDrive, og skjønner at det er forvirrende at det finnes andre "Dokumenter", "Bilder" osv. i brukermappen? Husk at OneDrive har begrenset kapasitet, så den kan aldri fullt ut erstatte brukermappen, med mindre man betaler ekstra. Når man, som meg, heller ikke stoler på OneDrive, blir det ikke så aktuelt heller.

     

    MS har til og med gjort det litt vanskelig å komme inn på rotmappen i harddisken. Man må liksom gå omveier. Hvis man ikke har "Denne maskinen" på skrivebordet, så vet jeg ikke lenger hvordan man skal få det. Før lå dette i "tilpass skrivebord" (høyreklikk på skrivebordet -> tilpass), men nå har den kommet i ny versjon med "innstillinger"-appen, som ikke gir valg for snarveier på skrivebordet. Man kan legge den inn i "hurtigtilgang", da.

     

    Jeg har ikke fått beskjed fra MS om at OneDrive for Business skal byttes ut med vanlig OneDrive. Jeg tviler på at det stemmer. Jeg har OneDrive for Business gjennom NTNU, med egen innloggingsløsning og sånt. Kan sjekke det ut. Takk for tipset. :-)

  4. Jeg er litt overrasket over at Windows beholder så mange brukere som de gjør.

    Selv har jeg aldri blitt komfortabel med ribbons-menyene. Eller dynamiske menyer i det heletatt, hvor knapper ikke er på samme plass hver gang under alle forhold.

    Det de har gjort med startmenyen er meg også et under. Det kommer også veldig tydelig frem at de har begynt å jobbe i separate grupper da det er helt forskjellig oppbygning av "innstillinger" og "kontrollpanel" selv om du gjør det samme begge steder.

     

    Sitter jeg alene i en liten båt med disse oppfatningene eller er dette en gjengs oppfatning blant datamaskin-brukere (Ikke iberegnet tabs og telefoner)?

     

    Jeg er helt enig. Vil også supplere med at bruken av "smartmapper" er helt bak mål. For eksempel inneholder "Denne datamaskinen" referanser til "Dokumenter" og "Bilder", men det fremgår ikke om det er brukerens dokumenter og bilder, eller om det omfatter andre dokumenter og bilder. På harddisken heter mappene "Documents" og "Images", og ligger i brukermappen under "Users" (OK). Og åpner man "Dokumenter" eller "Bilder" fra "hurtigvalgsmenyen", så er det plutselig mappene i OneDrive man har åpnet. For å gjøre forvirringen komplett, finnes OneDrive også i en businessutgave, som kontinuerlig korrumperer og mister viktige filer (såkalte "Synkroniseringsproblemer").

     

    En annen ting er at søkefunksjonen for filer har blitt tregere og tregere for hver Windows-versjon. Alle mine erfaringer fra Windows 10 tilsier at den nå er helt ubrukelig.

     

    Windows Defender dreper maskinen omtrent ukentlig. Rapportering av "anonymiserte brukerdata" har tatt helt av, og går også ut over ytelsen.

     

    Alt var mye bedre før (og det sier jeg ikke bare fordi jeg har passert 30 år). Jeg savner Windows 2000. Mye raskere, mer stabilt og oversiktligere. "Min Datamaskin" inneholdt referanser til harddisker, CD-ROM, diskettstasjon (OK, den savner jeg ikke), nettverksoppsett, og Kontrollpanel med samlet oversikt over innstillingene på maskinen. "Mine Dokumenter" viste til brukerens mappe på maskinen, ikke noe tull. Og startmenyen inneholdt en oversikt over alle installerte programmer. Og søkefunksjonen fungerte, selv om det også da tok litt tid hvis man hadde mange filer. Antivirus var valgfritt (også på den tiden var antivirus omtrent verre enn virus).

    • Liker 2
  5. Hvis du med "teknisk mulig" mener at CPU-er med eller uten GPU-er til hjelp kan gjøre de samme beregningene, men uten krav til realtime-ytelse, så er svaret ja. Strålesporing/raytracing er ikke akkurat magi. Det er en svært en enkel algoritme (som kan bygges ut, optimaliseres og parallelliseres).

  6. Nå kan jeg bare snakke for meg selv, men for meg er det sånn at oppfatningen min av det jeg ser avhenger av sammenhengen. Så, for eksempel, når jeg kjører bil er jeg mer oppmerksom på skilt med piler, og da tolker jeg lettere Elkjøp sin logo som en pil til høyre. Jeg har jo ikke endt opp inni feil butikk, men jeg kan jo ikke si 100% sikkert at det ikke kunne ha skjedd.

     

    PS: Jeg er ganske oppegående. Har du forresten hørt om professoren som kjørte til hytta, tok tog tilbake og meldte bilen stjålet da han kom hjem og så at den ikke stod ved huset hans? Fort gjort...

    • Liker 2
  7. Men er det teknisk mulig å teste nyeste grafikkinstillinger og strålesporing med GTX 1080 ti?

    Eller hva er det som gjør det ikke mulig?

     

    Gamle grafikkort er spesialisert til å projisere polygoner direkte til skjermen. Strålesporing er fundamentalt annerledes, og innebærer å søke etter skjæringspunkter mellom stråler og flater. Det har likevel (med masse knot) vært mulig å utnytte GPU-ene til å implementere strålesporing, og nyere grafikkort har også fått større fleksibilitet mht generelle beregninger vha. CUDA etc. Men RTX-kortene har egne kjerner som er spesialisert til strålesporing, og det blir noe helt annet.

    • Liker 1
  8. For å oppnå 120 interaktive FPS må serveren være plassert mindre enn 1250 km unna, slik at inputen og outputen rekker å reise med lyshastigheten til og fra serveren i løpet av 1/120 sekund. ;-)

     

    I praksis må selvfølgelig serveren være enda nærmere, fordi ledningene ikke er rette, signalene blir forsinket underveis, rendring og komprimering tar tid osv. :-)

     

    Eller så kan man lempe på 120 FPS-kravet, eller på interaksjonsraten. Si 30 interaksjoner i sekundet, da.

    • Liker 1
  9. Jeg er skeptisk til om de klarer å levere umiddelbar respons. Samnenøigningen med Netflix er ikke helt gyldig, siden videoene på Netflix kan komprimeres på forhånd, og er komprimert med tap, mens spillbilder eventuelt må komprimeres fortløpende (uten kjennskap til fremtidige bilder), og da helst uten tap.

     

    Men jeg setter pris på initiativer som både letter presset på lommebøkene til spillerne og samtidig frigjør produksjonskapasitet for Nvidia, som kan brukes til noe nyttigere enn spill. Jeg regner med at ledig kapasitet i datasentrene vil brukes til noe nyttig også. :-)

  10. Men foreløpig så må man puste inn helseskadelig cellulose?

     

    Jeg har bare sett videoen og kest Tek-artikkelen, men forståelsen min er at de foreløpig sender én enkelt partikkel rundt, og holder den fanget. Med andre ord puster man den ikke inn. Uansett, hvor farlig kan det være å puste inn en håndfull cellulosepartikler? Man (jeg) har da kappet bjelker uten støvmaske også.

  11. Som regel i raytracing vil man sende shadow rays i retning av kjente lyskilder, altså uavhengig av refleksjonsvinkelen, og gjøre lignende beregninger av virkningen fra lyskilden som man ville gjort ved den vanlige raster-projiseringsmetoden. Så kan man i tillegg reflektere strålen skarpt, og også sample tilfeldige stråler for diffus indirekte belysning. Underveis kan man anslå hvor stor betydning en stråle vil ha for fargen på pixelen, og avbryte beregninger som virker ubetydelige. Stråler som ikke avbrytes på denne måten, kan avslutte med å treffe en konstant lyskilde, som et punkt på himmelen.

  12. RTX-kortene kan behandle et antall stråler som tilsvarer mer enn én stråle per pixel per frame. Men det er ikke nødvendigvis nok. Ved hvert treffpunkt må man sende shadow rays til lyskildene, og for diffus belysning, diffuse refleksjoner, diffus lysbrytning og sånt må man sende ut stråler i mange retninger, egentlig alle. I tillegg må skarpe stråler reflekteres flere ganger. Her kan Monte Carlo-sampling og støykorrigering ha en del for seg. Søk opp "brigade path tracing demo" for et eksempel på noe slikt med gammel teknologi. Men muligens uten støykorrigering.

  13. Raytracing er det stort sett ingen som bryr seg om. Er jo ytelsen folk er ute etter når de oppgraderer skjermkort.

    Hvis du med "ytelse" mener oppløsning og framerate, så kan du jo bare spille gamle spill og få masse av begge deler. Her har Nvidia brukt en stor del av forbedringspotensialet på kvalitative forbedringer av ytelsen. De har åpnet nye muligheter for hva skjermkort kan gjøre. Noe tilsvarende den nye funksjonaliteten (raytracing, deep learning mm.) kan oppnås med forrige generasjons brikker, men da med MYE lavere ytelse. (Ikke noen titalls prosent.)

  14. språklig integritet er helt riktig, derfor bruker man egennavnet på teknologien. :)

     

    Egennavnet på teknologien er RTX. Raytracing har en mye eldre historie. Det har blant annet blitt brukt til filmeffekter i mange tiår. Det som er nytt er at nVidia satser på å levere det i sanntid ved hjelp av spesialisert maskinvare. Real Time Ray Tracing --> RTRT? (Eller (RT)^2?)

  15. "Kunstig intelligens" er greit, men KI kan jeg spares for. "Strålesporing" er også greit, bare det ikke blir forkortet til SS.

     

    Det er litt feil å påstå at speil endelig kan se naturtro ut med RT. Dette gjelder krumme flater. Flate speil har man lenge kunnet rendre perfekt (i hvert fall til én refleksjon) ved hjelp av rendring til tekstur. Hvis speil ikke håndteres på en egen måte med RTX, er det fare for at "refleksjonsdybden" blir et problem.

     

    Giga Rays/s er et interessant mål. Stråler kan disponeres på ulike måter. Ved 8 Megapixler og 60 FPS får man bare to stråler per pixel frame med RTX 2080 Ti. 2 MP x 30 FPS gir 16 stråler. Men når bildet står stille trenger man ikke alltid å sende nye stråler, og når bildet er i stor bevegelse trenger man ikke alltid stor nøyaktighet.

  16. Ray tracing er et steg i riktig retning, men teknologien krever noe himla mye krefter. Det er derfor særdeles urealistisk at vi får oppleve noen spill utnytte denne teknologien i de førstkommende årene. Jeg vil gjette på at ray tracing kan få nok krefter og modnes om 10+ år.

     

    At produsenten setter i gang prosessen med å komme oss dit er definitivt bra, men ikke noe som vi per i dag får nytte av.

     

    Jeg tror nVidia har konkludert med at det ikke lenger er hensiktsmessig å kaste økt regnekraft inn i å forsøke å pynte på den gamle rendringsmetoden, at de nå vil kunne oppnå større realisme med raytracing (og med mye mindre arbeid for grafikkutviklerne), selv om antall "samples" per pixel er lavt i forhold til i filmgrafikk. De skriver noe om RTX i bloggen sin. En del av løsningen er visst å kjøre raytrace-rendringen gjennom et støyreduserende filter. Uten dette steget vil bildet fra raytracingen se ut omtrent som et dårlig analogt TV-signal.

  17. Snowleopard:

    Det er heller ingen låsing av innovasjon. De kan fremdeles bli enige med de andre om hvordan kablene og pluggene kan utvikles til å bli bedre. Idéen med en lightningkabel er god. Det skal de ha. En kabel som man slipper tenke på hvilken vei som skal stå, og ingen "pinne" som skal i senteren av kabelen, gjør den mer robust. Dog er den mer tilgjengelig for påvirkning utenfra, men da er det ihvertfall lettere å komme til med å rense kontaktpunktene, og faktisk også plugghullet på tilhørende utstyr.

     

     

     

    Er ikke vanskelig å se at USB-C hentet idéen til USB-C fra nettopp lightning, men hadde da vært bedre om de hadde samarbeidet med andre om den eller tilsvarende, forbedret plugg.

     

    Det at alle går sammen om "innovasjonen" er ikke noen garanti for et godt resultat, som vist med Micro-USB. Nettopp det at noen går egne veier gjør jo at man får testet flere løsninger på markedet, og ikke bare på papiret. Du skrev jo selv at Lightning antagelig har inspirert USB-C. Jeg ser for meg Apple uten Lightning på markedet prøve å overbevise de andre om at det er bedre med en symmetrisk plugg enn med Micro-USB, bare for å bli sablet ned over økte kostnader etc. Men nå lar det seg gjøre, kanskje takket være at Apple demonstrerte Lightning i markedet.

    • Liker 1
  18. Det er prisverdig at EU vil begrense mengden spesialavfall og gjøre livet enkelt for forbrukere. Men Micro-USB har vært en tragedie når det kommer til pålitelighet. Jeg er nok ikke alene om å ha fem-seks halv-defekte ladere liggende, og ha data over USB kun som en fjern drøm. Hvis USB-C viderefører tradisjonen, blir det fort en stor kilde til avfallsproblemer alene. Jeg savner de gamle laderne med solide plugger som bare var til strøm, og uten en lang "brekkstang" stikkende ut av telefonen. Jeg er veldig skeptisk til at EU skal bruke makt til å hindre innovasjon på dette området, om det så bare er Apples kunder som nyter godt av at EU holder fingrene av fatet.

  19. – Vi ønsker å vise at det ikke er noe spesielt bemerkelsesverdig med AI. Det er bare en annerledes måte å løse problemer på, forteller hun.

     

    Men i ytterste konsekvens ER det noe spesielt bemerkelsesverdig med AI. Det er et forskningsfelt som kan avgjøre menneskehetens skjebne, i tillegg til å ha umiddelbare implikasjoner for enkeltmenneskers økonomiske nytteverdi.

×
×
  • Opprett ny...