Jump to content

morten7

Medlemmer
  • Content Count

    185
  • Joined

  • Last visited

Everything posted by morten7

  1. Den største lønnsforskjellen tror jeg man vil se mellom størrelse på selskaper. Snakket med mange i Oslo området og de fleste tjener 1,1-1,6 millioner der det er mellom 20 og 50 ansatte, mens i de store konsulenthusene ligger det typisk mellom 600.000-900.000kr/år.
  2. Samme jeg kom til kommentarfeltet for å skrive. Mer forklaring+bilder av hvordan dette fungerer.
  3. Tibber sitt insentiv for å integrere Tibber er nok ikke smartstyring, men for å vite mer om oss slik at de bedre kan predikere forbruket. Svært verdifull informasjon hvis man ønsker å være det som kalles «aggregator» som balanserer i kraftmarkeded. For å bli en aggregator som typisk Statnett kan benytte seg av (og som vi alle betaler for via nettleien) må man ha svært mange effekter man kan styre. Eks elbiler. Prisene på strømmen vår settes hver dag settes igjennom budprosess hos Nordpool som går frem til kl 23 dagen før, derfor kan man etter det se strømprisen for neste dag etter dette. Hvert kraftselskap har da lovet å levere gitt effektiv på gitte timen, basert på estimert forbruk påfølgende dag. Avvik fra dette justeres igjennom en ny budprosess som pågår igjennom dagen. Alt dette balanseres igjennom pris-insentiver og balanserer det meste av nettet av seg selv. Den aller siste og mer «live» justeringen gjøres direkte av Statnett hvor de har avtaler med kunder som kan styre effekter, dette er både kunder man kan ringe til på 2t varsel eller automatiske på 15min og «live». De siste live styringene aggregator. Noe det er estimert at prisene vil gå opp på med fornybar energi. Tibber er derfor insentivert for mest mulig styring, data for å bistå denne styringen og å selge mest mulig grønn energi (som presser opp verdien på aggregator-tjenester). En ganske annerledes businessmodell en hva kanskje mange tror 😉 (Litt som at Mac.Donalds hovedsakelig tjener penger utleie av eiendom (og omkringliggende eiendom) og ikke burger, og derfor er insentivert for mest mulig trafikk for å drive opp tomteprisene og ikke å tjene penger på burger)
  4. En stor buss har plass til ca 60 personer mens den tar opp plass i trafikken som ca 2biler. Klarer man å få til reisetid uten stopp eller ventetid i mellom bytter så går man gradvis i mot reisetiden til en bil. Da vil det vel bli mindre kø og behovet for bil forsvinne? Tror selvkjørende mini-busser/biler er et steg på veien. Tror disse mini-bussene kommer til å koordinere med større selvkjørende busser på sikt. Hvor de større bussene kjører på motorvei og kobler byer sammen, mens disse selvkjørende minibussene som det her er eksempel på vil frakte folk den siste lille biten.
  5. Slik jeg forstår det er ikke utfordringen på værmelding, men å koble data om eksisterende vannføring, magasin-kapasitet der det er demning, mengde snø og hvordan denne oppfører seg avhengig av ulikt vær. F.eks vil helling og vinkel på en fjellside ha mye å si på hvor mye det smelter avhengig av solinnstråling. Tærreng påvirker også mye vind som igjen påvirker smeltingen. Jordsmon påvirker absorbsjonsevnen av vann, så her er det store variasjoner avhengig av typen grunn, om den allerede er mettet og om det er tele i bakken eller ikke osv. Noen datakilder og sensorer jeg tenker at det er naturlig å se på inn i et slikt prosjekt: NIBIO - Oversikt over jordsmon: https://kilden.nibio.no/ Høydedata - Lidar for det meste av Norge. Her får man lage detaljerte 3D-modeller. Merk at de allerede har ferdig prosesserte filer for områder om man velger Nedlasting til venstre (50-100GB per fil): https://hoydedata.no/LaserInnsyn/ Satelittbilder - To ganger daglig flyr det ESA-satelitter over Norge hvor man gratis kan laste ned bilder og data, som kan brukes estimering av snømengder: https://spacedata.copernicus.eu/ Snødybdemålinger - EU har en samleside for både snødybde, gjennomsnittstemperatur osv: https://www.ecad.eu/dailydata/index.php De noe mer innovative datakildene Fyllingsgrad på vannmagasiner - Statnett og NVE har en del ute på regionalt nivå, vet at en del selskaper selv har laget enkle løsninger ved å bruke kamera og maskinlæring. Ofte vanskelig å benytte høydemåler pga bevegelser i vannet. Ved å ha to metallpinner i bakken med god avstand fra hverandre (10-100m) kan man måle elektrisk motstand i bakken. Denne motstanden varierer mye med fuktighet i grunnen. Dette igjen kunne kanskje vært brukt til å automatisk detektere metning av vann. Dette er noe nettselskapene ofte gjør for alle sine trafostasjoner og kalles hos de for "jordplatemåling, men da er hensikten å sjekke om det er god jording og ikke om det er mye vann i grunnen. Vannmengden i grunnen er en effekt som gjør at slike målingen varierer mye. Fra nettselskapene kunne man sikkert fått tak i mange slike historiske målinger for å korrelert mot historisk vær for å bygge grunnlaget for en maskinlæringsmodell. Live vind og temperatur i ulike luftlag kan man få gratis fra alle fly ved å samle inn data med ADS-B mottaker (SDR radio til under 100kr). Deler man data med Flightradar24 får man gratis tilgang til data fra alle mottakere i hele verden. Må legge til at det henvises til maskinlæring som en svart boks. Det var man ferdig med for 2-3år siden og man har nå gode metoder for å finne ut av hva modellen har lært. Så denne påstanden er ikke lengre gyldig.
  6. I tillegg til Carpooling problemet som handler om hvem bør sitte på med hvem for å minst mulig reisevei, tenker jeg på buss-bytte-problemet hvor man ønsker raskest mulig reise med færrest mulig bytter mellom busser og færrest mulig stopp. Her åpner det seg opp mange muligheter med koordinering av busser, hvor man kan få individuelle beskjeder om hvor man bør bytte når for å korte ned den totale reisetiden. For så at bussene seg i mellom kan koordineres slik at ventetiden på perrongen blir kortest mulig. Resultatet tror jeg kan bli raskere reise for alle enn om en selvkjørende buss skal kjøre deg helt fra A-til-B.
  7. Noen idéer til hvordan en slik platform skulle vært satt opp for å administrere data på vegne av brukeren? Eks hvordan skal nettselskapet gi tilgang til en 3.part for å kunne opptre på vegne av en kunde? Via f.eks ElHub eller gi spesielle tilganger til strømleverandører med forutsetning om at du er strømkunde høres ut som en "rask" første løsning. Kunne selvsagt gi leverandøren mulighet til et uthopp til nettselskapet via målepunkt, for så å authentisere med BankID og sende brukeren tilbake. Dette hadde kanskje gitt en mer sømløs on-boarding?
  8. Interessant at de sier at man kan utvikle journalsystemer til en brøkdel av prisen, kun ved å kjøre kode i en database. Virker som de ikke kjenner særlig god til hva som er driverne til at dette koster penger. Det er IKKE utviklingen av journalsystemet. Problemet ligger i at det er ca 50 til 200 systemer som journalsystemet skal snakke med, som igjen snakker med andre systemer igjen. Dette krever ekstremt mye koordinering, allokering av nøkkelressurser fra mange systemer, testing på testing på testing (lovkrav). Bryte opp dette i mikrotjenester eller løse alt i et system vil begge deler gi problemer. Svært mange brukere, behov, oppretidskrav, masse integrasjoner til legekontorer med tilhørende egne systemer +++ Komplekst blir det uansett for å bli effektivt. Hilsen en som faktisk har jobbet med journalsystemer.
  9. Begynner å bli ganske mange som kan nok maskinlæring til å få til dette relativt raskt (<2dager). Største problemet er å få tak i gode data. Kjempe bra at Kystverket har gitt ut data åpent, eneste problemet er at de har begrenset nedlastinger til 250km x 250km, ikke mer enn 185dager og maksimalt 5nedlastinger daglig (ikke lov å lage flere brukere). Etter litt testing ser jeg at datasettet går tilbake til 2011 og dekker hele verden ser det ut til. Begynt nedlasting nå, men tar ganske mange dager om man skal få data langt nok unna Norge til å få en god estimering noen dager frem i tid. Her skulle jeg ønske at Kystverket gjorde som Kartverket og hadde ferdig genererte filer, slik som Kartverket har for LIDAR dataene sine. Om det tar 200GB eller 2TB gjør ingen ting (kanskje ikke uten grunn at Kartverket har valgt å hoste sin egen "sky"). Tilgjengelige data: https://data.kystverket.no/ https://ais-public.kystverket.no/ais-download/ https://kystdatahuset.no/tallogstatistikk Jeg bidrar gjerne sammen med noen andre til å laste ned alle dataene og jobbe sammen om en god forcastingmodell. Tror det er mange som kunne hatt nytte av en slik tjeneste, ut over kun havnene.
  10. Dette er da ikke noe nytt? ABC lære på VVS/HVAC linja på HiOA, og det var over 10år siden. Forskning opp og ned i mente på akkurat dette som er kjempegammel..
  11. Prøvde å laste med på iPhone, men fikk aldri SMS for å aktivere. Synes det er merkelig at dataene må sendes inn sentralt, når heller alle data kunne sendes mellom enhetene med en med «fiktiv» Bluetooth ID (gjøres i dag) og heller brukt krypteringsnøkler for å finne ut om man hadde vært i nærheten av noen som har blitt smittet. Eks slik det er beskrevet her: https://hackaday.com/2020/04/09/decentralized-privacy-preserving-proximity-tracing/
  12. Står ikke når de kommer, bare at de fremdeles er under utvikling og at de allerede har brukt 20år på utviklingen så langt. Så ikke til sommeren vil jeg anta: https://enertia-micro.com/products/
  13. Ser at det er utdaterte tall i artikkelen når det gjelder 3D-print av visirer. Står 2timer, men det reelle nå er 30-60min. I tillegg kan det produseres kontinuerlig nå som det både er utviklet stack og metoder for å automatisk rydde print-platen. I tillegg er dette noe som alle kan gjøre selc med en printer. Gruppen under har nå passert godt over 10.000 produserte visirer: https://www.facebook.com/groups/245163093310432/?ref=share Godt supplement med de som er kuttet ut med laser, men usikker på om de kan gi den samme komforten? Både sterilisering og strekkeprøver er det kjørt, så ingen ting som holder igjen at de er 3D-printet ☺️
  14. Går jeg på nettsidene til AMDAR står det at det koster en del å vedlikeholde datasettet, spesielt pga datakostnader fra fly. Ser ikke at de gir noen andre data enn man får igjennom ADS-B (eks Flightradar24), så hvorfor ikke hente data som er gratis? Lagt med en video som viser temperatur og vindhastighet fra et fly som er over Oslo nå. Krever Business-abonnement for å se dette igjennom Flightradar24, men det får man om man bidrar i nettverket. Koster ikke mer enn ca 100kr for en SoftwareDefinedRadio (SDR) som er det som kreves for å samle dataene fra fly. IMG_2481.MP4
  15. Nettverket som er omtalt er organisert igjennom Facebook siden 3D-printere for assistanse til helsevesenet under Covid-19 Igjennom denne siden kan også helsepersonell henvende seg for bestilling (eget skjema, som går rett til bestillingsliste)
  16. Det er opprettet en Facebook gruppe som så langt har 250 medlemmer med det selvforklarende navnet «3d-printere for assistanse til helsevesenet under covid-19». Mye diskusjon rundt smitte og vask, og man har fokusert på de produktene hvor det er minst risiko og ikke tilgjengelighet nå på markedet. Allerede flere bestillinger+leveranser under produksjon. Tror det er mange skarpe hoder her inne vi kunne trengt i gruppen.
  17. Ettersom bildet er sitert Anette Ask/Forsvaret antar jeg innholdet allerede er gjennomgått. Ser at nærmeste skjermen er sladdet nok til at det ikke er mulig å lese innholdet i Outlook. Høyoppløselig versjon av bildet finner man her, hvor man kan lese navnet på alle trojanskehester og RDP-brute force verktøy: https://img.gfx.no/2527/2527349/20181128AA_CDOC_01.jpg
  18. Ser nesten ut som de ikke har gjort noe annet enn å trene åpenkildekodeprogrammet IDtracker. Det bør være relativt enkelt for enhver utvikler å sette opp: http://idtracker.ai
  19. Virker banalt å sortere ut produksjonsfisk med maskinlæring. Ingen tilgjengelig automatisk løsning uten manuelt arbeid? eks på laks som er for kort og med for liten finne:
  20. Gjetter på at den store nyheten her ikke har noe med kunstig intelligens å gjøre, men at de bruker høyoppløselige IR-data fra Airbus sine satellitter eller gratis data fra ESA (alle kan selv laste ned). Med disse dataene ser man raskt om plantene trives godt eller ikke. Samme kan gjøres til under 1000kr med RaspberryPi og kameraet uten IR-filter: https://www.kjell.com/no/produkter/data/raspberry-pi/raspberry-pi-pinoir-kameramodul-v2-p88054 (må da festes et sted med utsikt over åkeren, eks taket på en traktor) Antar delen de bruker maskinlæring på er for å tegne opp hva som er et jorde, som egentlig har minimal betydning for selve produktet. Gjerne motbevis meg.
  21. Kan ikke se at (bash) scriptet Purge-Wrangler det henvises til gjør så mye mer enn å patche to hex-verdier. Alt annet av kode er stort sett å sjekke at man kjører som admin/sudo, restarte, reversere ved feil osv. Ikke det mest kompliserte å skrive på nytt, og det er det ikke noen copyright utfordringer med. Virker som han kan ha en god sak hvis han ønsker å kreve erstatning. Uavhengig av om noe er en reell case, så har man vel ikke lov til å uttale seg offentlig om lovbrudd? Går vel under omdømmetap som man kan kreve erstatning for. Når det kommer til Digi så var den opprinnelige artikkelen som omtale selskapet uten betalingsmur (Extra), her henviser de til et lovbrudd/erstatningssak i tittelen uten å gi ordentlig tilsvarsrett, ved å ha denne artikkelen bak betalingsmur. Vil si at det bryter med veiledningen til VærVarsomPakaten sitt punkt 13. om at man skal gis tilsvarende sendetid for motsvar: https://presse.no/wp-content/uploads/2014/10/Veileder-for-samtidig-imøtegåelse.pdf
  22. Er vel bare å flytte selskapet til EU/EØS hvor man har lov til å modifisere, kopiere, endre og reverse engineere kode man har rett til å kjøre. Står også at man har lov til å videredistribuere slik endret kode så lenge den som kjører den endrede koden har rettigheter til å kjøre det underliggende systemet. Så hvis man godkjenner at man eier et i-produkt, kan man fint få kjøre dette virtuelt også.
  23. Google (Nest) WiFi er ikke tilgjengelig og har mistet mye av funksjonaliteten etter at Google kjøpte opp Nest, så regner ikke med de 😉 Hadde Google Mesh fått WPA3 støtte hadde det vært noe annet.
  24. Samme som gamme, og nå kansellerte, Microsoft Photosynth fra 2006 (13-år siden!): Kanskje Facebook klarer å lage en bedre forretningsmodell til å finansiere det. Antar de vil bruke 3D-modellen av hjemmet for å forslå kjøp/salg av ting som passer inn med hva man allerede har, hva andre som har lignende ting har og mer enda spisset reklame (les høyere pris per annonse).
  25. Artikkelen hos Ingeniøren.dk er igjen basert på Gizmodo sin https://gizmodo.com/a-neural-network-powers-this-lego-built-brick-sorter-th-1840265085 Virkelig nyttig læring: - Sorteringsmaskinen er trent på bilder generert fra 3D-modeller av lego (https://ldraw.org, https://rebrickable.com) - 3D-genererte bilder ser nok "kunstige" ut til at de fungerer dårlig for bildedeteksjon, derfor tilfører man justeringer/tilfeldigheter for å kompensere. Også kalt 'Doman randomization'/data augmentation: https://lilianweng.github.io/lil-log/2019/05/05/domain-randomization.html Artikkel hvor han som lagde maskinen beskriver hvordan han fikk til bildegjenkjenningen (kan anbefale å hoppe rett til videoen i bunn): https://towardsdatascience.com/how-i-created-over-100-000-labeled-lego-training-images-ec74191bb4ef
×
×
  • Create New...