Gå til innhold

ProgrammeringsBaren! Småprat, om det du elsker!


Anbefalte innlegg

Skrevet

For eventuell kritikk i fremtiden - hvor streng (/krass) jeg er avhengig av hva bakgrunnen er. Dersom man er 3.-året datateknikk er standarden langt høyere enn om du er mid-VGS og egentlig ikke har særlig erfaring.

Ser den! :) Er både litt oppgitt over meg selv, men også NTNU over at jeg ikke kan bedre. Vi koder så utrolig mye i utdannelsen vår.

Videoannonse
Annonse
Skrevet

Haha, der skulle det faktisk stå "vi koder ikke så utrolig mye i utdannelsen vår" - som om at vi gjerne skulle ha hatt flere kodefag, men det er jo egentlig ikke en unnskyldning da jeg har ihvertfall hatt 4-5 proggefag og et drøss med tid brukt på reddit som heller kunen brukt til konstruktive ting.

Skrevet

Fint å se at Microsoft offisielt supporterer Mono CLR gjennom inklusjon i deres test suite for .NET. Men er det noen som etterspør denne støtten? Hvem er ute etter å kjøre ASP programmer på Mac og Linux? Kjipe webtjenertilbydere?

 

http://www.hanselman.com/blog/IntroducingASPNETVNext.aspx

 

ASP.NET vNext (and Rosyln) runs on Mono, on both Mac and Linux today. While Mono isn't a project from Microsoft, we'll collaborate with the Mono team, plus Mono will be added to our test matrix. It's our aspiration that it "just work."

aspnetvnextonmac_3.png

Skrevet

Tja, veldig mange servere kjører jo Linux. Om man har en Linux-park påvirker det valg av teknologi til nye prosjekter.

Og mange som kjører Windows har fortsatt kviet seg for å bruke den stacken siden den ikke offisielt har vært portabel, siden man en gang i fremtiden kanskje vil bytte.

Skrevet

Det blir litt høna og egget problematikk. Det skal gode argumenter til for å supportere en ny distribusjon, om man ikke har investert i SLES tidligere. RHEL er jo brød og smøret for mangt ett firma, med innslag av Debian/Ubuntu greier.

Skrevet

Men når ett miljø har investert tungt i Microsoft, både med lisenser og i personell, så det mye rimeligere å kjøpe enda en ny IIS server, enn å sette opp noe fremmed Ubuntu-greier som må supporteres.

 

 

Det er det mange ønsker å tru, dessverre er det så lite sant som det kan bli.

Kostnadene for lisensadministrasjon er mykje større enn sjølve lisensane. Jo mindre lisensar det er å halde styr på, jo billegare blir lisensane.

Skrevet (endret)

 

Men når ett miljø har investert tungt i Microsoft, både med lisenser og i personell, så det mye rimeligere å kjøpe enda en ny IIS server, enn å sette opp noe fremmed Ubuntu-greier som må supporteres.

 

Det er det mange ønsker å tru, dessverre er det så lite sant som det kan bli.

Kostnadene for lisensadministrasjon er mykje større enn sjølve lisensane. Jo mindre lisensar det er å halde styr på, jo billegare blir lisensane.

 

Brorparten av firmaene i Norge har tydeligvis ingen problemer med å vedlikeholde lisensavtalene med Microsoft. Dessuten kan jeg se for meg at noen tenker det er noen fordeler med en totalleverandør.

Endret av rockPaperScissors()
Skrevet

Det er sant at nokon fortrekker ein totalleverandør, men det er ikkje Microsoft. Det er meir eit lokalt selskap som Hesbynett her i Stavanger som selje Microsoft.

Skrevet

Mer realistisk: Jeg har noe C#-kode for et jobb-prosjekt som trengte et windows-GUI. Hvis jeg lett nok kan trekke ut deler, lage et kommandolinje-grensesnitt, og kjøre det på linux-maskinene ... så kan det faktisk være litt nyttig.

Skrevet

 

[...] .NET-stack (Core CLR) for webløsninger på Windows, Linux og Mac.

Funny thought, det passer vel bra ettersom 40% av .NET utviklere likevel bruker Mac? :p

 

 

Tror du tar litt vel hardt i nå :)

  • 2 uker senere...
Skrevet

Hei, det er meg med webcrawleren igjen!

Nå er eksamenstida over så jeg tenkte å lage litt dugendes kode. Har et spørsmål. Hvordan er det lurest å løse at jeg fortsetter å crawle sålenge jeg har nye linker å crawle?

Er det best å lese inn hele listen med linker fra filen en gang, og så sette på en while hasnext eller lignende, for så å prøve å lese inn filen på nytt igjen når det som er lest inn er tomt?

def crawl(url):
    page = fetch_webpage(url)
    links = fetch_links(page)
    for link in links:
        if havent_visited(link):
              schedule_link(link)      	
        

http://codereview.stackexchange.com/questions/49480/minimal-webcrawler-bad-structure-and-error-handling

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...