Gå til innhold

Raske nettsider først i køen?


Anbefalte innlegg

Videoannonse
Annonse

Det kan sikkert få en del uheldige konsekvenser, men om de får det til å fungere så hadde det vært fint.

 

Jeg tror imidlertid dette vil føre til "gaming" tilstander der aktører bevist forsøker å få bedre ranking ved å lure søkemotoren. Det virker egentlig ganske trivielt å gjøre noe slikt all den tid google ikke kan spesialtilpasse seg alle verdens internettsider, men alle som er interessert kan tilpasse seg google. Det gjøres jo allerede i dag med hensyn på innhold så hvorfor ikke for ytelse også.

Lenke til kommentar

Dette er en god ting, men bare til en viss grad. Jeg er enig i at sider som bruker > 5 sekunder på å laste kan prioriteres _litt_ ned, men når jeg søker er det for å finne innholdet som er mest relevant for mitt søk. Om den siden bruker 0.1 eller 3 sekunder på å laste spiller fint liten rolle for min del.

Lenke til kommentar
Ser ikke hvilke uheldige konsekvenser dette skal kunne få. De som lager bra nettsider kommer høyt opp på trefflista.

 

Syns dette er en bra ting.

 

 

Det er rimelig enkelt for en nettside å sniffe om det er Google som er inne på siden din, eller en vanlig bruker. Dermed kan designeren legge inn i koden at dersom det er Google som er innom, fjernes all reklame, all grafikk i layouten, all unødvendig kode (css, javascript osv) slik at nettsiden både er reklamefri og fri for formatering, og dermed laster mye raskere for Google enn for en vanlig bruker.

Lenke til kommentar

Latterlig påfunn.

 

Om jeg er ute etter noe, så er hastighet på webserveren som kan levere dette ikke spesielt viktig.

 

Med tanke på at man kun pløyer igjennom 1-3 sider med søkeresultater før man endrer query - så sier det seg selv at dette kan få vidtrekkende konsekvenser. Skal jeg nå måtte pløye 1-7 sider fordi relevante treff havner langt ned pga hastighet?

 

Legg til at det er dritenkelt å sniffe google roboter og endre oppførsel deretter på webserver - som igjen vil gi mer tullete resultater.

 

"vi vil at verden skal danse etter vår pipe fordi vi syns at slikt og sånn er bra - derfor legger vi på en skatt på sånn og slik for å forandre folk sin oppførsel"

 

... hva med å gi faen for en gang skyld?

 

Hva er så en rask side?

For de som jobber med dette (meg) så vet man at en norsk webserver som server nordmenn kan være dritrask kl 04.00 for da er det ikke en kjeft som gidder å besøke siden din. Men siden serveren er en møkkaboks så blir den til en snigle 11.00 (for da har hele norge lunsj og skal innom sida di). Sjefen din er en dust, så du får ikke en raskere boks.

 

Men google kan jo anta at en norsk side vil ha høy trafikk ca 10.00gmt. Men hva nå om du er på en amerikansk server som server nordmenn???

La oss sniffe språk da?

Hva om dette er en engelsspråklig side som er hyperpopulær hos nordmenn da?

 

Og siden når bedrev noen her et søk etter "jeg vil ha tak i X men kun om serveren er rask for jeg gidder ikke sniglesider".

 

Jeg er en ekstrembruker av google med et brutalt antall søk hver dag i forhold til ola dunk som knapt tørr å åpne word. Jeg har kanskje 4-5 resultater daglig som er plagsomt trege med å laste(det hender faktisk at noen i kina har lagt ut noe glupt, eller jeg tar sjangsen på å sjekke). Sett opp mot det sinnsykt brutale antall resultater jeg pløyer daglig så er altså problemet minimalt.

 

... dette er totalt meningsløst ...

Lenke til kommentar
Gjest Slettet-Pqy3rC
... dette er totalt meningsløst ...

Tja, det er ikke meningsløst for søkemotoren selv. Jeg tipper det Google vil oppnå er at søkemotoren kan traversere sidene raskere, hvorvidt dette gir en direkte positivt effekt også for brukere av søketjenesten bryr de seg neppe mye om sålenge disse ikke merker noen negativ effekt.

 

Dersom Google vil kunne bygge opp tabellene av flere sider enn før vil dette kunne gi brukeren flere relevante treff på søk.

Lenke til kommentar
Ser ikke hvilke uheldige konsekvenser dette skal kunne få.

Hvis hastighet prioriteres opp så vil nødvendigvis andre ting som f.eks relevans måtte prioriteres ned. Jeg tror tiltaket er bra hvis det brukes meget nøkternt. F.eks at med to sider med nesten lik relevans vil den raskeste prioriteres i resultatlista så fremt det er en betydelig hastighetsforskjell. På den måten ledes vi raskere til relevante sider. Men det må altså brukes nøkternt for at det ikke skal villede oss ut på mindre relevante sider og dermed gi oss mye lengre tid til relevant stoff.

 

Jeg håper prioriterignsfaktoren blir veldig lav, men over null slik at utviklere får en motivasjonsfaktor til å gjøre sidene raskere. Forhåpentligvis fører dette til at utviklerne bruker mer tid på optimalisering enn på juksing.

Lenke til kommentar
Ser ikke hvilke uheldige konsekvenser dette skal kunne få. De som lager bra nettsider kommer høyt opp på trefflista.

 

Syns dette er en bra ting.

 

Det er rimelig enkelt for en nettside å sniffe om det er Google som er inne på siden din, eller en vanlig bruker. Dermed kan designeren legge inn i koden at dersom det er Google som er innom, fjernes all reklame, all grafikk i layouten, all unødvendig kode (css, javascript osv) slik at nettsiden både er reklamefri og fri for formatering, og dermed laster mye raskere for Google enn for en vanlig bruker.

 

Tviler på at Googleboten laster inn css og javascript uansett. Boten som crawler bilder er sansynligvis såpass intelligent at det ikke laster ned reklamebilder.

Endret av Kimble
Lenke til kommentar
Gjest Slettet-Pqy3rC
Boten som crawler bilder er sansynligvis såpass intelligent at det ikke laster ned reklamebilder.

Det finnes vel egentlig ikke noen grunn til at den skulle laste ned bilder i det hele tatt da det er få som limer inn en bitmap på søkelinja.

Lenke til kommentar
Skal jeg nå måtte pløye 1-7 sider fordi relevante treff havner langt ned pga hastighet?

Nei. Du går ut ifra at Google er totalt lobotomerte og ikke kan søk bedre enn du kan.

 

Om jeg skal tippe så vil dette kunne tippe opp en side som er raskere, der kriteriene i søket matcher siden akkurat like godt som andre sider som er tregere.

Endret av Zappy
Lenke til kommentar
Boten som crawler bilder er sansynligvis såpass intelligent at det ikke laster ned reklamebilder.

Det finnes vel egentlig ikke noen grunn til at den skulle laste ned bilder i det hele tatt da det er få som limer inn en bitmap på søkelinja.

 

Vel, Google tilbyr bildesøk også.. Noe som innebærer at også bilder må indekseres. Jeg har dog litt vanskelig for å tro at dette gjøres av samme boten som indekserer tekst.

Lenke til kommentar

Jeg tror de fleste her har misforstått begrepet "rask side". Det er nok ikke antall millisekunder som teller inn, men derimot hvor godt nettsiden (inkl. serveren) er satt opp til å betjene rask navigasjon. Jeg tenker da på elementer som at innhold lastes før JS, bruk av innholdsdomener, etc. Med andre ord vil sider som scorer høyt i tester ala YSlow og "Google Page Speed" kunne vektes høyere. Og det sier jo seg selv at dagens pagerank fortsatt vil telle mest! Men som Simen1 nevner, er det fullt mulig å la sider som er godt satt opp boble litt opp i køen ...

 

Synes dette høres ut som en god idé, jeg.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...