Gå til innhold

bjornoss

Medlemmer
  • Innlegg

    96
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av bjornoss

  1. @deviant: takk for svar fra deg også. Ja, Dell har vært veldig hjelpsomme til nå så jeg bør nok snakke med dem også...

     

    Så ditt forslag er å ha 2x RAID 5 pluss hot spare for at det ikke skal bli for mange disker i RAIDet?

     

    Ang Lucene så skulle jeg mer enn gjerne hatt den i RAM men PE 2950 boksen har kun 16 GB med RAM og indeksen er som jeg skrev på nesten 30 GB. Og siden vi kjører Debian Linux så er vel en del av filene i alle fall automatisk cachet gjennom OS-cachen. Jeg skulle selvfølgelig aller helst brukt RAMDirectory men det har jeg som sagt ikke nok RAM til... I tillegg kan jeg nevne at indeksen oppdateres flere ganger i døynet, minst en gang i timen.

     

    Databasen er PostgreSQL versjon 8. Størrelsen er på < 3 GB og det er mye både skriving og lesing, (les: brukes av en nettside med en god del brukere). Det er blant annet her det lagres referanser til de millionene av filene som ligger for det meste direkte på MD3000i boksen og delvis på MD1000 boksen. Pr i dag så har jeg som sagt WAL på en egen partisjon. Trenger du mer informajson så bare spørr så skal jeg svare så godt jeg kan...

  2. Takk for svaret, jeg ser poenget ditt. Så da går jeg nok for en én-RAIDs løsning over alle diskene + hot spare.

     

    Diskplassen blir hovedsaklig brukt til PDF og bildefiler, det er snakk om flere millioner filer... Disse filene blir lastet ned via nettet så det vil uansett ikke stå på diskene. Men ved noen anledinger så har jeg hatt brukt for å flyttet en god del filer og da er det jo kjekt at det går litt raskt.

     

    En annet spørsmål, jeg har en MD1000 koblet til MD3000i, også med 15 stk 10000 rpm SAS disker, disse er på 300 GB.

    Skulle gjerne satt opp noen av disse for maksimal ytelse på databasen, samt en Lucene index. Databasen er liten, < 3 GB, og Lucene indexen er på rundt 30 GB. I dag er det gjort slik at database dataene er på én RAID 5 med 5 disker, Write-Ahead-Log (postgresql) er på en egen og Lucene på egen. Disse partisjonene brukes samtidig til annen lagring, dumt å "kaste bort" flere hundre GB med plass. Det hadde selvfølgelig vært mest gunstig å hatt dette på dedikerte disker. Kanksje jeg skulle satt opp fire (eller fler) disker i RAID 10 eller noe? Noen forslag?

  3. Som emnetittelen sier så er jeg ute et forslag til RAID oppsett av 15 disker.

     

    Jeg kan først fortelle litt om hardware. Vi har en Dell PowerEdge 2950 Server som er koblet til en Dell PowerVault MD3000i (iSCSI). Denne har plass til 15 SAS/SATA disker. Diskene vi bruker er av typen SAS 10000 rpm 400 GB. Pr i dag så har vi satt det opp med 3x RAID 5 med 5 disker i hver. For et par dager siden så gikk den ene disken ned og jeg begynte å tenke på at det ville vært kjedelig om én til hadde blitt ødelagt før jeg fikk erstattet den gamle.

     

    I en oppdatering fra Dell til MD3000i så er det mulig å benytte RAID level 6 i tillegg til de andre som har vært støttet: 0, 1, 5, 10. Det jeg nå vurderer er å endre oppsettet til enten 2x RAID 6 á 7 disker + en disk som hot spare. Eventuelt ha kun ett RAID 6 med 14 disker, og igjen én disk som hot spare. Det jeg er ganske sikker på er at sikkheten vil øke ved å velge den første løsningen da to (3 med hot spare) disker kan ryke uten at dataene blir borte. Men vil dette ha noe å si for ytelsen, de samme dataene er jo spredd utover flere disker som vil i teorien gi ytelse (i alle fall leseytelse). Og våger jeg å ha ett eneste RAID 6 med 14 disker(!), da sparer jeg jo plassen på to disker samt at ytelsen kan bli enda noe bedre, eller?

     

    Dataene på diskene er slik at det er vktigere med sikkerhet enn med hastighet, men samtidig ønsker vi å utnytte plassen så godt som mulig, da det er sankk om mye data.

     

    Setter pris på alle tilbakemeldiger. Og hvis dere har helt andre forslag til oppsett enn det jeg skriver så kom gjerne med det også...

     

    - Bjørn Håkon

  4. Dette er en telefon jeg vil vurdere om den kommer til Norge som erstattning for min veldig gamle K800i.

     

    Jeg har sett at andre skriver at den kun er for "emerging markets" men håper vi får se den her også ,noen som vet sikkert? kilde: http://www.phonesreview.co.uk/2009/02/11/s...erging-markets/

     

    Ellers så er det referert til C510 både i produktinformasjonen til høyre og i overskriften over videoen. Korrektur er feigt :p

  5. Hehe,

    er ikke så greit. Men jeg kan godt gjøre deg en bjørnetjeneste jeg.

    Oppg 3: 100 m / 12 m/s = 8,3333 s

    Oppg 4:

    a:

    45 * 3 = 135 (totalt antall kvm som skal dekkes)

    135 / 15 = 9

    b:

    5 * 4 = 20

    20 * 9 = 180 kvm

    Oppg 5:

    a: 2150 * 9 + 3700 = 23050

    b: regner med du har skrvet av oppgaven feil.

    c:

    Edit: ble litt usikker hva oppgaven mente her

    Ukentlige utgifter:

    3700 pr dag * 5 (arbeidsdager) + 400 = 18900

     

    * med forbehold om skrive- og regnefeil :p

    edit: fant en feil ja :D

     

    -bjornoss

  6. ...

     

    Dette er jo overhode ikke historien til WinVista, Vista har jo alt vært ute nesten dobbelt så lenge som WinME levde?

    Så hvordan kan det floppe like mye? WinVista har jo alt levd like lenge som et gjennomsnittlig Windows-operativsystem egentlig skal leve, Microsoft har jo egentlig alltid hatt som plan å komme med et nytt operativsystem hvert tredje år, og nå har Vista levd i 3år og blir faktisk over 4år før Win7 kommer, noe som faktisk er en lengre levetiden enn noe annet moderne Windows operativsystem med det ene untakket av WinXP som har levd usedvanlige lenge!

     

    Det at WinXP har fått levd såpass lenge som det har betyr jo ikke at om nyere utgaver lever kortere så er de plutselig en flopp vettu ;)

    WinVista har allerede hatt like lang levetid som de fleste Windows operativsystemer, og dobbelt så lang levetid som WinME, så hvordan kan det være en stor flopp? Windows selv sier jo at de ønsker en ny windows utgave hvert tredje år, så om alt går etter planen så skal jo alt av Windows floppe da?

     

    ...

     

    Må bare pirke på en liten ting, Vista er snart 2 år, ikke 3 år som du skriver:

    Windows Vista (Windows NT 6.0, kodenavn Longhorn) er Microsofts nyeste operativsystem. Vista ble lansert for bedrifter 30. november 2006 og for privatpersoner 30. januar 2007

    kilde: Wikipedia

  7. Noe sånn som dette kanskje:

    public List<String> search(String searchString) {
     
     List<String> res = new ArrayList<String>();
     
     String sql = "select * from liste where stuff like '%" + searchString + "%'";
     Connection con = null;
     Statement st = null;
     ResultSet rs = null;
     try {
     	con = getConnection();
     	st = con.createStatement();
     	rs = st.executeQuery(sql);
     	
     	while (rs.next()) {
       res.add(rs.getString(1));
     	}
     } catch (SQLException e) {
     	System.err.println(e);
     } finally {
     	releaseConnection(con);
     }
     
     return res;
    }
    

    getConnection() og releaseConnection() er metoder som åpner og lukker db koblinger. Siden du har lagret verider der så regner jeg med ut vet hvordan du gjør dette.

     

    Det som er viktig her er: rs.getString(1), denne metoden henter ut en String i første kolonne i resultatet av spørringen: select * from liste where stuff like '%" + searchString + "%'. Det finnes også rs.getInt(int kolonne) osv.

     

    Nå er det bare å legge resultatet i JTextArea eller hvor du vil.

     

    -bjornoss

     

    Edit: rettet en feil i koden.

  8. Noen som kan forklare/henvise til info ang. hvor mye generellt raskere en slik disk er sammenliknet med en standard HDD på 7200RPM?

    8158677[/snapback]

     

    "Sandisk har lansert en 32 GB harddisk bygget på flashminne som oppgis å være opptil 100 ganger raskere enn en tradisjonell harddisk."

     

    Sjekk også denne linken: http://www.hardware.no/nyheter/harddisk/sa...flashdisk/37406

    8158857[/snapback]

    100 ganger? Henger det på greip? Det vil isåfall være en latterlig stor oppgradering for PCer overalt :wow:

    8159001[/snapback]

     

    Her er det snakk om at access tiden er ca 100 ganger raskere opp mot 10 ms for vanlig hd og 0,1 ms for flash disker. Overføringshastigheten er faktisk lavere for flash disker enn for vanlige disker. Det er derfor disse diskene er så bra som OS disk da OS'et ber om små datamengder veldig ofte. Men trenger du raskt overføringshastighet er ikke disse noe å statse på enda.

  9. Heisann folkens, noen med peiling på Spring Framework og Hibernate der ute?

     

    Jeg har brukt Spring 1.2 og Hibernate 2.1 i en god stund men nå har jo Spring 2.0 og Hibernate 3 kommet så jeg ønsker å oppgradere. Har i den forbindelse støtt på en del problemer, de fleste har jeg løst men dette må jeg ha hjelp til.

     

    System:

    DB: PostgreSQL 8.2

    Tomcat 5.5

    Spring Framework 2.0.2

    Hibernate 3.2.2

     

    Jeg forsøker å hente ut noe salgsdata med følgende HQL:

    select new no.gep.mediaport.util.statistics.StatsDataSales(si .sale.time, si.sale.clientLocation.country, si.sale.clientLocation.city, si.sale.currency, si.publication, si.product, si.sale.payMethod, si.amount) from no.gep.mediaport.bus.SaleItem as si where si.sale.time between :from and :to and si.sale.payMethod != :bar

     

    Når denne kjøres så får jeg følgende Exception:

    Klikk for å se/fjerne innholdet nedenfor
    org.postgresql.util.PSQLException: ERROR: invalid reference to FROM-clause entry for table "saleitem0_"

    at org.postgresql.core.v3.QueryExecutorImpl.receiveErrorResponse(QueryExecutorImpl.java:1512)

    at org.postgresql.core.v3.QueryExecutorImpl.processResults(QueryExecutorImpl.java:1297)

    at org.postgresql.core.v3.QueryExecutorImpl.execute(QueryExecutorImpl.java:188)

    at org.postgresql.jdbc2.AbstractJdbc2Statement.execute(AbstractJdbc2Statement.java:437)

    at org.postgresql.jdbc2.AbstractJdbc2Statement.executeWithFlags(AbstractJdbc2Statement.java:353)

    at org.postgresql.jdbc2.AbstractJdbc2Statement.executeQuery(AbstractJdbc2Statement.java:257)

    at org.apache.tomcat.dbcp.dbcp.DelegatingPreparedStatement.executeQuery(DelegatingPreparedStatement.java:92)

    at org.hibernate.jdbc.AbstractBatcher.getResultSet(AbstractBatcher.java:186)

    at org.hibernate.loader.Loader.getResultSet(Loader.java:1778)

    at org.hibernate.loader.Loader.doQuery(Loader.java:662)

    at org.hibernate.loader.Loader.doQueryAndInitializeNonLazyCollections(Loader.java:224)

    at org.hibernate.loader.Loader.doList(Loader.java:2211)

    at org.hibernate.loader.Loader.listIgnoreQueryCache(Loader.java:2095)

    at org.hibernate.loader.Loader.list(Loader.java:2090)

    at org.hibernate.loader.hql.QueryLoader.list(QueryLoader.java:375)

    at org.hibernate.hql.ast.QueryTranslatorImpl.list(QueryTranslatorImpl.java:338)

    at org.hibernate.engine.query.HQLQueryPlan.performList(HQLQueryPlan.java:172)

    at org.hibernate.impl.SessionImpl.list(SessionImpl.java:1121)

    at org.hibernate.impl.QueryImpl.list(QueryImpl.java:79)

    at org.springframework.orm.hibernate3.HibernateTemplate$30.doInHibernate(HibernateTemplate.java:870)

    at org.springframework.orm.hibernate3.HibernateTemplate.execute(HibernateTemplate.java:367)

    at org.springframework.orm.hibernate3.HibernateTemplate.findByNamedParam(HibernateTemplate.java:861)

    at no.gep.mediaport.dao.hibernate.MiscDAOImpl.getStatisticsDataSales(MiscDAOImpl.java:53)

    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)

    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)

    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)

    at java.lang.reflect.Method.invoke(Method.java:585)

    at org.springframework.aop.support.AopUtils.invokeJoinpointUsingReflection(AopUtils.java:281)

    at org.springframework.aop.framework.ReflectiveMethodInvocation.invokeJoinpoint(ReflectiveMethodInvocation.java:187)

    at org.springframework.aop.framework.ReflectiveMethodInvocation.proceed(ReflectiveMethodInvocation.java:154)

    at org.springframework.transaction.interceptor.TransactionInterceptor.invoke(TransactionInterceptor.java:107)

    at org.springframework.aop.framework.ReflectiveMethodInvocation.proceed(ReflectiveMethodInvocation.java:176)

    at org.springframework.aop.framework.JdkDynamicAopProxy.invoke(JdkDynamicAopProxy.java:210)

    at $Proxy273.getStatisticsDataSales(Unknown Source)

    at no.gep.mediaport.util.statistics.StatisticsUtil.getStatisticsSales(StatisticsUtil.java:45)

    at no.gep.mediaport.util.statistics.StatisticsUtil.getStatistics(StatisticsUtil.java:34)

    at no.gep.mediaport.web.provider.StatsController.onSubmit(StatsController.java:85)

    at org.springframework.web.servlet.mvc.SimpleFormController.processFormSubmission(SimpleFormController.java:267)

    at org.springframework.web.servlet.mvc.AbstractFormController.handleRequestInternal(AbstractFormController.java:250)

    at org.springframework.web.servlet.mvc.AbstractController.handleRequest(AbstractController.java:153)

    at org.springframework.web.servlet.mvc.SimpleControllerHandlerAdapter.handle(SimpleControllerHandlerAdapter.java:45)

    at org.springframework.web.servlet.DispatcherServlet.doDispatch(DispatcherServlet.java:820)

    at org.springframework.web.servlet.DispatcherServlet.doService(DispatcherServlet.java:755)

    at org.springframework.web.servlet.FrameworkServlet.processRequest(FrameworkServlet.java:396)

    at org.springframework.web.servlet.FrameworkServlet.doPost(FrameworkServlet.java:360)

    at javax.servlet.http.HttpServlet.service(HttpServlet.java:709)

    at javax.servlet.http.HttpServlet.service(HttpServlet.java:802)

    at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:252)

    at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:173)

    at org.springframework.orm.hibernate3.support.OpenSessionInViewFilter.doFilterInternal(OpenSessionInViewFilter.java:173)

    at org.springframework.web.filter.OncePerRequestFilter.doFilter(OncePerRequestFilter.java:77)

    at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:202)

    at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:173)

    at no.gep.mediaport.filter.CommonFilter.doFilterInternal(CommonFilter.java:172)

    at no.gep.mediaport.filter.MediaPortFilter.doFilter(MediaPortFilter.java:35)

    at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:202)

    at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:173)

    at no.gep.mediaport.filter.LocaleFilter.doFilterInternal(LocaleFilter.java:136)

    at no.gep.mediaport.filter.MediaPortFilter.doFilter(MediaPortFilter.java:35)

    at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:202)

    at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:173)

    at no.gep.mediaport.filter.SecurityFilter.doFilterInternal(SecurityFilter.java:274)

    at no.gep.mediaport.filter.MediaPortFilter.doFilter(MediaPortFilter.java:35)

    at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:202)

    at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:173)

    at no.gep.mediaport.filter.CompatFilter.doFilterInternal(CompatFilter.java:64)

    at no.gep.mediaport.filter.MediaPortFilter.doFilter(MediaPortFilter.java:35)

    at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:202)

    at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:173)

    at org.apache.catalina.core.StandardWrapperValve.invoke(StandardWrapperValve.java:213)

    at org.apache.catalina.core.StandardContextValve.invoke(StandardContextValve.java:178)

    at org.apache.catalina.authenticator.AuthenticatorBase.invoke(AuthenticatorBase.java:524)

    at org.apache.catalina.core.StandardHostValve.invoke(StandardHostValve.java:126)

    at org.apache.catalina.valves.ErrorReportValve.invoke(ErrorReportValve.java:105)

    at org.apache.catalina.valves.FastCommonAccessLogValve.invoke(FastCommonAccessLogValve.java:495)

    at org.apache.catalina.core.StandardEngineValve.invoke(StandardEngineValve.java:107)

    at org.apache.catalina.connector.CoyoteAdapter.service(CoyoteAdapter.java:148)

    at org.apache.coyote.http11.Http11Processor.process(Http11Processor.java:869)

    at org.apache.coyote.http11.Http11BaseProtocol$Http11ConnectionHandler.processConnection(Http11BaseProtocol.java:664)

    at org.apache.tomcat.util.net.PoolTcpEndpoint.processSocket(PoolTcpEndpoint.java:527)

    at org.apache.tomcat.util.net.LeaderFollowerWorkerThread.runIt(LeaderFollowerWorkerThread.java:80)

    at org.apache.tomcat.util.threads.ThreadPool$ControlRunnable.run(ThreadPool.java:684)

    at java.lang.Thread.run(Thread.java:595)

     

    Dette har altså funket fint før men ikke nå lenger.

     

    Jeg forsøkte å kopiere spørringen og kjøre den manuelt med PostgreSQL men fikk samme resultat:

    select

    sale1_.sale_time as col_0_0_,

    sale1_.country_code as col_1_0_,

    sale1_.cl_city as col_2_0_,

    sale1_.currency_code as col_3_0_,

    saleitem0_.pub_id as col_4_0_,

    saleitem0_.product_id as col_5_0_,

    sale1_.sale_pay_method as col_6_0_,

    saleitem0_.saleitem_amount as col_7_0_

    from

    saleitem saleitem0_,

    sale sale1_

    inner join country country3_

    on sale1_.country_code=country3_.country_code

    inner join currency currency6_

    on sale1_.currency_code=currency6_.currency_code

    inner join publication publicatio7_

    on saleitem0_.pub_id=publicatio7_.id

    inner join product product8_

    on saleitem0_.product_id=product8_.product_id

    where

    saleitem0_.sale_id=sale1_.sale_id and

    (sale1_.sale_time between '2007-02-01' and '2007-03-01') and

    sale1_.sale_pay_method<>3

    order by

    sale1_.sale_time;

    ERROR: invalid reference to FROM-clause entry for table "saleitem0_"

    HINT: There is an entry for table "saleitem0_", but it cannot be referenced from this part of the query.

     

    Men hvis jeg flytter saleitem joiningen slik (uthevet) så forsvinner problemet:

    select

    sale1_.sale_time as col_0_0_,

    sale1_.country_code as col_1_0_,

    sale1_.cl_city as col_2_0_,

    sale1_.currency_code as col_3_0_,

    saleitem0_.pub_id as col_4_0_,

    saleitem0_.product_id as col_5_0_,

    sale1_.sale_pay_method as col_6_0_,

    saleitem0_.saleitem_amount as col_7_0_

    from

    saleitem saleitem0_

    inner join publication publicatio7_

    on saleitem0_.pub_id=publicatio7_.id

    inner join product product8_

    on saleitem0_.product_id=product8_.product_id,

    sale sale1_

    inner join country country3_

    on sale1_.country_code=country3_.country_code

    inner join currency currency6_

    on sale1_.currency_code=currency6_.currency_code

    where

    saleitem0_.sale_id=sale1_.sale_id and

    (sale1_.sale_time between '2007-02-01' and '2007-03-01') and

    sale1_.sale_pay_method<>3

    order by

    sale1_.sale_time;

    col_0_0_ | col_1_0_ | col_2_0_ | col_3_0_ | col_4_0_ | col_5_0_ | col_6_0_ | col_7_0_

    -------------------------+----------+----------+----------+----------+----------+----------+----------

    2007-02-03 18:18:12.194 | NO | OSLO | NOK | 214 | 1 | 0 | 15

    2007-02-03 18:18:12.194 | NO | OSLO | NOK | 241 | 1 | 0 | 12

     

    Det virker som det blir generert feil SQL til HQL'en jeg bruker. Men spørsmålet er da om dette er en bug i Hibernate? eller om jeg skulle endret noe som jeg ikke har gjort?

     

    Hvis noen trenger flere opplysninger så skal jeg legge ut det...

     

    På forhånd takk.

     

    -bjornoss

  10. Det er HW som er grunn til at jeg valgte en custom kernel ja. Var ikke sjangs å legge inn med default kernel, mulig at hw er støttet nå, det vet jeg ikke.

     

    Jeg vil i alle fall ikke gjøre noe som kan gjøre at jeg "mister" noe hardware. Serveren brukes blant annet som webserver og kan ikke har lang nedetid.

     

    Men tilbake til det jeg spurte om igår. Google kunne fortelle meg at grensen for da du måtte ha highmem er ca 860 MB, så hvordan kan jeg ikke ha highmem støtte OG bruke 12 GB ram uten problemer?

  11. hmm, 2.6.16 ligger vel ikke i default repositoryen til Debian Sarge?

    7997742[/snapback]

    Når jeg installerte første gangen så bruke jeg en Custom Debian Sarge CD (Link) men for å få SMP støtte så har jeg kompilert en ny etter dette (den jeg har nå).

    Når jeg kjørte kommandoen så fikk jeg ingenting opp så det betyr vel at den ikke er kompilert med highmem? Jeg trodde det var automatisk på 64bit kernelene jeg? Men hvorfor stopper det da på 12 GB og ikke 4 eller 8 (4 til hver prosessor) ?

     

    Kan sikkert finne ut dette selv men hvordan kompilerer jeg med støtte for highmem?

  12. Takk for svar Masterboy, har gjort som du skriver men tror jeg har den som passer best: 2.6.16-2-em64t-p4-smp. Legger ved deler av listen jeg fikk opp i spoileren:

     

    Klikk for å se/fjerne innholdet nedenfor

    kernel-image-2.6-amd64-generic - Linux kernel image for version 2.6 on generic x86_64 systems

    kernel-image-2.6-amd64-k8 - Linux kernel image for version 2.6 on AMD64 systems

    kernel-image-2.6-amd64-k8-smp - Linux kernel image for version 2.6 on AMD64 SMP systems

    kernel-image-2.6-em64t-p4 - Linux kernel image for version 2.6 on Intel EM64T systems

    kernel-image-2.6-em64t-p4-smp - Linux kernel image for version 2.6 on Intel EM64T SMP systems

    kernel-image-2.6.8-11-amd64-generic - Linux kernel image for version 2.6.8 on generic x86_64 systems

    kernel-image-2.6.8-11-amd64-k8 - Linux kernel image for version 2.6.8 on AMD64 systems

    kernel-image-2.6.8-11-amd64-k8-smp - Linux kernel image for version 2.6.8 on AMD64 SMP systems

    kernel-image-2.6.8-11-em64t-p4 - Linux kernel image for version 2.6.8 on Intel EM64T systems

    kernel-image-2.6.8-11-em64t-p4-smp - Linux kernel image for version 2.6.8 on Intel EM64T SMP systems

    kernel-image-2.6.8-12-amd64-generic - Linux kernel image for version 2.6.8 on generic x86_64 systems

    kernel-image-2.6.8-12-amd64-k8 - Linux kernel image for version 2.6.8 on AMD64 systems

    kernel-image-2.6.8-12-amd64-k8-smp - Linux kernel image for version 2.6.8 on AMD64 SMP systems

    kernel-image-2.6.8-12-em64t-p4 - Linux kernel image for version 2.6.8 on Intel EM64T systems

    kernel-image-2.6.8-12-em64t-p4-smp - Linux kernel image for version 2.6.8 on Intel EM64T SMP systems

    linux-image-2.6-amd64 - Linux kernel 2.6 image on AMD64

    linux-image-2.6-vserver-amd64 - Linux kernel 2.6 image on AMD64

    linux-image-2.6-vserver-amd64-k8 - Linux kernel 2.6 image on AMD64 K8 machines

    linux-image-2.6-vserver-em64t-p4 - Linux kernel 2.6 image on Intel em64t P4 machines

    linux-image-2.6-xen-amd64 - Linux kernel 2.6 image on AMD64

    linux-image-2.6-xen-amd64-k8 - Linux kernel 2.6 image on AMD64 K8 machines

    linux-image-2.6-xen-em64t-p4 - Linux kernel 2.6 image on Intel em64t P4 machines

    linux-image-2.6-xen-vserver-amd64 - Linux kernel 2.6 image on AMD64

    linux-image-2.6-xen-vserver-amd64-k8 - Linux kernel 2.6 image on AMD64 K8 machines

    linux-image-2.6.15-1-amd64-generic - Linux kernel 2.6.15 image on all x86-64 machines

    linux-image-2.6.15-1-amd64-k8 - Linux kernel 2.6.15 image on AMD64 K8 machines

    linux-image-2.6.15-1-amd64-k8-smp - Linux kernel 2.6.15 image on AMD64 K8 SMP machines

    linux-image-2.6.15-1-em64t-p4 - Linux kernel 2.6.15 image on Intel em64t P4 machines

    linux-image-2.6.15-1-em64t-p4-smp - Linux kernel 2.6.15 image on Intel em64t P4/Xeon SMP machines

    linux-image-2.6.16-1-amd64-generic - Linux kernel 2.6.16 image on all x86-64 machines

    linux-image-2.6.16-1-amd64-k8 - Linux kernel 2.6.16 image on AMD64 K8 machines

    linux-image-2.6.16-1-amd64-k8-smp - Linux kernel 2.6.16 image on AMD64 K8 SMP machines

    linux-image-2.6.16-1-em64t-p4 - Linux kernel 2.6.16 image on Intel em64t P4 machines

    linux-image-2.6.16-1-em64t-p4-smp - Linux kernel 2.6.16 image on Intel em64t P4/Xeon SMP machines

    linux-image-2.6.16-1-vserver-amd64-k8 - Linux kernel 2.6.16 image on AMD64 K8 machines

    linux-image-2.6.16-1-vserver-em64t-p4 - Linux kernel 2.6.16 image on Intel em64t P4 machines

    linux-image-2.6.16-1-xen-amd64-k8 - Linux kernel 2.6.16 image on AMD64 K8 machines

    linux-image-2.6.16-1-xen-em64t-p4 - Linux kernel 2.6.16 image on Intel em64t P4 machines

    linux-image-2.6.16-1-xen-vserver-amd64-k8 - Linux kernel 2.6.16 image on AMD64 K8 machines

    linux-image-2.6.16-2-amd64-generic - Linux kernel 2.6.16 image on all x86-64 machines

    linux-image-2.6.16-2-amd64-k8 - Linux kernel 2.6.16 image on AMD64 K8 machines

    linux-image-2.6.16-2-amd64-k8-smp - Linux kernel 2.6.16 image on AMD64 K8 SMP machines

    linux-image-2.6.16-2-vserver-amd64-k8 - Linux kernel 2.6.16 image on AMD64 K8 machines

    linux-image-2.6.16-2-vserver-em64t-p4 - Linux kernel 2.6.16 image on Intel em64t P4 machines

    linux-image-2.6.16-2-xen-amd64-k8 - Linux kernel 2.6.16 image on AMD64 K8 machines

    linux-image-2.6.16-2-xen-em64t-p4 - Linux kernel 2.6.16 image on Intel em64t P4 machines

    linux-image-2.6.16-2-xen-vserver-amd64-k8 - Linux kernel 2.6.16 image on AMD64 K8 machines

    linux-image-2.6.17-2-amd64 - Linux 2.6.17 image on AMD64

    linux-image-2.6.17-2-vserver-amd64 - Linux 2.6.17 image on AMD64

    linux-image-2.6.17-2-xen-amd64 - Linux 2.6.17 image on AMD64

    linux-image-2.6.18-3-amd64 - Linux 2.6.18 image on AMD64

    linux-image-2.6.18-3-vserver-amd64 - Linux 2.6.18 image on AMD64

    linux-image-2.6.18-3-xen-amd64 - Linux 2.6.18 image on AMD64

    linux-image-2.6.18-3-xen-vserver-amd64 - Linux 2.6.18 image on AMD64

    linux-image-2.6.16-2-em64t-p4 - Linux kernel 2.6.16 image on Intel em64t P4 machines

    linux-image-2.6-em64t-p4 - Linux kernel 2.6 image on Intel em64t P4 machines

    linux-image-2.6.16-2-em64t-p4-smp - Linux kernel 2.6.16 image on Intel em64t P4/Xeon SMP machines

     

    Flere forlag noen??

  13. Heisann

     

    Jeg har et problem med serveren vi bruker på jobben. Det er Dell PowerEdge 2950 med 2x Xeon 3,2 GHz Dual core.

     

    Vi kjører Debian 3.1 R2 som operativsystem og bruker 2.6.16-2-em64t-p4-smp kernelen.

     

    Så til problemet, vi hadde 8 GB RAM (8x1 GB brikker) men fant ut at vi trengte litt mer så vi kjøpte 16 GB (8x2 GB brikker). Når vi satt i alle 16 GB så teller bios opp alle 16 GB, men når Debian begynner å laste så for jeg feilmelding om at den ikke kan mounte root filsystemet. Dette burde jo ikke ha noe med endring av ram? Jeg jeg fjernet 4 brikker så jeg hadde igjen 8 GB , og da starter systemet som normal. Jeg satt så i to brikker til (altså 12 GB total) og systemet starter helt fint. Men klarer ikke å start på 16 GB. Jeg har også byttet om på brikkene så jeg vet det ikke har noe feil med dem.

     

    Så spørmålet mitt er: må man gjøre noe spesielt, som f.eks. ha en spesiell kernel for å bruke 16 GB med ram i Linux? Siden bios teller opp rammen så må vel problemet ligge i os'et, ikkesant?

     

    Takk for alle svar.

     

    -Bjørn Håkon

  14. Jeg har sett Hostel og jeg vil forsvare 20 års grense på denne filmen. Jeg har sett mye rart på film men Hostel er den desidert sykeste og kvalmeste jeg noen gang har sett. Har også sett Saw I og II men de var på langt nær så ille synes jeg.

     

    Hostel 2 kommer snart og den skal være mye verre : http://www.kulturo.no/nyheter/kino/mer_hos...r_i_vente/33033. Så jeg både gruer og gleder meg til den kommer, for jeg MÅ se den.

     

    Edit: leif

×
×
  • Opprett ny...