Gå til innhold

Linux' far skjeller ut Nvidia


Anbefalte innlegg

Videoannonse
Annonse

Da jeg kjøpte slepbar laptop for å kjøre Ubuntu, valgte jeg bevisst en maskin uten Optimus-teknologi.

Er Linux-støtten nå blitt så bra at jeg kan kjøpe en maskin med Optimus neste gang?

 

Optimus skal såvidt jeg skjønner spare endel strøm. Hvor mye strøm sparer du i Linux?

 

Strøm er ikke viktig på akkurat denne maskinen. Den brukes bare hjemme, nær stikkontakten, så jeg bruker ikke batteriet.

Endret av Mannen med ljåen
Lenke til kommentar

Da jeg kjøpte slepbar laptop for å kjøre Ubuntu, valgte jeg bevisst en maskin uten Optimus-teknologi.Er Linux-støtten nå blitt så bra at jeg kan kjøpe en maskin med Optimus neste gang?Optimus skal såvidt jeg skjønner spare endel strøm. Hvor mye strøm sparer du i Linux?Strøm er ikke viktig på akkurat denne maskinen. Den brukes bare hjemme, nær stikkontakten, så jeg bruker ikke batteriet.

 

Ville ikke brukt store penger på en Optimus-lappis enda, med mindre du har lyst å bruke tid på å knote mye. Bumblebee er ikke klar, og det går på ytelsen løs å bruke det, såvidt jeg har forstått.

 

Skulle gjerne hatt kloa i en optimus-laptop bare for å teste litt, men enn så lenge vil jeg helst kjøpe kun Intel- eller kun nvidia-laptop.

 

OT: Synes det er litt spesielt at Linus går så hardt ut mot Nvidia når de er det eneste selskapet som er i nærheten av feature- og ytelses-likhet på linux og windows. I tillegg er driverne deres svært stabile over tid. Intel og AMD har regresjoner og tull veldig ofte i forhold.

 

 

Lenke til kommentar

Hvis du faktisk ser videoen ser du at det er en ganske humoristisk utblåsning :)

 

At nvidia sine proprietære binærblober fungerer greit er sikkert passe irrelevant for de som jobber med kjernen. Skal ikke virke som noen purist her, men jeg ser jo hvordan nvidias fungerende drivere ikke hjelper folk som vil utvikle støtte for f.eks optimus. Skal den typen ting hackes på av andre enn selskapet selv (og inn i kjernen) så må vel de relevante delene være åpne.

 

Når det gjelder optimus til Linux er det ikke verdt å satse på det med mindre du er forberedt på en del knoting såvidt jeg har skjønt.

Lenke til kommentar

Når det gjelder optimus til Linux er det ikke verdt å satse på det med mindre du er forberedt på en del knoting såvidt jeg har skjønt.

..njaa.. Løsningen er at du bruker det integrerte intel hd kortet til alt. Og det fungerer.. helt greit til det meste. Ellers har det vært svitsje-løsninger som har fungert en stund, selv om de er litt tungvinte.

 

Bumblebee-prosjektet (Optimus Primes høyre hånd, selvsagt) har en måte å gjøre det på som lar deg unngå å starte om x-serveren, slik at du kan kjøre et spill eller en simulering mens resten av grafikken blir håndtert av det interne kortet. Så det er blitt en god måte å omgå det hele på.

 

Problemet er at det hele skulle vært løst for lenge siden. Nvidia ønsker å bruke acpi-kall som ikke er implementert i linux-kjernen, slik at de kan bruke den samme driver-basen mellom alle platformene de skriver drivere til. Problemet er at da må linux-kjernen implementere åpne funksjoner som nvidia vil bruke i sine lukkede drivere. Og vi får en liten politisk vanskelighet ut av det. Tror at alle egentlig er enige i at dma-buf vil være nyttig for mange forskjellige ting. Men det er mye arbeid som har gått inn i implementering av linux-kjernen, så jeg skjønner godt at kravet om at bruk av den skal forutsette åpne drivere i etterkant kommer...

 

Videre blir det en fantastisk rekke med småting som kommer opp om grafikk-kontekster ikke kan forutsette at de byttes programmatisk lenger. Dette er ikke et enkelt problem..

 

Samtidig er det uvisst hvor vanskelig det egentlig er for Nvidia å implementere seg rundt den eksisterende modellen, slik de har gjort lenge - mye bedre enn samtlige andre produsenter av grafikk-kort.. Så ja.. "fuck you", med et glis til Nvidia.

Lenke til kommentar

Har selv en Asus laptop med Optimus, og det er ikke mye knoting som skal til for at Bumblebee skal funke. Nå har jeg bare testet i Arch, men kan ikke se at det skal være noe vanskelige i andre populære distroer. Et par-tre FPS mister man, men det får nå være. For meg har Bumblebee fungert helt perfekt, selv WebGL i Firefox funger. Ville ihvertfall mye heller kjøpt en laptop med Optimus, enn en uten, sparer tross alt en del strøm når nVidia-GPUen skrues helt av når man ikke trenger den.

 

Enig i at det var en humoristisk utblåsning, men som nevnt en annen plass i intervjuet så pleier dessverre en del av Linux-communityet å ta ham veldig ordrett i slike situasjoner ..

Enig med Linus i at nVidia er litt sleipe når de faktisk baserer en del av inntekten sin på dingser/systemer som kjører Linux, men at de skal være så vanskelige på desktop/laptop.

Endret av Larsera.
Lenke til kommentar

Når det gjelder optimus til Linux er det ikke verdt å satse på det med mindre du er forberedt på en del knoting såvidt jeg har skjønt.

..njaa.. Løsningen er at du bruker det integrerte intel hd kortet til alt. Og det fungerer.. helt greit til det meste. Ellers har det vært svitsje-løsninger som har fungert en stund, selv om de er litt tungvinte.

Å slå av nvidia-kortet og kun bruke Intel-grafikken blir vel ikke akkurat å bruke optimus-teknologien :p

Bumblebee-prosjektet (Optimus Primes høyre hånd, selvsagt) har en måte å gjøre det på som lar deg unngå å starte om x-serveren, slik at du kan kjøre et spill eller en simulering mens resten av grafikken blir håndtert av det interne kortet. Så det er blitt en god måte å omgå det hele på.

Jeg vet om Bumblebee, men inntrykket mitt er fortsatt at det ikke er helt klart for mainstream bruk enda. Får håpe det kommer etterhvert :)

Lenke til kommentar

Da jeg kjøpte slepbar laptop for å kjøre Ubuntu, valgte jeg bevisst en maskin uten Optimus-teknologi.

Er Linux-støtten nå blitt så bra at jeg kan kjøpe en maskin med Optimus neste gang?

 

Optimus skal såvidt jeg skjønner spare endel strøm. Hvor mye strøm sparer du i Linux?

 

Strøm er ikke viktig på akkurat denne maskinen. Den brukes bare hjemme, nær stikkontakten, så jeg bruker ikke batteriet.

Optimus funker såvidt i Win7 .. 25 april kom en patch så du faktis kunne bruke det med VGA porten til presentasjoner uten masse styr.... Du kan nok glemme linux support ved det første.

 

Eneste grunnen til at han skjeller ut nvidia er at de ikke gidder og dele opplysninger, men heller lager drivere selv. Såvidt jeg har sett rundt, så funker disse driverne bedre en det community har klart å lage til AMD. (utenom optimus tenker jeg)

Endret av Lunalotic
Lenke til kommentar

Når det gjelder optimus til Linux er det ikke verdt å satse på det med mindre du er forberedt på en del knoting såvidt jeg har skjønt.

..njaa.. Løsningen er at du bruker det integrerte intel hd kortet til alt. Og det fungerer.. helt greit til det meste. Ellers har det vært svitsje-løsninger som har fungert en stund, selv om de er litt tungvinte.

Å slå av nvidia-kortet og kun bruke Intel-grafikken blir vel ikke akkurat å bruke optimus-teknologien :p

Dårlig vending :) Det går helt fint å restarte x med et nytt oppsett. Det er tungvint, men det har vært mulig å gjøre det rimelig automatisk lenge.

 

Med Bumblebee kan du kjøre en applikasjon på diskret grafikk via "optirun" uten å bytte kontekst osv. Så det er nyttig - og ikke så veldig vanskelig å bruke.

Lenke til kommentar

Jeg kommer ALDRI til å kjøpe nVidia skjermkort igjen. Ikke pga manglende Linux-støtte, men ytelse pr krone + varmeeffekt pr krone ;)

 

Har hatt ATI Radeon siden 9600-modellen, og har et HD5770 og HD4200 nå som jeg er utrolig fornøyd med.

 

nVidia burde heller selge varmeovner. ;-)

Lenke til kommentar

Er ikke så verst med en del av ati-kortene heller, med tanke på vinteren. :p Men Fermi-kortene er forferdelige. Skrur opp klokkehastigheten 1Mhz, og du kan steke biff på kjøleribbene.

 

Kepler kortene er litt bedre. Spesiellt på grunn av den dynamiske overklokkingen mot et fps-mål. Det er veldig nyttig, og fungerer i revers på laptoper for eksempel. Lavere temp med akseptabel ytelse.

 

Selv om jeg liker apu/crossfire mye bedre som prosessor/grafikk valg rent konstruksjonsmessig. Problemet med Ati er at driverne er så amatørmessig satt opp. Dual screens, speiling, kvaliteten på hdmi-ut -- helt forferdelig. Samme gjelder all post-pass på bildet i standard. Du ser det ikke så godt i "normal" oppløsning, men når ting blir komplekst og det er mye detaljer og bevegelighet i bildet, så blir det stygt og grusomt, med "korrigerte" farger. Der har ati ingenting å stille opp mot nvidia, dessverre. Og slik har det vært i.. mange år nå.

 

Men hele greia med hdmi som fungerer "litt" på amd-skjermkort i linux er et stort problem for meg. Så jeg har gått igjennom et par maskiner før jeg har kommet "tilbake" til nvidia igjen.

Lenke til kommentar

Nvidia er suverene på driverkvalitet for *nix. De er først ute med å støtte ny teknologi og utvikler driverne sine mer eller mindre jevnt på alle plattformer.

 

Selvfølgelig -burde- de vært aktive i open source-miljøet, og jeg synes det er dumt at de ikke har noen uttalt strategi annet enn "don't ask, don't tell" når det gjelder nouveau-prosjektet.

 

Kommer ikke til å kjøpe noe annet enn Nvidia i overskuelig fremtid. Klarer AMD å stable på beina en solid og godt utstyrt åpen driver skal jeg vurdere dem, men jeg klarer ikke helt å se det skje..

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...