Gå til innhold

Phantom Software

Medlemmer
  • Innlegg

    741
  • Ble med

  • Besøkte siden sist

Alt skrevet av Phantom Software

  1. Nei, det er ikke informasjonen matet inn de tilbyr tilbake. Det ville vært en søkemotor. Det AI som i LLM gjør er å lære seg sammenhengen mellom ord i kontekst av materialet - rett og slett lære seg språk generelt og hvordan det brukes. Mer inputdata og større modeller -> bedre språkforståelse som kan generere fornuftig svar for flere tilfeller. Så viser det seg at noe som kan bruke språk på menneskelig nivå rett og slett er veldig nyttig og i mange tilfeller umulig å skille fra vår egen intelligens. I tillegg kommer en datamaskin sin fordel til å behandle mye data raskt, og systemer med agenter som bryter ned og parallelliserer problemet for å generere løsningen. Vi ser også at tempoet slik AI øker den opplevde intelligensen med øker eksponentielt. Det er på bakgrunn av dette man forventer at AI er essensielt å investere i.
  2. Sanity + NextJs er topp det, finnes mange eksempler du kan ta utgangspunkt i, som https://github.com/jukkun/image-gallery Eller bare start med en template fra Sanity; utrolig enkelt å komme i gang: https://www.sanity.io/nextjs-cms Den blog-templaten har nettopp blitt oppdatert til nextjs 15 og react 19.
  3. Kjenn etter varme i dekk / bremser etter kjøring. Om alt er normalt så tipper jeg stein. Noen er hardere og kan sitte noen dager.
  4. Uavhengig av valget så er det ekstremt mye bedre enn Vedum om man må forhandle med EU / USA / verden om tollmurer fremover.
  5. Jeg synes mat er for dyrt og liker ikke monopolene. Det sagt så har jeg ikke noe imot at en god franchise-kjøpmann tjener noen millioner på god butikk med 2-3% marginer.
  6. Størrelsen på modell har mye å si, dermed har størrelse på VRAM mye å si. Et alternativ til dyre grafikkort er (dyre) Mac maskiner. Der er nesten alt minnet tilgjengelig som VRAM, så du kan kjøre mye større modeller til samme pris som et nytt skjermkort. Det vil til gjengjeld gå litt tregere. R1 er fint til sitt bruk, er innom den med med noen spørsmål daglig.
  7. Det kommer jo mye an på bedriften og kundene. Det kan være å reise rundt i butikker for å introdusere nye produkter, reise på kundens messer i Europa, være ansvarlig for at kunden når målet dere har satt for hvor mye de skal kjøpe for osv. Vil jo være veldig forskjellig - er dere en produsent og kunden er en forhandlerkjede? Er dere en butikk og kunden er en bedrift? Er dere en leverandør og kunden er en produsent?
  8. Har sett enkle jailbreaks som gir ut all mulig politisk info om Kina og Tianamen Square, så virker som dataen er der. Enkel Abliteration skal fungere greit, og ser det alt finnes mange slike varianter på Huggingface. Tar nok litt mer tid til man får gode, usensorerte varianter.
  9. Jeg har forklart meg og det du sa var særlig sprøyt i kontekst av mitt innlegg med forslag om at AI bør være på radaren til en som ser på å skifte karriere nå, og i så fall er både GPU med minne over 16 GB og Apple-maskiner med Apple Silicon gode valg. Skal du trene noe nytt leier du uansett hardware i stedet for å låse utviklermaskinen din til å stå i hundre og kalkulere i en uke. For å teste treningen i forkant er Apple helt super og svært populært.
  10. Aner ikke hvorfor du krangler. Jeg sa aldri noe om TensorFlow i mitt opprinnelige innlegg og snakket kun om AI som i dagens bruk av AI som jeg har vist til. Skal du utvikle en AI app eller løsning i dag for LLM, bilder, RAG, koding, TTS, det meste som hypes om i sosiale medier, så trenger du ikke TensorFlow, og om du gjør det så finnes det som sagt versjoner som støtter Apple Silicon... TensorFlow er forsatt populært og mye brukt.
  11. Børsslutt i USA i går viste: $NVDA: -16.91% | $AAPL: +3.21% Dette er hardware som kan kjøre DeepSeek V3 og R1 tilgjengelig på markedet nå: NVIDIA H100: 80GB @ 3TB/s, $25,000, $312.50 pr GB AMD MI300X: 192GB @ 5.3TB/s, $20,000, $104.17 pr GB Apple M2 Ultra: 192GB @ 800GB/s, $5,000, $26.04 pr GB M2 Ultra fra juni 2023 er 4x mer kostnadseffektiv per minneenhet enn AMD MI300X, og 12x mer effektiv enn NVIDIA H100. Det er forventet at Apple snart slipper M4 Ultra. Det er lite bruk av tensorflow for de fleste, og det finnes nå også Apple Metal spesifikke versjoner av tensorflow. PyTorch bruker ikke TS, Transformers bruker safetensors i stedet, GGUF kjører på llama.cpp, Stable Diffusion kjører på PyTorch osv. Jeg har vel lastet ned og kjørt det jeg har kommet over, men afaik enda ikke installert TensorFlow. Det er nok mer brukt i Google-sfæren og i andre verktøy jeg ikke har benyttet meg av. Men lite nødvendig for dagens typiske AI med multi-modal LLM, TTS, Stable Diffusion osv.
  12. For noe sprøyt. Kjører AI hver dag på Mac. MLX er en rask motor og både llama.cpp, LMStudio, Gradio og straks Ollama støtter det for å kjøre lokale modeller. Mac er den desidert billigste måten å kjøre store modeller på, og svært populært. 4xMac Studio Ultra i ExoLabs cluster kan kjøre full Deepseek R1 med over 600 GB VRAM tilgjengelig til en brøkdel av prisen for annen hardware. Mac Silicon har en unik fordel pga arkitekturen med unified memory som gjør at du får alt minnet for CPU også tilgjengelig for GPU. Du har ikke peiling på hva du snakker om.
  13. Ram over 16 GB er svært nyttig for AI. Det er størrelse på VRAM som avgjør hvor store (gode) modeller du kan kjøre lokalt. Skal du gjøre noe nytt nå så burde vel AI være i siktet. Det sagt, for 30k kan du også kjøpe en Mac mini Pro med 64GB minne, som gir tilgang til enda større modeller selv om hastigheten vil være mye tregere.
  14. Blir ikke helt det samme, de har jo benyttet to merkevarer for å nå to målgrupper så da var produkter og priser ulike; nå skal de prøve å nå to målgrupper med samme merkevare, så da må de endre på produktene og ha noen rimeligere abonnement også, ellers stikker bare alle til konkurrenter. Konkurrentene kommer garantert på banen alt denne uken tipper jeg med tilbud og produkter rettet spesifikt mot nice-kundemassen. Det vet jo også ice at kommer til å skje.
  15. Det er ikke noe særlig mer sensur og bias i Deepseek R1 enn i Anthropic, OpenAI, Google osv, bare annen sensur og bias. Men ulikt de andre så er Deepseek sine modeller open source slik man kan fjerne sensur og endre bias.
  16. Morsomt at dette når frem til nyhetene. Angående Deepseek-R1 så er den så bra som det sies, så morsomt å bruke. Den er fritt tilgjengelig og kan lastes ned og kjøres lokalt. Anbefaler ikke å kjøre den via den offisielle appen eller apiene, da Deepseek er tydelig på at de samler data og benytter det til trening. Det finnes andre leverandører som Fireworks for Deepseek API der dataen din ikke blir samlet inn. Compute er fortsatt største driveren av AI, og behovet har ikke gått ned på grunn av dette. Børsen faller fordi meglerne ikke forstår teknologien eller nyheten, men nå var riktignok verdien på nvidia skyhøy i forkant, så kanskje er det riktig likevel.
  17. Er jo billig for de som var på nice å bli værende - gratis abo ut mars? Men blir spennende å se hva som blir billigste tilbud på ice etterhvert nå som de skal dekke dette markedet selv.
  18. Heh da blir det familiesupport til gamlisene, men satser på det går knirkefritt - man trenger bare å toggle flymodus? Og alt skjer denne uken? Det er sykt. Nice kan jo knapt ha vært eget selskap om det går så raskt å flytte alle kundene til ice.
  19. Hva er leieprisene rundt deg - noen mulighet til å gå godt i pluss ved å leie ut egen bolig og bo et billigere sted selv? Det skal noe til med lånet + husleia di, men likevel noe å sjekke ut om du har bolig i et populært område nå.
  20. Igjen, om dette er så farlig, så må vi øve på å håndtere det - ikke byråkratisere det bort fordi det er fredstid. Det er å stikke hodet i sanden.
  21. Ja selvsagt, gir ingen mening å øve på noe så urealistisk. Er det krig så antar jeg at man ikke sender forsyningene via en tollstasjon? Da trenger vi ikke øve på det heller. Om det er så farlig med maten de har med seg så er det håndteringen av nettopp det vi må øve på - ikke et fredstids-byråkrati.
  22. Sidespor, men anbefaler noe sånt som NextDNS for å blokkere dette. Man blir ikke sppringsfri - nå kan jo NextDNS spore deg - men du kan iallfall blokkere alle dingsebomser som Philips Hue, Roborock, LG vaskemaskin, Samsung TV osv osv osv fra å spionere på deg. Har det installert på routeren hjemme så det blokkerer alt. Det er forøvrig løsningen min på mye av sporingen på iPhone og andre enheter også.
  23. Du har nokså gode muligheter på iPhone for å hindre apper å få tilgang til posisjonsdata, og tror du har det samme på Android nå. Dette er det artikkelen handler om. Et fint valg på iPhone er ofte å kun tillate posisjonsdata når appen er i bruk. Da kan du bruke f ex Flightradar som vanlig - og jo, kanskje blir dataen om hvor du er akkurat da delt videre, men du kan ikke spores i hverdagen. Å bruke mobil med sim kort helt generelt uten sporing er ikke mulig. Politiet og nødetater og til en viss fra mobiloperatør vil kunne slå opp posisjonen din fra mobilnettet ved behov.
  24. Feirer ja, med gaver og festmiddager og samlinger. Stor stas. Har knapt hørt et ord om kristendommen hele jula, synes det er litt godt gjort å bli såpass irritert av dette. Mange som har hengt opp fine hjertekranser med lys i stedet for julestjerner i år. Trivelig. Som andre sier så er det stor verdi i at mange har ferie samtidig både i jula og i påsken. Fokuser litt mindre på det du ikke liker og nyt fridagene på den måten du vil?
×
×
  • Opprett ny...