-
Innlegg
25 593 -
Ble med
-
Dager vunnet
2
Syar-2003 vant dagen sist 4. oktober 2015
Syar-2003 hadde mest likt innhold!
Om Syar-2003
- Bursdag 6. februar
Profile Information
-
Kjønn
Mann
Nylige profilbesøk
Blokken for nylige besøkende er slått av og vises ikke for andre medlemmer.
Syar-2003 sine prestasjoner
4,4k
Nettsamfunnsomdømme
72
Hjelpsomme svar
-
Går fint å bestille solbriller med styrke uten polariserte glass. Brune glass egner seg best til bilkjøring fremfor grønne (har jeg erfart). Bytter heller brille enn å droppe BMW sitt klasseledende headup display. BMW har også faktisk fått utviklet polaroid solbriller som funker med headup display.
-
Nye Xpeng G6 og G9 oppdateres og får "ekstrem" ladefart. Inntil 451Kw for G6. Performance utgaven av G9 kan takle inntil 525Kw. Standard range utgaven 445Kw. Kan bestilles nå med antatt levering Q3. https://www.motor.no/aktuelt/skal-lade-10-80-prosent-pa-12-minutter/321904
-
Hyundai Ionic 6N er her. Ser og høres ut som heftige greier 😎 https://www.carwow.co.uk/hyundai/ioniq-6/news/9205/new-hyundai-ioniq-6-n-first-look-jamie-edkins
-
Når man spør ChatGPT (gratis versjonen selv om hvorfor det er ai hallusinuasjon) konkluderer den selv med : AI models like ChatGPT are not connected to reality in the way humans are. They generate responses based on patterns in the data they were trained on, not by understanding truth or fact. When the model doesn’t know something or is asked a complex or ambiguous question, it might: • Guess based on patterns, even if the guess is wrong. • Fill in gaps with plausible-sounding but false information. • Misremember facts, especially when the topic is niche or confusing. This is called “hallucination” — when an AI confidently outputs false or made-up information. ⸻ Why does this happen? 1. Prediction, not knowledge: AI generates the next word based on probability, not based on checking a database of facts. 2. Lack of real-world grounding: AI doesn’t have senses or real experiences. It can’t verify facts the way a human can. 3. Training limits: If the training data had errors or didn’t cover certain info, the AI might invent details to fill in. 4. No live internet access (unless allowed): Many AI systems don’t look things up in real time, so they can only rely on what they were trained on. Here’s a breakdown of why hallucinations happen: ⸻ 🔹 1. AI Predicts Words, Not Truth AI like ChatGPT is trained to predict the most likely next word in a sentence based on patterns from huge amounts of text data. It doesn’t “know” what’s true — it just knows what sounds plausible. For example: If the training data often says “Albert Einstein discovered relativity,” the AI will learn that pattern. But if someone asks “Did Einstein invent the light bulb?” the model might respond “Yes,” if it misreads the context or sees similar sentence structures — even though it’s false. ⸻ 🔹 2. No Direct Connection to Reality AI doesn’t perceive the world. It can’t: • Look things up (unless connected to the web), • Validate information with experiments, • Or use common sense the way humans do. So when it encounters a gap in knowledge, it fills it in — sometimes incorrectly. ⸻ 🔹 3. Training Data Has Errors and Biases The internet contains: • Incorrect facts(reddit, diskusjon.no, facebook klagegrupper etc) • Outdated information (reddit, diskusjon.no, facebook klagegrupper etc) • Biased or conflicting sources (reddit, diskusjon.no, facebook klagegrupper etc) If the AI was trained on faulty or mixed data, it might reflect that confusion — even inventing facts to “smooth over” the gaps. ⸻ 🔹 4. Ambiguous or Complex Questions When questions are: • Vague • Highly technical • Based on false premises …the model might still try to answer — even if the right answer is, “I don’t know” or “That’s not real.” Instead, it might hallucinate an answer to be helpful.
-
Ok . Feilsitering Large Language Model Uansett mitt poeng står Merk under fallgruve #2 av 5. Her er noen av ChatGPT (og andre chatboter) sine begrensninger: *Hallusinasjoner (gir feilinformasjon). *Dikter opp referanser og sitater. *Finner på ting som ikke har skjedd. Gratisversjonene av AI-verktøy bruker ofte eldre AI-modeller. Disse hallusinerer mer enn de nye modellene. https://aiavisen.no/fallgruver-generativ-ai/
-
ChatGPT er kun en LLM. LargeLanguageModule stilt inn med en temperatur. Med temperatur menes "hvor enig skal jeg være med deg for å ikke provosere". ChatGPT er ganske vennlig, andre LLMer kan være mer aggresive. LargeLanguageModule betyr kun at systemet (fortsatt bare en datamaskin) analyserer hva du har skrevet, skreller seg igjennom store mengder tekst (fra internett) og setter sammen det LLMen "tror" harmonerer mest med det du spør etter. Det ikke kunstig intelligens, det er fortsatt "if-then-do-that" som datamaskiner alltid har vært. Bare ikke stol blindt på Ki og bruk det som en sannhet.
-
BMW har forsket på dette i endel år nå. Og mener hydrogen er en kompletterende løsning. Planen er vel utvalgte markeder der man ikke har elektrisk ladeinfrastruktur og kapasitet til masse lading av elbiler og hjemmelading (Singapore er nevnt som eksempel i artikkelen). Man kan lese om denne bilen i denne artikkelen fra 2023. Det er neppe snakk om noen lansering i Norge. https://www.motor.no/aktuelt/her-er-forste-test-av-bmws-hydrogen-suv/244272
-
Jeg hadde en ix3 2021 modell i 2 år. Knallbra elbil tross alle fordommene.
-
Erstatteren ix3 på neue klasse blir veldig bra. Merk at "fra" prisen vil ligge på rundt 700k.
-
Maks tilhengervekt på i4M50 er 1600kg mot 1000kg på model 3. Fully charged edition har elektrisk utfellbart tilhengerfeste som standard.
-
Man kan vel bare konkludere med at folk er forskjellige. Liten vits i å diskutere millimeter/centimeter når den subjektive opplevelsen er forskjellig fra person til person uansett høyde og kropp. Dra heller innom en forhandler (med familien) og test å sitte i en demobil 🙂
-
Har sønnen på 177 baksetet nesten daglig på korte og lange turer ( og jeg har soltak) . Og han sier det er god nok plass , hadde (i)X3 SUV føre denne 😛 Har ikke M-Stoler. Jeg har korrekt innstilt (etter boka) førersete og sitteposisjon (ikke ligge-kjøring)
-
Nå vet du headroom i i4 foran og bak. Resten (jamføring med andre kjøretøy ) får du finne ut selv , eller andre svare på