Gå til innhold

AMD Polaris & Vega og midlertidig (?) Navi


ExcaliBuR
Gjest

 

Anbefalte innlegg

Tenkte ren ytelse, da det ikke lå langt bak 980 ti i sin tid. Men tatt i betraktning pris og strømforbruk så har du nok rett.

 

Ser ikke vits med å vente på AMD, da får man aldri ny GPU.

"Ikke langt bak i ytelse"

https://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/13

https://www.techpowerup.com/reviews/AMD/R9_Fury_X/31.html

https://www.gamersnexus.net/hwreviews/2008-amd-radeon-r9-fury-x-full-analysis-and-crossfire/Page-3

 

Det holdt følge i UHD, men falt fra i lavere oppløsninger fordi front-end var for svakt (som også er en massiv svakhet for Vega 64)

980 Ti fikk også mye mer ut av overklokking enn Furu X, bare se på tallene fra 980 Ti hybrid hos GN.

Ettersom 980 Ti hadde mer VRAM i tillegg til bedre ytelse for samme pris var det liksom ikke store valget.

Lenke til kommentar
Videoannonse
Annonse

Er vel ingen grunn for å absolutt måtte ha AMD, nå som også nVidia støtter freesync.

 

Spørsmålet er vel hvor lenge man skal være villig til å vente på AMD, de har jo ikke hatt noe konkurransedyktig siden fury X.

Det kommer vel helt an på behov, jeg finansierte mitt kjøp av 580 ved å bruke det til mining i perioder og det dekker de spillene jeg har tid til, men aller viktigst er at det funker bra med samtlige spill barna har på maks fps ( Lego ).

 

Så på øverste nivå er det sjeldent vi ser konkurransedyktige AMD kort, men i 2000 til 3000 prisklassen mener jeg AMD har et greit utvalg.

Lenke til kommentar

Er vel ingen grunn for å absolutt måtte ha AMD, nå som også nVidia støtter freesync.

 

Spørsmålet er vel hvor lenge man skal være villig til å vente på AMD, de har jo ikke hatt noe konkurransedyktig siden fury X.

Vell, utvalget av freesync-skjermer er fortsatt langt større med AMD-skjermkort siden AMD støtter freesync via HDMI og (max 75Hz, så med for budsjettgjengen selv om man kan bruke enhanced sync da). Finnes en god del kurrante freesyncskjermer som kun har HDMI for budsjettfolket :) Ta f.eks en av Norges mest solgte skjermer: https://www.prisjakt.no/product.php?pu=3782889 har den selv på AMD-maskina mi, faktisk en svært bra skjerm med tanke på prisen, men har kun vga\hdmi og kan kun brukes med AMD om man ønsker adaptiv sync. Kjempekombo med f.eks et RX 560\570\580-kort :)

Lenke til kommentar

Er vel ingen grunn for å absolutt måtte ha AMD, nå som også nVidia støtter freesync.

 

Spørsmålet er vel hvor lenge man skal være villig til å vente på AMD, de har jo ikke hatt noe konkurransedyktig siden fury X.

 

RX 570 er betre enn 1050 Ti; RX 580 og 1060 er hipp som happ; med dei prisane vi har sett på Vega i det siste og med dei tre spela dei kjem med, så har dei absolutt vori svært gode val. No har jo Nvidia komi med ein ny generasjon, men prisane er som så enno. Å seia at AMD ikkje har hatt noko konkurransedyktig sidan Fury X er direkte feil då alle korta deira er konkurransedyktige. Problemet var berre prisinga i ein periode.

  • Liker 3
Lenke til kommentar

"Ikke langt bak i ytelse"

https://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/13

https://www.techpowerup.com/reviews/AMD/R9_Fury_X/31.html

https://www.gamersnexus.net/hwreviews/2008-amd-radeon-r9-fury-x-full-analysis-and-crossfire/Page-3

 

Det holdt følge i UHD, men falt fra i lavere oppløsninger fordi front-end var for svakt (som også er en massiv svakhet for Vega 64)

980 Ti fikk også mye mer ut av overklokking enn Furu X, bare se på tallene fra 980 Ti hybrid hos GN.

Ettersom 980 Ti hadde mer VRAM i tillegg til bedre ytelse for samme pris var det liksom ikke store valget.

 

Om man bare kikker tilbake på statistikken, i average fps, så er det ingen tvil om at Fury X ikke kommer så godt ut av en sammenlikning med 980Ti. Men jeg synes ikke det er helt rettferdig på grunn av et par ting: Fury X var et AIO vannkjølt skjermkort, og musestille i forhold til de luftkjølte 980Ti kortene som var i nærheten på pris. Og om man sammenliknet mot et 980Ti med AIO vannkjøling (som var vesentlig dyrere enn sine luftkjølte "søsken"), så kom de ut omtrent likt i pris vs ytelse, dvs. Dersom man overklokket fletta av 980Ti. Stock mot stock kom Fury X best ut av sammenlikningen når man tok pris med i beregningen.

 

Den andre tingen er at på dette tidspunktet ble begge kortene markedsført som "endelig kraftig nok til 4K". Og det kan man se på TPU linken din at i nokså stor grad var korrekt for Fury X også, i den grad man kan si det stemte overhodet. Men man ville jo unektelig fått en vesentlig bedre opplevelse med adaptive sync, om man skulle spille alt på "Ultra". Og folk husker nok ikke dette, men på den tiden fikk man nesten 2x Fury X + 4K Freesync monitor, for samme pris som 1x 980Ti (AIO kjølt) + 4K G-Sync monitor. G-Sync monitoren alene var vel rundt 3 000 Kr dyrere enn Freesync alternativet. Og ironisk nok hadde G-Sync monitoren et mye dårligere TN panel enn det billigere Freesync alternativet. Kombinert med at AIO versjonene av 980Ti var ~2 000 Kr dyrere enn Fury X, kom man altså i en situasjon der man kunne legge i en tusenlapp eller 2 ekstra, og dermed ha et CFX oppsett som løp i ringer rundt 980Ti alternativet, samt man fikk nyte grafikken på et mye bedre LCD panel. Eller, man kunne nyte bedre bildekvalitet, men ~20% lavere fps, og spare ~5000 Kr. I min bok en ganske enkel og klar seier for Fury X... I dette bruker scenarioet...

 

Nå, hverken 980Ti eller Fury X fikk vel egentlig noe annet enn et 4K stempel under sterk tvil hos de fleste review stedene. Så mitt eksempel var jo ikke et kjempegodt argument den gang. Men jeg må innrømme at selv om jeg skjønner at mitt eksempel var for en liten nisje den gang. Så blir det vanskeligere og vanskeligere å skjønne hvorfor det ikke var et godt argument den gang. Vi har medlemmer her på forumet som argumenterer for at folk som har et GTX1070, burde kjøpe 9900K, fordi at i 1080p så må man ha det for å få maks fps ut av et RTX2080Ti, som altså for tiden ser ut til å være eid av mindre enn 0,14% av verdens PC gamere. Og til nesten 12K for de rimeligste RTX2080Ti kortene, skulle man da tro at dette var en enda mindre nisje?

 

Så ja, jeg løy nettopp litt. Jeg skjønner jo egentlig hvorfor mitt eksempel blir avblåst her på forumet; det er fordi det setter AMD i et positivt lys. Og det er det en god del her som ikke tolererer...

  • Liker 5
Lenke til kommentar

Om man bare kikker tilbake på statistikken, i average fps, så er det ingen tvil om at Fury X ikke kommer så godt ut av en sammenlikning med 980Ti. Men jeg synes ikke det er helt rettferdig på grunn av et par ting: Fury X var et AIO vannkjølt skjermkort, og musestille i forhold til de luftkjølte 980Ti kortene som var i nærheten på pris. Og om man sammenliknet mot et 980Ti med AIO vannkjøling (som var vesentlig dyrere enn sine luftkjølte "søsken"), så kom de ut omtrent likt i pris vs ytelse, dvs. Dersom man overklokket fletta av 980Ti. Stock mot stock kom Fury X best ut av sammenlikningen når man tok pris med i beregningen.

 

Den andre tingen er at på dette tidspunktet ble begge kortene markedsført som "endelig kraftig nok til 4K". Og det kan man se på TPU linken din at i nokså stor grad var korrekt for Fury X også, i den grad man kan si det stemte overhodet. Men man ville jo unektelig fått en vesentlig bedre opplevelse med adaptive sync, om man skulle spille alt på "Ultra". Og folk husker nok ikke dette, men på den tiden fikk man nesten 2x Fury X + 4K Freesync monitor, for samme pris som 1x 980Ti (AIO kjølt) + 4K G-Sync monitor. G-Sync monitoren alene var vel rundt 3 000 Kr dyrere enn Freesync alternativet. Og ironisk nok hadde G-Sync monitoren et mye dårligere TN panel enn det billigere Freesync alternativet. Kombinert med at AIO versjonene av 980Ti var ~2 000 Kr dyrere enn Fury X, kom man altså i en situasjon der man kunne legge i en tusenlapp eller 2 ekstra, og dermed ha et CFX oppsett som løp i ringer rundt 980Ti alternativet, samt man fikk nyte grafikken på et mye bedre LCD panel. Eller, man kunne nyte bedre bildekvalitet, men ~20% lavere fps, og spare ~5000 Kr. I min bok en ganske enkel og klar seier for Fury X... I dette bruker scenarioet...

 

Nå, hverken 980Ti eller Fury X fikk vel egentlig noe annet enn et 4K stempel under sterk tvil hos de fleste review stedene. Så mitt eksempel var jo ikke et kjempegodt argument den gang. Men jeg må innrømme at selv om jeg skjønner at mitt eksempel var for en liten nisje den gang. Så blir det vanskeligere og vanskeligere å skjønne hvorfor det ikke var et godt argument den gang. Vi har medlemmer her på forumet som argumenterer for at folk som har et GTX1070, burde kjøpe 9900K, fordi at i 1080p så må man ha det for å få maks fps ut av et RTX2080Ti, som altså for tiden ser ut til å være eid av mindre enn 0,14% av verdens PC gamere. Og til nesten 12K for de rimeligste RTX2080Ti kortene, skulle man da tro at dette var en enda mindre nisje?

 

Så ja, jeg løy nettopp litt. Jeg skjønner jo egentlig hvorfor mitt eksempel blir avblåst her på forumet; det er fordi det setter AMD i et positivt lys. Og det er det en god del her som ikke tolererer...

Angående støy, så eksisterte det (i motsetning til Fury X) tredjepartsmodeller av 980 Ti med helt akseptable kjølere: https://www.techpowerup.com/reviews/MSI/GTX_980_Ti_Gaming/29.html

Fury X nådde bare 32 dBA under belastning hos Techpowerup, som jeg er helt enig i at er en betraktelig lavere verdi.

Eller litt mer eksotisk: https://www.techpowerup.com/reviews/Gigabyte/GTX_980_Ti_XtremeGaming/22.html

For å merke disse forskjellene under belastning er man avhengig av å spille med høyttalere, eller hodetelefoner der støyen trenger gjennom.

 

980 Ti var betraktelig raskere i lavere oppløsninger, som for eksempel 2560x1440. De fleste som kjøpte et 980 Ti kjøpte det nok for å få god grafikk og ytelse i 2560x1440 og/eller 1920x1080. Ellers er ikke G-sync/freesync så voldsomt nødvendig for alle, jeg (og mange andre) har ikke noe avhengighetsforhold til vsync.

 

Ved å sjekke Steams maskinvareundersøkelse (som i stor grad domineres av Asia nå), er det tydelig at det er mange med 980 Ti ytelse eller bedre som ikke har høyere oppløsning enn 1920x1080. 8.5% av alle oppløsninger rapportert inn er over 1920x1080 (eller Other), og ca 10.5% av alle GPUer listet opp er 980 Ti eller raskere, i tillegg er 10.6% av alle maskiner med Intel-grafikk (laptoper) og en god andel av disse har høyoppløst skjerm. Macbook Pro alene står for 1.7% av alle maskiner som sjekkes av Steam.

Med andre ord er ikke ytelse i UHD et spesielt viktig område, i hvert fall ikke om Steam er en indikasjon.

 

Skjønner ikke hva du mener med: "Men jeg må innrømme at selv om jeg skjønner at mitt eksempel var for en liten nisje den gang. Så blir det vanskeligere og vanskeligere å skjønne hvorfor det ikke var et godt argument den gang." :confused:

 

PS:

Tror du virkelig at jeg blir frustrert av AMD fordi jeg ønsker å se dem feile?

  • Liker 1
Lenke til kommentar

 

Skjønner ikke hva du mener med: "Men jeg må innrømme at selv om jeg skjønner at mitt eksempel var for en liten nisje den gang. Så blir det vanskeligere og vanskeligere å skjønne hvorfor det ikke var et godt argument den gang." :confused:

 

PS:

Tror du virkelig at jeg blir frustrert av AMD fordi jeg ønsker å se dem feile?

 

Nei, fra hva jeg har sett av dine poster, kan jeg ikke forestille meg du har et så religiøst forhold til en skjermkortprodusent, som de den kommentaren var ment for...

 

Poenget mitt med det ovenstående var at jeg vedgikk den gang at mitt brukerscenario var kun for en liten nisje; de som ville spille i 4K, som skulle ha en adaptiv sync skjerm, og er "allergisk" mot støy fra PC'en. Jeg ville ikke drømt om å tilkjenne Fury X noen slags form for "seier" basert på mitt eksempel, hverken den gang eller nå. Jeg har kun forventet at det skulle blitt akseptert at dette var et bruker scenario der AMD kortet likevel kom greit ut av sammenlikningen.

 

Poenget med at jeg sier det blir vanskeligere og vanskeligere for meg å forstå at scenarioet mitt ikke var et kjempegodt argument, er at jeg etter hvert har begynt å misstenke at dersom det hadde vært omvendt i eksempelet mitt, og at det hadde vært Nvidias 980Ti som trengte et slikt nisje eksempel for å skinne. At på dette forumet, så hadde det plutselig vært et kjempegodt argument som ville blitt tatt varmt imot! Folk hadde båret 980Ti frem på gullstol fordi at ikke sant; "Om du skal game i 4K på en adaptive sync skjerm, og vil ha det så stille som mulig, så er 980Ti et mye bedre alternativ!".

 

Den skuffende RTX lanseringen viser igrunnen nettopp dette. For her må vi virkelig skrape i bunnen av bøtta for å finne "gode" argumenter til inntekt for RTX. Nvidia fanatikerne her på forumet har allerede innrømmet at RTX er en skuffelse, bare ikke direkte selvsagt, det tør de tilsynelatende rett og slett ikke. Men når de kalte meg negativ som forutså kun ~40% raskere ytelse fra 1080Ti til 2080Ti. Hvordan kunne jeg være negativ dersom ~40% er bra? Slik de hevder i dag? Om folk mener ~40% er bra, så hadde de jo ikke kunnet kalle meg negativ vel? I dag fortsetter de med å si "Bare vent på DLSS", i seg selv nok en innrømmelse. For om RTX kortene allerede yter bra, så er vel ikke DLSS noe man trenger vente på heller?

 

Men her er vi altså; på dette forumet er RTX kjempebra! Selv 3 måneder etter lansering, på grunn av Ray Tracing som har kommet til ett spill foreløpig, som det ødela ytelsen fullstendig på i prosessen, og derfor fikk Ray Tracingen drastisk rullet tilbake uten at det var nok, og som ytelsen nå altså skal fikses med det lovede DLSS... Som vi allerede vet ødelegger grafikken igjen... Fantastisk! Etter å ha "revolusjonert" grafikken med RT (selv om enkelte altså ikke en gang klarer se forskjellen), skal den så degraderes med DLSS for å få opp fps'en til spillbart nivå igjen... Senere skal vi få adgang til RT og DLSS i en håndfull spill til. Men 2 av dem har allerede vært på markedet så lenge at man får dem til halv pris på tilbud, så man har anledning til å anta at de fleste som har tenkt å spille dem, allerede har gjort det. Mens ihvertfall ett annet fra håndfullen, garantert ikke blir lansert i 2019 en gang... Og det kan fort tenkes å gjelde flere av dem...

 

Så som sagt: "blir det vanskeligere og vanskeligere å skjønne hvorfor det ikke var et godt argument den gang". Når vi ser hva som passerer for "gode" argumenter i dag...

  • Liker 4
Lenke til kommentar

De aller fleste som har kjøpt 2080ti, har kjøpt fordi dette er det eneste merkbart raskere enn 1080ti. Svært få har kjøpt det pga raytracing/dlss alene.

 

Dette har ingen ting med å være fanboy. Folk må akseptere at noen vil ha "det raskeste" tilgjengelig. Ikkje alle tenker " mest hardware" for pengene.

 

Hadde det vært slik, så hadde ingen kjøpt Audi bil over tilsvarende billigere Passat bil. Man blir ikkje automatisk Audi fanboy, ved å kjøoe Audi. Selv om det finnes biler som gir "mere for pengene"

  • Liker 1
Lenke til kommentar

De aller fleste som har kjøpt 2080ti, har kjøpt fordi dette er det eneste merkbart raskere enn 1080ti. Svært få har kjøpt det pga raytracing/dlss alene.

 

Dette har ingen ting med å være fanboy. Folk må akseptere at noen vil ha "det raskeste" tilgjengelig. Ikkje alle tenker " mest hardware" for pengene.

 

Hadde det vært slik, så hadde ingen kjøpt Audi bil over tilsvarende billigere Passat bil. Man blir ikkje automatisk Audi fanboy, ved å kjøoe Audi. Selv om det finnes biler som gir "mere for pengene"

Har et lite håp om en gtx1180/1880/1800 ti (2080 - dlss og rt). Men det skjer vel ikke før AMD kommer med noe som yter bedre...

Lenke til kommentar

Har et lite håp om en gtx1180/1880/1800 ti (2080 - dlss og rt). Men det skjer vel ikke før AMD kommer med noe som yter bedre...

Det er på tide at disse tulleryktene nå tar slutt!

Nvidia kommer ikke med nye high-end kort uten Raytracing.

 

Ja, det kommer til å være low-end kort (under RTX 2060 i ytelse) hvor raytracing ikke har noe for seg.

 

På samme måte som programmerbare shadere så er real-time raytracing noe industrien har jobbet mot i flere år, det er ikke bare en "gameworks-gimmik" som bare kommer til å forsvinne. Jeg ville også vært veldig forsiktig med å gå ut i fra at første implementasjon av RT i Battlefield V er slik det kommer til å bli i alle spill.

 

 

PS! AMD jobber også med real-time raytracing, neste generasjon GPUer fra AMD etter Navi kommer til å støtte det i hardware.

Endret av HKS
  • Liker 3
Lenke til kommentar

Det samme kan sies andre veien, ikke alle er på jakt etter de siste 4-10fps og bør aksepters. Det finnes alltid et alternativt produkt som yter nesten likt. Og da bør det gå ann anbefale folk det selvom det ikke er "best".

Problemet her er at Radeon VII er priset slik at det konkurrerer med "de beste", og alt tyder på at det ikke vil klare å slå RTX 2080. Når det i tillegg lager like mye eller mer varme enn 2080 Ti, blir det et hardt salg.

 

Slik jeg ser det er det to grupper mennesker som Radeon VII vil appellere til:

  1. De som trenger 16GB VRAM og/eller god OpenCL-støtte.
  2. De som ønsker å støtte AMD av prinsipp, uansett om det er det beste valget for dem eller ikke.

 

Jeg sier ikke at AMD er feil valg uansett hvordan du vrir og vender på ting, jeg sier at toppmodellene deres ikke klarer å konkurrere utenom veldig spesifikke, konstruerte scenarier som kanskje 1 av 10000 benytter seg av.

  • Liker 1
Lenke til kommentar

Det er på tide at disse tulleryktene nå tar slutt!

Nvidia kommer ikke med nye high-end kort uten Raytracing.

 

Ja, det kommer til å være low-end kort (under RTX 2060 i ytelse) hvor raytracing ikke har noe for seg.

 

På samme måte som programmerbare shadere så er real-time raytracing noe industrien har jobbet mot i flere år, det er ikke bare en "gameworks-gimmik" som bare kommer til å forsvinne. Jeg ville også vært veldig forsiktig med å gå ut i fra at første implementasjon av RT i Battlefield V er slik det kommer til å bli i alle spill.

 

 

PS! AMD jobber også med real-time raytracing, neste generasjon GPUer fra AMD etter Navi kommer til å støtte det i hardware.

Men får det virkelig en såpass bra spillopplevelse at man ikke greier seg uten eller er det kun litt bedre grafikk til en høy hardware og cash kostnad?

 

For meg er det viktig at man har god "tyngdekraft" i spillene, at lyden er riktig i forhold til spillmiljø og hvor man er, riktige effekter når noe skjer ( eksplosjoner, vulkanutbrudd, tornadoer, tsunamien ) uten at dette ødelegger selve spillopplevelsen.

 

Akkurat nå føler jeg at raytracing gir meg svært lite og maskinvaren kunne ha blitt brukt på en bedre måte.

Lenke til kommentar

Det er på tide at disse tulleryktene nå tar slutt!

Nvidia kommer ikke med nye high-end kort uten Raytracing.

 

Ja, det kommer til å være low-end kort (under RTX 2060 i ytelse) hvor raytracing ikke har noe for seg.

 

På samme måte som programmerbare shadere så er real-time raytracing noe industrien har jobbet mot i flere år, det er ikke bare en "gameworks-gimmik" som bare kommer til å forsvinne. Jeg ville også vært veldig forsiktig med å gå ut i fra at første implementasjon av RT i Battlefield V er slik det kommer til å bli i alle spill.

 

 

PS! AMD jobber også med real-time raytracing, neste generasjon GPUer fra AMD etter Navi kommer til å støtte det i hardware.

På samme måte som AMD ikke kom til å nevne noe om Vega 7nm under CES19? :p

 

Skulle ønske jeg hadde en bitteliten brøkdel av dine kunnskaper og innsyn med disse tingene.

 

Så disse firmaene vil gjøre hva de føler er den beste strategien for å kapre markedsandeler. Er det da sannsynlig at AMD og Intel kommer til å satse like hardt på RT på sine neste kort? Jeg er klar over at det tar lang tid å planlegge, og at Nvidia sikkert startet med dette for 5 år siden +/-. Men foreløbig ser det ut til at det kommer til en vanvittig pris.

 

Ja, RT er fremtiden. Men er det verdt å hoppe på nå? - For AMD? For Intel? For meg? (For det vi har sett foreløbig, absolutt ikke).

Endret av Knutgrus
Lenke til kommentar

Når det gjelder HKS så tok han feil nå med denne utgaven av VII og jobber nok såpass mye med NVIDIA sine løsninger at han trolig er mer fokusert på det.

AMD har hatt flere utgaver av programvare for Ray Tracing som kalles Radeon Rays https://gpuopen.com/gaming-product/radeon-rays/ , open source of ment for spesialeffekter , potensialet er jo der for å utvikle programvare som tillater bruk av det direkte i spill men hvor bra / dårlig det vil bli osv er vanskelig å si.

Lenke til kommentar

Når det gjelder HKS så tok han feil nå med denne utgaven av VII og jobber nok såpass mye med NVIDIA sine løsninger at han trolig er mer fokusert på det.

AMD har hatt flere utgaver av programvare for Ray Tracing som kalles Radeon Rays https://gpuopen.com/gaming-product/radeon-rays/ , open source of ment for spesialeffekter , potensialet er jo der for å utvikle programvare som tillater bruk av det direkte i spill men hvor bra / dårlig det vil bli osv er vanskelig å si.

Titan V kan kjøre 3DMark Port Royal: https://www.3dmark.com/pr/10155

Her er mitt resultat med RTX 2080: https://www.3dmark.com/pr/5820

Som du ser er det ganske tydelig at RT-kjernene forbedrer ytelsen i raytracing.

 

Det gjenstår å se hvor bra Radeon VII blir, jeg tror det kan være lurt å skru ned forventningene til at det kan matche 2080 i enkelte tilfeller.

  • Liker 1
Lenke til kommentar

Sikkert når man aktiverer det så blir Vega64 som RX560, er vel kanskje grunnen de ikke slipper det ut ^^

Jau, sikkert enda verre enn det og, så tror neppe det kommer noe støtte for å slå dette på :) Husk nå på at når det er slått på hos nvidia med hardware støtte så blir 2080ti til 1060 =p Så ja, blir ikke hardware støtte for dette før tidligst neste år for AMD.

 

Endret av -=HellBound=-
  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...