Gå til innhold

AMD RDNA2 (Radeon RX 6xxx)


ExcaliBuR

Anbefalte innlegg

Videoannonse
Annonse
39 minutes ago, Theo343 said:

og DLSS totalt fraværende. Men for 1080 gaming er Radeon 6000 serien konge om prisen er god.

Er også bra i 1440 og 4k, det viser de fleste tester. Slår til og med 3090 i noen tester. Du kan ikke sammenligne AMD uten DLSS med nVidia MED DLSS og si det er sammenlignbart. Alle vet at DLSS er en form for oppskallering, det er ikke ekte rendering på den oppløsningen.

Skal man sammenligne blir det slik 'alle' reviews gjør det; begge kort uten DLSS, og da kommer 6800 xt og 6900 xt veldig bra ut. DLSS er en bonus du har og kan bruke, samme som bedre raytracing etc.

Vi vet også at AMD sin raytracing er på baby stadiet, men dette vil selvsagt blir bedre. De vil også komme med egen 'DLSS' etc, begge de store consolene har AMD hardware så det sier seg selv dette kommer. AMD er nå der nVidia var for 2000 serien, mye vil endre seg i løpet av 2021 med tanke på AMD GPUer, det er innlysende.

  • Liker 1
Lenke til kommentar
JarleGutt skrev (3 timer siden):

Er også bra i 1440 og 4k, det viser de fleste tester. Slår til og med 3090 i noen tester. Du kan ikke sammenligne AMD uten DLSS med nVidia MED DLSS og si det er sammenlignbart. Alle vet at DLSS er en form for oppskallering, det er ikke ekte rendering på den oppløsningen.

Ikke bare kan man gjøre det, men man bør gjøre det. DLSS 2.0 er rett og slett en bedre AA-løsning enn den integrerte TAA i Control, Death Stranding, og Cyberpunk 2077. Å spille uten DLSS på gir rett og slett en dårligere opplevelse, med et mer ustabilt bilde. Det er rett og slett tullete å anta at de som kjøper et RTX-kort ikke vil ta i bruk DLSS i spillene som støtter det.

Bildet blir litt mindre skarpt med DLSS på i stillbilder, men det er mye bedre med DLSS på når kameraet beveger seg.

JarleGutt skrev (3 timer siden):

Skal man sammenligne blir det slik 'alle' reviews gjør det; begge kort uten DLSS, og da kommer 6800 xt og 6900 xt veldig bra ut. DLSS er en bonus du har og kan bruke, samme som bedre raytracing etc.

Vi vet også at AMD sin raytracing er på baby stadiet, men dette vil selvsagt blir bedre. De vil også komme med egen 'DLSS' etc, begge de store consolene har AMD hardware så det sier seg selv dette kommer. AMD er nå der nVidia var for 2000 serien, mye vil endre seg i løpet av 2021 med tanke på AMD GPUer, det er innlysende.

Dette er en gjentagelse av hva jeg har skrevet tidligere, men hvis Nvidia har alle disse bonusene man kan bruke, og AMD har ingen, hvorfor er AMD et fornuftig valg? Svar som: "ønsker å opprettholde konkurranse", eller "jeg vil være annerledes" er ikke fornuftige.

  1. AMD sin RT-løsning er rett og slett ikke like kapabel som Nvidia sin, hvis det blir bedre på AMD blir det enda bedre på Nvidia.
  2. DLSS-konkurrenten har ikke blitt nevnt siden lanseringen av RX 6800-serien, det er liten grunn til å tro at den vil være bedre enn DLSS, og du har ingen garanti for at den vil hjelpe.
  3. AMD hadde GCN i PS4 og Xbox One også, uten at det gikk spesielt bra med Radeon-kortene selv om det var tilfelle.

Du skriver at AMD er nå der Nvidia var med 2000-serien, men hva hjelper det når Nvidia ikke lengre er på 2000-serien?

Hva er best i dag? Det som skjer i fremtiden er umulig å forutsi.

  • Liker 4
Lenke til kommentar

AMD sin DLSS-konkurrent kommer sikkert, men den kommer til å ha et handikap. Iallefall på RDNA2, nemmelig at du må "låne" prosesseringskraft som du heller kunne brukt på grafikk til å gjøre inference av pixler med maskinlæring (compute workload). Nvidia har dedikert hardware på GPU (TensorCore) som kan gjøre dette samme operasjon parallelt med shadere og RT.

Selvsagt kan man si at dette er AMD sin første implementasjon av RT i hardware, men man kan heller ikke gå ut i fra at Nvidia stopper utviklingen heller. På CPU-fronten har AMD hatt flaks med at Intel har hatt store problemer med flere generasjoner av produksjonsprosessen, som har gjort at de har måttet gjenbruke samme arkitektur siden 2015, og ytelsen har derfor stått relativt stille.

På GPU-fronten så har Nvidia pushet på i ganske jevnt tempo selv om de ikke har hatt noe konkurranse i high-end siden 2013.

Som @N o r e n gsier, fremtiden er umulig å forutsi.

  • Liker 3
Lenke til kommentar
30 minutes ago, N o r e n g said:

Ikke bare kan man gjøre det, men man bør gjøre det. DLSS 2.0 er rett og slett en bedre AA-løsning enn den integrerte TAA i Control, Death Stranding, og Cyberpunk 2077. Å spille uten DLSS på gir rett og slett en dårligere opplevelse, med et mer ustabilt bilde. Det er rett og slett tullete å anta at de som kjøper et RTX-kort ikke vil ta i bruk DLSS i spillene som støtter det.

Bildet blir litt mindre skarpt med DLSS på i stillbilder, men det er mye bedre med DLSS på når kameraet beveger seg.

Dette er en gjentagelse av hva jeg har skrevet tidligere, men hvis Nvidia har alle disse bonusene man kan bruke, og AMD har ingen, hvorfor er AMD et fornuftig valg? Svar som: "ønsker å opprettholde konkurranse", eller "jeg vil være annerledes" er ikke fornuftige.

  1. AMD sin RT-løsning er rett og slett ikke like kapabel som Nvidia sin, hvis det blir bedre på AMD blir det enda bedre på Nvidia.
  2. DLSS-konkurrenten har ikke blitt nevnt siden lanseringen av RX 6800-serien, det er liten grunn til å tro at den vil være bedre enn DLSS, og du har ingen garanti for at den vil hjelpe.
  3. AMD hadde GCN i PS4 og Xbox One også, uten at det gikk spesielt bra med Radeon-kortene selv om det var tilfelle.

Du skriver at AMD er nå der Nvidia var med 2000-serien, men hva hjelper det når Nvidia ikke lengre er på 2000-serien?

Hva er best i dag? Det som skjer i fremtiden er umulig å forutsi.

Jeg skriver at ikke sammenlign benchmarks av nVidia kort ikke i native resolution med som bruker DLSS vs AMD i native resolution, det skjønner alle ikke er riktig. Selvsagt vil mange bruke DLSS, men det er et annet tema.

Når mange kjøper GPUer i dag, gjør de det for å bruke de i 2-4 år, spesielt når de bruker 8000+ kroner (det er en svinnende liten del av gamere som kjøper hver generasjon kort, bare se på Steam hardware tall, de fleste er fortsatt på 1000 serien til nVidia). Så ja da har det noe å si hva som kommer til å skje med AMD kort i 2021+. Om du ikke ser på det som et poeng er det helt ok. Men jeg ser på det som et poeng.

nVidia vil trolig ikke lenger se like store endringer som fra 2000 til 3000 serien som AMD kommer til å på 6000 serien neste 1-2 år. Eneste måten jeg ser nVidia til å se like store forbedringer som fra DLSS v1 til v2 og fra 2000 serien til 3000 serien, er ved å bare lage GPUene mye større, og det vil da koste absurd mye mer penger og ingen kjøper de (prisene er allerede nå begynt å bli absurde både for AMD og nVidia). AMD derimot har nettopp kommet med en ny serie, og vi VET det kommer forbedringer, spesielt med tanke på at begge de store consolene kjører AMD hardware. Og som jeg også postet tidligere så viser nøytrale benchmarks for raytracing at AMD faktisk gjør det bra i raytracing, for å være på baby stadiet (versjon 1).

Vi er mennesker og det vi gjør er å rettferdiggjøre og rasjonalisere våre valg. Du vil (slik jeg skjønner deg) gå for nVidia og vil dermed ikke se at det er mulig AMD kommer til å se store forbedringer i 2021. Jeg vurderer (men vet ikke enda) å gå for AMD for første gang på ca 13 år, og jeg ser potensialet som ligger der. Hadde alt blitt som det er akkurat nå så ja, da hadde nok et 3080 kort vært bedre enn et 6800 XT kort, men jeg er sikker på at det kommer forbedringer på AMD, og jeg ønsker gå for noe annet enn nVidia neste gang jeg kjøper GPU. Men slik prisene ser ut nå, også med tanke på prisøkning som kommer, er jeg nemmen ikke lenger sikker på om det er verdt å oppgradere fra mitt 2070 kort...

  • Innsiktsfullt 1
Lenke til kommentar
4 minutes ago, JarleGutt said:

nVidia vil trolig ikke lenger se like store endringer som fra 2000 til 3000 serien som AMD kommer til å på 6000 serien neste 1-2 år. Eneste måten jeg ser nVidia til å se like store forbedringer som fra DLSS v1 til v2 og fra 2000 serien til 3000 serien, er ved å bare lage GPUene mye større, og det vil da koste absurd mye mer penger og ingen kjøper de (prisene er allerede nå begynt å bli absurde både for AMD og nVidia). AMD derimot har nettopp kommet med en ny serie, og vi VET det kommer forbedringer, spesielt med tanke på at begge de store consolene kjører AMD hardware. Og som jeg også postet tidligere så viser nøytrale benchmarks for raytracing at AMD faktisk gjør det bra i raytracing, for å være på baby stadiet (versjon 1).

Så hvorfor går du ut i fra at "nVidia vil trolig ikke lenger se like store endringer som fra 2000 til 3000 serien som AMD kommer til å på 6000 serien neste 1-2 år."?

  • Innsiktsfullt 1
Lenke til kommentar
JarleGutt skrev (33 minutter siden):

Jeg skriver at ikke sammenlign benchmarks av nVidia kort ikke i native resolution med som bruker DLSS vs AMD i native resolution, det skjønner alle ikke er riktig. Selvsagt vil mange bruke DLSS, men det er et annet tema.

Når mange kjøper GPUer i dag, gjør de det for å bruke de i 2-4 år, spesielt når de bruker 8000+ kroner (det er en svinnende liten del av gamere som kjøper hver generasjon kort, bare se på Steam hardware tall, de fleste er fortsatt på 1000 serien til nVidia). Så ja da har det noe å si hva som kommer til å skje med AMD kort i 2021+. Om du ikke ser på det som et poeng er det helt ok. Men jeg ser på det som et poeng.

nVidia vil trolig ikke lenger se like store endringer som fra 2000 til 3000 serien som AMD kommer til å på 6000 serien neste 1-2 år. Eneste måten jeg ser nVidia til å se like store forbedringer som fra DLSS v1 til v2 og fra 2000 serien til 3000 serien, er ved å bare lage GPUene mye større, og det vil da koste absurd mye mer penger og ingen kjøper de (prisene er allerede nå begynt å bli absurde både for AMD og nVidia). AMD derimot har nettopp kommet med en ny serie, og vi VET det kommer forbedringer, spesielt med tanke på at begge de store consolene kjører AMD hardware. Og som jeg også postet tidligere så viser nøytrale benchmarks for raytracing at AMD faktisk gjør det bra i raytracing, for å være på baby stadiet (versjon 1).

Vi er mennesker og det vi gjør er å rettferdiggjøre og rasjonalisere våre valg. Du vil (slik jeg skjønner deg) gå for nVidia og vil dermed ikke se at det er mulig AMD kommer til å se store forbedringer i 2021. Jeg vurderer (men vet ikke enda) å gå for AMD for første gang på ca 13 år, og jeg ser potensialet som ligger der. Hadde alt blitt som det er akkurat nå så ja, da hadde nok et 3080 kort vært bedre enn et 6800 XT kort, men jeg er sikker på at det kommer forbedringer på AMD, og jeg ønsker gå for noe annet enn nVidia neste gang jeg kjøper GPU. Men slik prisene ser ut nå, også med tanke på prisøkning som kommer, er jeg nemmen ikke lenger sikker på om det er verdt å oppgradere fra mitt 2070 kort...

Formålet med forbrukertester er å bestemme hvilket kort som er det beste i spill, ikke i konstruerte tilfeller ingen vil spille i. Da gir det absolutt mening å teste Nvidia-kort med DLSS aktivert, og vise resultatene direkte opp mot AMD-kort som ikke kjører DLSS.

Hvis du vet hva AMD kommer til å gjøre i 2021 vil jeg anbefale at du skriver hva det er. Nvidia har mye mer regnekraft på Ampere-kortene som forblir ubrukt enn AMD sine Navi-kort, så om noen skal kunne vise bedre ytelse over tid har jeg mer tro på Nvidia enn AMD.

Angående nøytrale RT-tester, så viser ikke Port Royal tegn til at AMDs kort er spesielt gode. RX 6800 XT er et hår raskere enn det to år gamle RTX 2080 Ti. RX 6900 XT ligger et sted mellom 2080 Ti og 3080, og for å være et kort som skal være bedre enn 3080 er det vanskelig å påstå at det er bra.

Jeg vil gjerne kjøpe AMD-kort igjen, men da må de komme med noe som faktisk er interessant. Det at AMD har begrenset 6800 XT til 2800 MHz core overklokking gjør kortet fullstendig uaktuelt for min del. Ikke at dette er nytt: ved alle lanseringer AMD har gjort av skjermkort de siste 10 årene har de alltid klart å finne et eller annet de kan fucke opp, og jeg vet ikke lengre om jeg skal være frustrert eller imponert.

  • Liker 1
Lenke til kommentar

Synes det er interessant at RT skal være et stort argument og fokuspunkt. Rett under 30 spill har dette. I tillegg er vel RT en valgfri funksjon som man ikke *må* ha på for at det skal virke?

Uansett, ja fakta er at Navi har tregere RT enn Ampere. Var vel forventet. Men for å være AMDs 1. gen RT så gjør de det bedre enn tilsvarende 1. gen. fra nVidia (De må uansett få ut fingeren med drivere på dette området). Selv om de henger etter, betyr ikke det at de bare kan spasere inn og hente ut nVidias eferaringer.

I tilleg, som jeg nevnte tidligere, så er det naturlig at spill som er ute har RT implementert med tanke på RTX arkitekturen. Så jeg tror det kan bli mer spennende med kommende spill, heller enn tidligere spill. Men at AMD ligger etter ytelsesmessig på RT er uten tvil.

@N o r e n g, har du noen kilder til at det er *mye* mer regnekraft som ligger ubrukt på Ampere enn Navi som vil bli gjort tilgjengelig over tid?

Enig i at taket i frekvens er en rar avgjørelse fra AMD.

Lenke til kommentar
ExcaliBuR skrev (2 minutter siden):

, har du noen kilder til at det er *mye* mer regnekraft som ligger ubrukt på Ampere enn Navi som vil bli gjort tilgjengelig over tid?

https://www.techpowerup.com/gpu-specs/geforce-rtx-3090.c3622

https://www.techpowerup.com/gpu-specs/radeon-rx-6900-xt.c3481

3090 har 36 TFLOPS (1710 MHz Boost), 6900 XT har 23 TFLOPS (2250 MHz Boost)
Tilsvarende forskjeller eksisterer på lavere modeller også.

Jeg har ingen forventning om at disse forskjellene vil vise seg over tid, men det er mer sannsynlig at Nvidia har mer regnekraft som kan skvises ut enn AMD.

  • Liker 1
  • Innsiktsfullt 1
Lenke til kommentar
ExcaliBuR skrev (3 timer siden):

Nei, for det kommer fullstendig an på hvor godt den teoretiske regnekraften blir utnyttet, det er ingen garanti for at Ampere vil bli bedre utnyttet over tid. Det var mer en observasjon av at AMD tidligere trengte betraktelig flere TFLOPS for å matche Nvidia, mens i dag trenger Nvidia flere TFLOPS for å matche AMD.

Det er sikkert en del regnekraft som forblir "ubrukt" med Navi 21 også, men det er betraktelig mindre "til overs" fra et høyt nivå enn hva Nvidia har med Ampere.

  • Liker 1
Lenke til kommentar
N o r e n g skrev (47 minutter siden):

Nei, for det kommer fullstendig an på hvor godt den teoretiske regnekraften blir utnyttet, det er ingen garanti for at Ampere vil bli bedre utnyttet over tid. Det var mer en observasjon av at AMD tidligere trengte betraktelig flere TFLOPS for å matche Nvidia, mens i dag trenger Nvidia flere TFLOPS for å matche AMD.

Det er sikkert en del regnekraft som forblir "ubrukt" med Navi 21 også, men det er betraktelig mindre "til overs" fra et høyt nivå enn hva Nvidia har med Ampere.

Nettopp.

Oppsummerte ganske greit det jeg skulle frem til, i essensen.

Og det samme vil gjelde hvordan RT skrives i spill fremover sett i sammenheng med hvordan AMD sine RA er satt opp.

Lenke til kommentar
2 hours ago, ExcaliBuR said:

Nettopp.

Oppsummerte ganske greit det jeg skulle frem til, i essensen.

Og det samme vil gjelde hvordan RT skrives i spill fremover sett i sammenheng med hvordan AMD sine RA er satt opp.

Egentlig ikke, å rendre/prosessere et komplett bilde er en mye mer komplisert operasjon som består av veldig mange forskjellige operasjoner.

Kjøre RT er en veldig spesifikk oppgave som i bunn og grunn handler om å gjøre BVH traversal så raskt som mulig.

På samme måte vil for eksempel ikke RX 6800XT kunne matche RTX 3080 i tett FP32 matrisemultiplikasjon, da sistnevnte har mer regnekraft, og rå FP32-ytelse er flaskehalsen.

Så måten du da får "bedre RT" på konsollene er rett og slett å bruke færre "rays". Det er allerede dette som blir gjort på konsollene. Oppløsningen for RT settes ned, og antall effekter som får RT skrues også ned for konsollene (og da også AMD-kort). Digital Foundry viser hvordan dette gjøres i praksis på denne sammenligningen hvor de sammenligner RT på PC (RTX) og konsoller (RDNA2). I og med at begge konsollene har funksjonaliteten så tipper jeg at majoriteten av nye AAA-spill som kommer bruker RT.

  • Liker 2
  • Innsiktsfullt 1
Lenke til kommentar
HKS skrev (1 time siden):

Egentlig ikke, å rendre/prosessere et komplett bilde er en mye mer komplisert operasjon som består av veldig mange forskjellige operasjoner.

Kjøre RT er en veldig spesifikk oppgave som i bunn og grunn handler om å gjøre BVH traversal så raskt som mulig.

På samme måte vil for eksempel ikke RX 6800XT kunne matche RTX 3080 i tett FP32 matrisemultiplikasjon, da sistnevnte har mer regnekraft, og rå FP32-ytelse er flaskehalsen.

Så måten du da får "bedre RT" på konsollene er rett og slett å bruke færre "rays". Det er allerede dette som blir gjort på konsollene. Oppløsningen for RT settes ned, og antall effekter som får RT skrues også ned for konsollene (og da også AMD-kort). Digital Foundry viser hvordan dette gjøres i praksis på denne sammenligningen hvor de sammenligner RT på PC (RTX) og konsoller (RDNA2). I og med at begge konsollene har funksjonaliteten så tipper jeg at majoriteten av nye AAA-spill som kommer bruker RT.

Ikke at jeg kan så veldig mye, men i videoen, offisielt lagt ut på AMD sin youtube kanal, så snakkes det om hvordan man kan optimalisere RT for RA.

(Om ikke den hopper til 2.30, så er det derfra det snakkes om å optimalisere RT for RDNA2)

Så da er det vel flere fremgangsmåter til dette annet enn det du beskriver? Eller kunne dette likesågodt vært å optimalisere RT for Ampere også?

FP32 argumentet var vel snudd tidligere da AMD/ATi "hadde flere FLOPS" (som oftest), om jeg ikke husker feil. 

Endret av ExcaliBuR
Lenke til kommentar
N o r e n g skrev (15 timer siden):

Formålet med forbrukertester er å bestemme hvilket kort som er det beste i spill, ikke i konstruerte tilfeller ingen vil spille i. Da gir det absolutt mening å teste Nvidia-kort med DLSS aktivert, og vise resultatene direkte opp mot AMD-kort som ikke kjører DLSS.

Hvis du vet hva AMD kommer til å gjøre i 2021 vil jeg anbefale at du skriver hva det er. Nvidia har mye mer regnekraft på Ampere-kortene som forblir ubrukt enn AMD sine Navi-kort, så om noen skal kunne vise bedre ytelse over tid har jeg mer tro på Nvidia enn AMD.

Angående nøytrale RT-tester, så viser ikke Port Royal tegn til at AMDs kort er spesielt gode. RX 6800 XT er et hår raskere enn det to år gamle RTX 2080 Ti. RX 6900 XT ligger et sted mellom 2080 Ti og 3080, og for å være et kort som skal være bedre enn 3080 er det vanskelig å påstå at det er bra.

Jeg vil gjerne kjøpe AMD-kort igjen, men da må de komme med noe som faktisk er interessant. Det at AMD har begrenset 6800 XT til 2800 MHz core overklokking gjør kortet fullstendig uaktuelt for min del. Ikke at dette er nytt: ved alle lanseringer AMD har gjort av skjermkort de siste 10 årene har de alltid klart å finne et eller annet de kan fucke opp, og jeg vet ikke lengre om jeg skal være frustrert eller imponert.

På et vis er ting litt snudd på hodet. Hvis vi ser tilbake på Vega vs Pascal hadee Vega en veldig computesterk arkitektur som egna seg bra til mange profesjonelle oppgaver, mining etc, mens Pascal var en klart mer effektiv spillarkitektur. RDNA2 har en rekke fordeler vs Ampere når det kommer til spill og yter svært bra i rasterisering, på papiret er Ampere overlegent i specs, men RDNA2 yter bedre pr watt. I praksis gjør lav RT-ytelse, mangel på DLSS og enkelte andre funksjoner samt tilsvarende priser for hva du får i rasteriseringsytelse Ampere til et bedre valg for de fleste pr nå. Hadde RDNA2 ligget et stykke under i pris hadde man i større grad lunnet tilgitt færre funksjoner, mangel på DLSS etc, men ikke sånn som ting er nå. Derfor ble det 3060ti på meg og ikke 6800 vanilla/6700XT som jeg også vurderte. 

  • Liker 1
Lenke til kommentar
7 hours ago, ExcaliBuR said:

Ikke at jeg kan så veldig mye, men i videoen, offisielt lagt ut på AMD sin youtube kanal, så snakkes det om hvordan man kan optimalisere RT for RA.

...

(Om ikke den hopper til 2.30, så er det derfra det snakkes om å optimalisere RT for RDNA2)

Så da er det vel flere fremgangsmåter til dette annet enn det du beskriver? Eller kunne dette likesågodt vært å optimalisere RT for Ampere også?

FP32 argumentet var vel snudd tidligere da AMD/ATi "hadde flere FLOPS" (som oftest), om jeg ikke husker feil. 

Jepp, det er i bunn og grunn det jeg prøvde å si... :)

AMD sin viktigste "optimering" er å bruke så få "rays" som mulig. Men en spillutvikler vil måtte ha en metode for å dynamisk skalere hvor mange "rays" som brukes, da en Xbox X og PS 5 er betydelig svakere på RT enn en PC med 6800XT/6900. Å begrense antall "rays" vil også gi bedre ytelse på Ampere/Turing. *

Det med FP32 stemmer. Vega-arkitekturen var lenge rå FP32-konge, innenfor compute vil AMD sin CDNA-arkitektur (les: oppfølger til Vega) ta over denne titlen, da compute-brikken i Ampere familien (GA100) ikke kan kjøre to FP32-operasjoner per core. Men nå er ofte også en compute-workload i likhet med å rendre en hel frame ofte en sammensatt og kompleks operasjon.

 

* Nvidia har også laget en litt mer teknisk "best parctice guide" på hvordan få mest ut fra Raytracing... Denne ble egentlig laget for Turing, men er nå oppdatert for Ampere. Så vidt jeg kan se vil flere av disse "tipsene" fra Nvidia også være gode optimeringer for RDNA2.

  • Liker 1
  • Innsiktsfullt 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...