Gå til innhold

SSD-tråden: info om og diskusjon rundt SSD


Anbefalte innlegg

Videoannonse
Annonse

Er det noen som vet om disse 900p SSD'ene blir det samme som å ha en optane modul og tilsvarende rask SSD? Altså at 900p er optane for folk med HK som ikke har optane slot/modul i utgangspunktet?

 

Optane modulene er betydelig tregere, de har omtrent samme ytelsen som Intel S3700 på random 4kb writes.

Lenke til kommentar

 

Noen norske butikker som selger Optane 900P ennå?

 

Nei, men midten av November kommer det noe på lager visst nok. Vi får bare vente å se.

 

Prisen på over 10k for 900P i 480 GB-versjon visers seg forresten å være feil. Digital Impuls sjekket med importøren og fikk oppgitt ca 6500,- ink mva.

Lenke til kommentar

 

 

Noen norske butikker som selger Optane 900P ennå?

 

Nei, men midten av November kommer det noe på lager visst nok. Vi får bare vente å se.

 

Prisen på over 10k for 900P i 480 GB-versjon visers seg forresten å være feil. Digital Impuls sjekket med importøren og fikk oppgitt ca 6500,- ink mva.

 

 

Gode nyheter det :) 10K er litt vel drøy pris, om den hadde stemt.

Endret av Betroz
Lenke til kommentar

Har fått testa 900p 280GB

 

FreeBSD diskinfo zfs zlog benchmark

 

./diskinfo -vSw /dev/nvd3
    512             # sectorsize
    280065171456    # mediasize in bytes (261G)
    547002288       # mediasize in sectors
    0               # stripesize
    0               # stripeoffset
    PHM27390005F280AGN    # Disk ident.

Synchronous random writes:
     0.5 kbytes:     17.3 usec/IO =     28.2 Mbytes/s
       1 kbytes:     17.6 usec/IO =     55.5 Mbytes/s
       2 kbytes:     18.0 usec/IO =    108.3 Mbytes/s
       4 kbytes:     14.6 usec/IO =    267.6 Mbytes/s
       8 kbytes:     17.1 usec/IO =    456.5 Mbytes/s
      16 kbytes:     22.0 usec/IO =    710.1 Mbytes/s
      32 kbytes:     32.9 usec/IO =    950.2 Mbytes/s
      64 kbytes:     57.5 usec/IO =   1086.9 Mbytes/s
     128 kbytes:    115.6 usec/IO =   1081.7 Mbytes/s
     256 kbytes:    175.9 usec/IO =   1421.1 Mbytes/s
     512 kbytes:    300.3 usec/IO =   1665.3 Mbytes/s
    1024 kbytes:    556.2 usec/IO =   1797.9 Mbytes/s
    2048 kbytes:   1073.1 usec/IO =   1863.8 Mbytes/s
    4096 kbytes:   2108.3 usec/IO =   1897.2 Mbytes/s
    8192 kbytes:   4224.9 usec/IO =   1893.6 Mbytes/s

 

pg_test_fsync

 

pg_test_fsync -f /dev/nvd3
5 seconds per test
O_DIRECT supported on this platform for open_datasync and open_sync.

Compare file sync methods using one 8kB write:
(in wal_sync_method preference order, except fdatasync is Linux's default)
        open_datasync                                   n/a
        fdatasync                         32464.288 ops/sec      31 usecs/op
        fsync                             32342.334 ops/sec      31 usecs/op
        fsync_writethrough                              n/a
        open_sync                         31136.797 ops/sec      32 usecs/op

Compare file sync methods using two 8kB writes:
(in wal_sync_method preference order, except fdatasync is Linux's default)
        open_datasync                                   n/a
        fdatasync                         25099.916 ops/sec      40 usecs/op
        fsync                             25343.201 ops/sec      39 usecs/op
        fsync_writethrough                              n/a
        open_sync                         25661.702 ops/sec      39 usecs/op

Compare open_sync with different write sizes:
(This is designed to compare the cost of writing 16kB in different write
open_sync sizes.)
         1 * 16kB open_sync write         28435.039 ops/sec      35 usecs/op
         2 *  8kB open_sync writes        25286.818 ops/sec      40 usecs/op
         4 *  4kB open_sync writes        14522.470 ops/sec      69 usecs/op
         8 *  2kB open_sync writes         4124.340 ops/sec     242 usecs/op
        16 *  1kB open_sync writes         1850.520 ops/sec     540 usecs/op

Test if fsync on non-write file descriptor is honored:
(If the times are similar, fsync() can sync data written on a different
descriptor.)
        write, fsync, close                 573.837 ops/sec    1743 usecs/op
        write, close, fsync                 618.194 ops/sec    1618 usecs/op

Non-sync'ed 8kB writes:
        write                              1179.325 ops/sec     848 usecs/op

 

fio 4kb sync write

 

fio --filename=/dev/nvme3ns1 --direct=1 --sync=1 --rw=write --bs=4k --numjobs=1 --iodepth=1 --runtime=60 --time_based --group_reporting --name=journal-test
journal-test: (g=0): rw=write, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=psync, iodepth=1
fio-3.1
Starting 1 process
Jobs: 1 (f=1): [W(1)][100.0%][r=0KiB/s,w=230MiB/s][r=0,w=58.0k IOPS][eta 00m:00s]
journal-test: (groupid=0, jobs=1): err= 0: pid=20397: Mon Nov  6 14:59:01 2017
  write: IOPS=59.7k, BW=233MiB/s (245MB/s)(13.7GiB/60001msec)
    clat (usec): min=11, max=190, avg=15.35, stdev= 7.46
     lat (usec): min=12, max=190, avg=15.44, stdev= 7.47
    clat percentiles (nsec):
     |  1.00th=[12352],  5.00th=[12480], 10.00th=[12608], 20.00th=[12736],
     | 30.00th=[12736], 40.00th=[12864], 50.00th=[12864], 60.00th=[12992],
     | 70.00th=[13120], 80.00th=[13376], 90.00th=[18816], 95.00th=[35072],
     | 99.00th=[46336], 99.50th=[49920], 99.90th=[60672], 99.95th=[64256],
     | 99.99th=[79360]
   bw (  KiB/s): min=229806, max=244166, per=98.75%, avg=236000.92, stdev=3194.80, samples=119
   iops        : min=57451, max=61039, avg=58999.86, stdev=798.60, samples=119
  lat (usec)   : 20=91.00%, 50=8.52%, 100=0.48%, 250=0.01%
  cpu          : usr=11.07%, sys=21.14%, ctx=3584992, majf=0, minf=0
  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued rwt: total=0,3584979,0, short=0,0,0, dropped=0,0,0
     latency   : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
  WRITE: bw=233MiB/s (245MB/s), 233MiB/s-233MiB/s (245MB/s-245MB/s), io=13.7GiB (14.7GB), run=60001-60001msec

 

fio 16 jobs

 

fio --filename=/dev/nvme3ns1 --direct=1 --sync=1 --rw=write --bs=4k --numjobs=16 --iodepth=1 --runtime=60 --time_based --group_reporting --name=journal-test
journal-test: (g=0): rw=write, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=psync, iodepth=1
...
fio-3.1
Starting 16 processes
Jobs: 16 (f=16): [W(16)][100.0%][r=0KiB/s,w=1927MiB/s][r=0,w=493k IOPS][eta 00m:00s]
journal-test: (groupid=0, jobs=16): err= 0: pid=20422: Mon Nov  6 15:03:57 2017
  write: IOPS=476k, BW=1860MiB/s (1950MB/s)(109GiB/60001msec)
    clat (usec): min=11, max=2558, avg=31.90, stdev=17.32
     lat (usec): min=11, max=2559, avg=32.06, stdev=17.33
    clat percentiles (usec):
     |  1.00th=[   18],  5.00th=[   20], 10.00th=[   21], 20.00th=[   22],
     | 30.00th=[   23], 40.00th=[   23], 50.00th=[   25], 60.00th=[   26],
     | 70.00th=[   29], 80.00th=[   48], 90.00th=[   59], 95.00th=[   65],
     | 99.00th=[   94], 99.50th=[  100], 99.90th=[  123], 99.95th=[  130],
     | 99.99th=[  149]
   bw (  KiB/s): min=46994, max=124560, per=6.24%, avg=118849.26, stdev=10748.65, samples=1906
   iops        : min=11748, max=31140, avg=29712.08, stdev=2687.18, samples=1906
  lat (usec)   : 20=8.87%, 50=71.64%, 100=19.01%, 250=0.48%, 500=0.01%
  lat (usec)   : 750=0.01%, 1000=0.01%
  lat (msec)   : 2=0.01%, 4=0.01%
  cpu          : usr=7.07%, sys=12.74%, ctx=31142314, majf=0, minf=0
  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued rwt: total=0,28565546,0, short=0,0,0, dropped=0,0,0
     latency   : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
  WRITE: bw=1860MiB/s (1950MB/s), 1860MiB/s-1860MiB/s (1950MB/s-1950MB/s), io=109GiB (117GB), run=60001-60001msec

 

Uten tvil noko raskere enn Intel DC p4800x

Lenke til kommentar

Har tilgang til lab i statene som jeg logger meg inn på for å evaluere ny hardware.

900p er ca 10 ganger raskere på det fleste io-operasjoner samanlikna mot 750, største forskjellen er når du har random sync write på 4kb med 10+ tråder. Ytelsen på FreeBSD og Linux er overlegen Windows 10.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...