<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:taxo="http://purl.org/rss/1.0/modules/taxonomy/" version="2.0">
  <channel>
    <title>topic Re: LSI SAS 2008 RAID 1 always thrashing in ESXi Discussions</title>
    <link>https://communities.vmware.com/t5/ESXi-Discussions/LSI-SAS-2008-RAID-1-always-thrashing/m-p/1364996#M129750</link>
    <description>&lt;HTML&gt;&lt;HEAD&gt;&lt;/HEAD&gt;&lt;BODY&gt;&lt;P&gt;I'm affraid even in case of SSDs missing controller-cache will have negative impact on performance, with solo/raid ratio being similar, as for HDD (so instead of ~500MB you will get maybe ~50MB/s from SM863). If you buy such an expencive SSDs, it is a pitty not to use them properly. Two options come to my mind:&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;A: get some 2nd-hand/used controller. I got mine M5016 on eBay, for ~200$, including cache and super-cap. One year later I found one more for ~60$ (some ISP was selling spare-parts).&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;B: pass-through your disks/SSD to one VM, and create NAS with software-raid, for hosting other VMs. NAS-OS will do disk-caching and with vmxnet3-nics on local vswitch you'd get quite good network performance...&lt;/P&gt;&lt;/BODY&gt;&lt;/HTML&gt;</description>
    <pubDate>Wed, 23 Mar 2016 10:20:34 GMT</pubDate>
    <dc:creator>JarryG</dc:creator>
    <dc:date>2016-03-23T10:20:34Z</dc:date>
    <item>
      <title>LSI SAS 2008 RAID 1 always thrashing</title>
      <link>https://communities.vmware.com/t5/ESXi-Discussions/LSI-SAS-2008-RAID-1-always-thrashing/m-p/1364993#M129747</link>
      <description>&lt;HTML&gt;&lt;HEAD&gt;&lt;/HEAD&gt;&lt;BODY&gt;&lt;P&gt;I'm attempting to use an LSI 9212-4i4e in IR mode with ESXi 6.0. I have configured two Western Digital RE 320 GB drives in RAID 1.&lt;/P&gt;&lt;P&gt;Firmware on the controller is P20, and I also loaded the P20 drives from the website.&lt;/P&gt;&lt;P&gt;There is no on-board cache on this controller.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Drive activity lights were blinking while the drives were initializing, and of course write performance was horrendous.&lt;/P&gt;&lt;P&gt;Writing anything caused the drives to thrash, and sequential writing speeds (testing with dd) reached no more than 2 MB/s.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;After several hours (drives left to their initialization over night) the initialization appears to have finished and the drive activity has quieted down. Drive activity lights are no longer constantly blinking, and remain mostly quiet unless I initiate a write myself.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;However, the sequential write performance is still absolutely terrible. Write speed has only doubled compared with when the drives were initializing, reaching approximately 4-5 MB/s.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;The drives are still thrashing constantly when writing to the volume.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;I've tried to remove and recreate the vmfs volume. The result is the same.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Writing 150 MB (from /dev/zero) takes 30+ seconds. Reading back the same 150 MB takes 4 seconds.&lt;/P&gt;&lt;P&gt;Writes: 4.5 MB/s&lt;/P&gt;&lt;P&gt;Writes: 37 MB/s&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;[root@esxi6:~] date; time dd if=/dev/zero of=/vmfs/volumes/vmstore2_raid1_wd_re/out.tmp bs=1048576 count=150&lt;/P&gt;&lt;P&gt;Tue Mar 22 10:04:45 UTC 2016&lt;/P&gt;&lt;P&gt;150+0 records in&lt;/P&gt;&lt;P&gt;150+0 records out&lt;/P&gt;&lt;P&gt;real&amp;nbsp;&amp;nbsp;&amp;nbsp; 0m 33.20s&lt;/P&gt;&lt;P&gt;user&amp;nbsp;&amp;nbsp;&amp;nbsp; 0m 0.08s&lt;/P&gt;&lt;P&gt;sys&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0m 0.00s&lt;/P&gt;&lt;P&gt;[root@esxi6:~] date; time dd of=/dev/null if=/vmfs/volumes/vmstore2_raid1_wd_re/out.tmp bs=1048576 count=150&lt;/P&gt;&lt;P&gt;Tue Mar 22 10:06:23 UTC 2016&lt;/P&gt;&lt;P&gt;150+0 records in&lt;/P&gt;&lt;P&gt;150+0 records out&lt;/P&gt;&lt;P&gt;real&amp;nbsp;&amp;nbsp;&amp;nbsp; 0m 4.05s&lt;/P&gt;&lt;P&gt;user&amp;nbsp;&amp;nbsp;&amp;nbsp; 0m 0.10s&lt;/P&gt;&lt;P&gt;sys&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0m 0.00s&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;[root@&lt;SPAN style="font-size: 13.3333px;"&gt;esxi6&lt;/SPAN&gt;:~] date; time dd if=/dev/zero of=/vmfs/volumes/vmstore2_raid1_wd&lt;/P&gt;&lt;P&gt;_re/out.tmp bs=1048576 count=300&lt;/P&gt;&lt;P&gt;Tue Mar 22 10:07:35 UTC 2016&lt;/P&gt;&lt;P&gt;300+0 records in&lt;/P&gt;&lt;P&gt;300+0 records out&lt;/P&gt;&lt;P&gt;real&amp;nbsp;&amp;nbsp;&amp;nbsp; 1m 12.24s&lt;/P&gt;&lt;P&gt;user&amp;nbsp;&amp;nbsp;&amp;nbsp; 0m 0.15s&lt;/P&gt;&lt;P&gt;sys&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0m 0.00s&lt;/P&gt;&lt;P&gt;[root@&lt;SPAN style="font-size: 13.3333px;"&gt;esxi6&lt;/SPAN&gt;:~] date; time dd of=/dev/null if=/vmfs/volumes/vmstore2_raid1_wd&lt;/P&gt;&lt;P&gt;_re/out.tmp bs=1048576 count=300&lt;/P&gt;&lt;P&gt;Tue Mar 22 10:08:55 UTC 2016&lt;/P&gt;&lt;P&gt;300+0 records in&lt;/P&gt;&lt;P&gt;300+0 records out&lt;/P&gt;&lt;P&gt;real&amp;nbsp;&amp;nbsp;&amp;nbsp; 0m 7.63s&lt;/P&gt;&lt;P&gt;user&amp;nbsp;&amp;nbsp;&amp;nbsp; 0m 0.22s&lt;/P&gt;&lt;P&gt;sys&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0m 0.00s&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;cmd: esxcli storage core device list&lt;/P&gt;&lt;P&gt;naa.600508e00000000071e6339d7559b40d&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Display Name: LSI Serial Attached SCSI Disk (naa.600508e00000000071e6339d7559b40d)&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Has Settable Display Name: true&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Size: 304222&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Device Type: Direct-Access&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Multipath Plugin: NMP&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Devfs Path: /vmfs/devices/disks/naa.600508e00000000071e6339d7559b40d&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Vendor: LSI&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Model: Logical Volume&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Revision: 3000&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; SCSI Level: 6&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is Pseudo: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Status: degraded&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is RDM Capable: true&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is Local: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is Removable: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is SSD: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is VVOL PE: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is Offline: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is Perennially Reserved: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Queue Full Sample Size: 0&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Queue Full Threshold: 0&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Thin Provisioning Status: unknown&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Attached Filters:&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; VAAI Status: unknown&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Other UIDs: vml.0200000000600508e00000000071e6339d7559b40d4c6f67696361&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is Shared Clusterwide: true&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is Local SAS Device: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is SAS: true&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is USB: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is Boot USB Device: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Is Boot Device: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Device Max Queue Depth: 128&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; No of outstanding IOs with competing worlds: 32&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Drive Type: logical&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; RAID Level: RAID1&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Number of Physical Drives: 2&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Protection Enabled: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; PI Activated: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; PI Type: 0&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; PI Protection Mask: NO PROTECTION&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Supported Guard Types: NO GUARD SUPPORT&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; DIX Enabled: false&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; DIX Guard Type: NO GUARD SUPPORT&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Emulated DIX/DIF Enabled: false&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;[root@esxi6:~] esxcli storage core device raid list -d naa.600508e0000000007&lt;/P&gt;&lt;P&gt;1e6339d7559b40d&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Physical Location: enclosure 0, slot 6&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Physical Location: enclosure 0, slot 7&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;cmd: esxcli storage core device vaai status get&lt;/P&gt;&lt;P&gt;naa.600508e00000000071e6339d7559b40d&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; VAAI Plugin Name:&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; ATS Status: unsupported&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Clone Status: unsupported&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Zero Status: supported&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp; Delete Status: unsupported&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;[root@esxi6:~] esxcli storage core device partition list&lt;/P&gt;&lt;P&gt;Device&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; Partition&amp;nbsp; Start Sector&amp;nbsp; End Sector&amp;nbsp; Type&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; Size&lt;/P&gt;&lt;P&gt;--------------------------------------------------------------------------&amp;nbsp; ---------&amp;nbsp; ------------&amp;nbsp; ----------&amp;nbsp; ----&amp;nbsp; -------------&lt;/P&gt;&lt;P&gt;t10.ATA_____WDC_WD1003FBYX2D50Y7B1________________________WD2DWCAW36KXSCNY&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp; 1953525168&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp; 1000204886016&lt;/P&gt;&lt;P&gt;t10.ATA_____WDC_WD1003FBYX2D50Y7B1________________________WD2DWCAW36KXSCNY&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 1&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 2048&amp;nbsp; 1953523712&amp;nbsp;&amp;nbsp;&amp;nbsp; fb&amp;nbsp; 1000203091968&lt;/P&gt;&lt;P&gt;mpx.vmhba33:C0:T0:L0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp; 61457664&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp; 31466323968&lt;/P&gt;&lt;P&gt;mpx.vmhba33:C0:T0:L0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 1&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 64&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 8192&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 4161536&lt;/P&gt;&lt;P&gt;mpx.vmhba33:C0:T0:L0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 5&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 8224&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 520192&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 6&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 262127616&lt;/P&gt;&lt;P&gt;mpx.vmhba33:C0:T0:L0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 6&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 520224&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 1032192&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 6&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 262127616&lt;/P&gt;&lt;P&gt;mpx.vmhba33:C0:T0:L0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 7&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 1032224&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 1257472&amp;nbsp;&amp;nbsp;&amp;nbsp; fc&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 115326976&lt;/P&gt;&lt;P&gt;mpx.vmhba33:C0:T0:L0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 8&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 1257504&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 1843200&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 6&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 299876352&lt;/P&gt;&lt;P&gt;mpx.vmhba33:C0:T0:L0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 9&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 1843200&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 7086080&amp;nbsp;&amp;nbsp;&amp;nbsp; fc&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 2684354560&lt;/P&gt;&lt;P&gt;t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S1SUNSAG346333H_____&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp; 500118192&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp; 256060514304&lt;/P&gt;&lt;P&gt;t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S1SUNSAG346333H_____&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 1&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 2048&amp;nbsp;&amp;nbsp; 419432448&amp;nbsp;&amp;nbsp;&amp;nbsp; fb&amp;nbsp;&amp;nbsp; 214748364800&lt;/P&gt;&lt;P&gt;naa.600508e00000000071e6339d7559b40d&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp; 623046656&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp; 318999887872&lt;/P&gt;&lt;P&gt;naa.600508e00000000071e6339d7559b40d&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 1&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 2048&amp;nbsp;&amp;nbsp; 623046623&amp;nbsp;&amp;nbsp;&amp;nbsp; fb&amp;nbsp;&amp;nbsp; 318998822400&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;My main VM store is currently on a single Samsung SSD, connected to the internal Intel controller. While performance is not stellar here either, it is able to reach above 100 MB/s writes which is much more acceptable.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;&lt;SPAN style="font-size: 10pt; line-height: 1.5em;"&gt;What may be causing this constant HDD seek/thrashing while writing to the RAID 1 array, and is there a way to mitigate it in ESXi 6.0?&lt;/SPAN&gt;&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Should I try downgrading the firmware to P19 and also reverting the VMware drivers to P19?&lt;/P&gt;&lt;P&gt;Can I activate or deactivate some VMFS related features?&lt;/P&gt;&lt;P&gt;Can I from ESXi modify the drive cache behavior?&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Am I s**t-out-of-luck with seeing any decent write performance using this controller, while retaining some semblance of data integrity in the event of power failure, for example?&lt;/P&gt;&lt;/BODY&gt;&lt;/HTML&gt;</description>
      <pubDate>Tue, 22 Mar 2016 10:31:01 GMT</pubDate>
      <guid>https://communities.vmware.com/t5/ESXi-Discussions/LSI-SAS-2008-RAID-1-always-thrashing/m-p/1364993#M129747</guid>
      <dc:creator>logan892</dc:creator>
      <dc:date>2016-03-22T10:31:01Z</dc:date>
    </item>
    <item>
      <title>Re: LSI SAS 2008 RAID 1 always thrashing</title>
      <link>https://communities.vmware.com/t5/ESXi-Discussions/LSI-SAS-2008-RAID-1-always-thrashing/m-p/1364994#M129748</link>
      <description>&lt;HTML&gt;&lt;HEAD&gt;&lt;/HEAD&gt;&lt;BODY&gt;&lt;BLOCKQUOTE&gt;
&lt;P&gt;There is no on-board cache on this controller.&lt;/P&gt;
&lt;/BLOCKQUOTE&gt;&lt;P&gt;^ This is your problem: you are trying to use controller which is unsuitable for ESXi. Basically, you are running your disks un-cached, because ESXi (unlike any other modern OS) does *NOT* do disk-caching. &lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;BLOCKQUOTE&gt;&lt;SPAN style="font-size: 10pt;"&gt;What may be causing this constant HDD seek/thrashing while writing to the RAID 1 array&lt;/SPAN&gt;&lt;/BLOCKQUOTE&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;When you write to raid-1 array, controller must write data-chunk to both drives, then read them back (from both disks), calculate crc and compare it (before going on to next data-chunk). This is trully terrible without cache.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;BLOCKQUOTE&gt;&lt;SPAN style="font-size: 10pt;"&gt;...and is there a way to mitigate it in ESXi 6.0?&lt;/SPAN&gt;&lt;/BLOCKQUOTE&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Yes, there is one: buy some serious raid-controller, with on-board cache (the bigger&amp;amp;faster the better).&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;BLOCKQUOTE&gt;
&lt;P&gt;Should I try downgrading the firmware to P19 and also reverting the VMware drivers to P19?&lt;/P&gt;
&lt;P&gt;Can I activate or deactivate some VMFS related features?&lt;/P&gt;
&lt;/BLOCKQUOTE&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;No, because it does not make any sense.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;BLOCKQUOTE&gt;
&lt;P&gt;Can I from ESXi modify the drive cache behavior?&lt;/P&gt;
&lt;/BLOCKQUOTE&gt;&lt;P&gt;No, and it does not make any sense either. Controller can not use disk-cache for its operatioins. In fact, some raid-controllers even turn the disk-cache (not controller-cache) off, to prevent data-loss in case of power-outage and to avoid double-caching (keeping the same data both in controller-cache and disk-cache)...&lt;/P&gt;&lt;/BODY&gt;&lt;/HTML&gt;</description>
      <pubDate>Tue, 22 Mar 2016 14:14:33 GMT</pubDate>
      <guid>https://communities.vmware.com/t5/ESXi-Discussions/LSI-SAS-2008-RAID-1-always-thrashing/m-p/1364994#M129748</guid>
      <dc:creator>JarryG</dc:creator>
      <dc:date>2016-03-22T14:14:33Z</dc:date>
    </item>
    <item>
      <title>Re: LSI SAS 2008 RAID 1 always thrashing</title>
      <link>https://communities.vmware.com/t5/ESXi-Discussions/LSI-SAS-2008-RAID-1-always-thrashing/m-p/1364995#M129749</link>
      <description>&lt;HTML&gt;&lt;HEAD&gt;&lt;/HEAD&gt;&lt;BODY&gt;&lt;P&gt;That's too bad. These two WD RE drives have served me well in software RAID 1 under CentOS up until a year ago when I still ran VMware Server.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;The LSI controller was initially intended for a FreeNAS setup. It so happens that I acquired two, and so came about my attempt to use one of them in IR mode for local VMware storage.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;I have been considering getting two Samsung SM863 drives to use in RAID 1. I would assume that SSDs, while likely not being able to reach their full potential in such a non-cached hardware scenario, would fare much better than mechanical drives in this same situation. If anyone has experience with this I'd love to hear about it!&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;The SM863 have super capacitor secured on-drive cache. Would this SSD cache also be completely disabled, and/or performance crippled, when connected to an LSI 9212-4i4e without cache and configured in a RAID 1 array?&lt;/P&gt;&lt;P&gt;The cost of two SM863 would be similar to that of a new RAID controller with cache and BBU, which makes the SSD alternative much more appealing.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Strictly speaking I don't think my home server / hobby project absolutely requires RAID 1. I'd be better off with a proper backup solution. The potential failure of a single SSD is something I can live with, as long as my backups are in order.&lt;/P&gt;&lt;/BODY&gt;&lt;/HTML&gt;</description>
      <pubDate>Tue, 22 Mar 2016 21:40:45 GMT</pubDate>
      <guid>https://communities.vmware.com/t5/ESXi-Discussions/LSI-SAS-2008-RAID-1-always-thrashing/m-p/1364995#M129749</guid>
      <dc:creator>logan892</dc:creator>
      <dc:date>2016-03-22T21:40:45Z</dc:date>
    </item>
    <item>
      <title>Re: LSI SAS 2008 RAID 1 always thrashing</title>
      <link>https://communities.vmware.com/t5/ESXi-Discussions/LSI-SAS-2008-RAID-1-always-thrashing/m-p/1364996#M129750</link>
      <description>&lt;HTML&gt;&lt;HEAD&gt;&lt;/HEAD&gt;&lt;BODY&gt;&lt;P&gt;I'm affraid even in case of SSDs missing controller-cache will have negative impact on performance, with solo/raid ratio being similar, as for HDD (so instead of ~500MB you will get maybe ~50MB/s from SM863). If you buy such an expencive SSDs, it is a pitty not to use them properly. Two options come to my mind:&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;A: get some 2nd-hand/used controller. I got mine M5016 on eBay, for ~200$, including cache and super-cap. One year later I found one more for ~60$ (some ISP was selling spare-parts).&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;B: pass-through your disks/SSD to one VM, and create NAS with software-raid, for hosting other VMs. NAS-OS will do disk-caching and with vmxnet3-nics on local vswitch you'd get quite good network performance...&lt;/P&gt;&lt;/BODY&gt;&lt;/HTML&gt;</description>
      <pubDate>Wed, 23 Mar 2016 10:20:34 GMT</pubDate>
      <guid>https://communities.vmware.com/t5/ESXi-Discussions/LSI-SAS-2008-RAID-1-always-thrashing/m-p/1364996#M129750</guid>
      <dc:creator>JarryG</dc:creator>
      <dc:date>2016-03-23T10:20:34Z</dc:date>
    </item>
  </channel>
</rss>

