<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Wed, Jun 7, 2017 at 2:59 PM, Nelson Lameiras <span dir="ltr">&lt;<a href="mailto:nelson.lameiras@lyra-network.com" target="_blank">nelson.lameiras@lyra-network.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div style="font-family:arial,helvetica,sans-serif;font-size:12pt;color:rgb(0,0,0)"><div>Hello,<br></div><div><br></div><div>In our oVirt hosts, we are using DELL equallogic SAN with each server connecting to SAN via 2 physical interfaces. Since both interfaces share the same network (Equalogic limitation) we must patch the linux kernel to to allow iSCSI multipath with multiple NICs in the same subnet with sysctl :<br></div><div><br></div><div>------------------------------<wbr>------------------------------<wbr>------------------------------<wbr>--<br></div><div><pre>net.ipv4.conf.p2p1.arp_ignore=<wbr>1
net.ipv4.conf.p2p1.arp_<wbr>announce=2
net.ipv4.conf.p2p1.rp_filter=2

net.ipv4.conf.p2p2.arp_ignore=<wbr>1
net.ipv4.conf.p2p2.arp_<wbr>announce=2
net.ipv4.conf.p2p2.rp_filter=2<br><br></pre></div></div></div></blockquote><div><br></div><div>Hello Nelson,</div><div>nice to see another environment based on EQL iSCSI SAN.</div><div>The systctl.conf customized lines above are not what you mean with &quot;we must patch the linux kernel&quot;, is it?</div><div>What do you mean exactly?</div><div><br></div><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div style="font-family:arial,helvetica,sans-serif;font-size:12pt;color:rgb(0,0,0)"><div><pre></pre><p>------------------------------<wbr>------------------------------<wbr>------------------------------<wbr>--<br><br></p><p>This works great in most setups, but for a strange reason, on some of our setups, the sysctl configuration is updated by VDSM when activating a host and the second interface stops working immeadiatly :</p><div>------------------------------<wbr>------------------------------<wbr>------------------------------<wbr>--</div><div>vdsm.log<br></div><div><pre id="gmail-m_3172160333806361248preview"><code>2017-06-07 11:51:51,063+0200 INFO  (jsonrpc/5) [storage.ISCSI] Setting strict mode rp_filter for device &#39;p2p2&#39;. (iscsi:602)
2017-06-07 11:51:51,064+0200 ERROR (jsonrpc/5) [storage.HSM] Could not connect to storageServer (hsm:2392)
Traceback (most recent call last):
  File &quot;/usr/share/vdsm/storage/hsm.<wbr>py&quot;, line 2389, in connectStorageServer
    conObj.connect()
  File &quot;/usr/share/vdsm/storage/<wbr>storageServer.py&quot;, line 433, in connect
    iscsi.addIscsiNode(self._<wbr>iface, self._target, self._cred)
  File &quot;/usr/lib/python2.7/site-<wbr>packages/vdsm/storage/iscsi.<wbr>py&quot;, line 232, in addIscsiNode
    iscsiadm.node_login(<a href="http://iface.name" target="_blank">iface.name</a><wbr>, target.address, target.iqn)
  File &quot;/usr/lib/python2.7/site-<wbr>packages/vdsm/storage/<wbr>iscsiadm.py&quot;, line 337, in node_login
    raise IscsiNodeError(rc, out, err)</code></pre><pre><br></pre></div></div></div></div></blockquote><div><br></div><div>In my environment I don&#39;t see these kinds of problems.</div><div>I&#39;m using plain CentOS 7.3 hosts as hypervisors; is this your case too or are you using ovirt-ng nodes?</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div style="font-family:arial,helvetica,sans-serif;font-size:12pt;color:rgb(0,0,0)"><div><div><pre><br></pre><p style="margin:0px">------------------------------<wbr>------------------------------<wbr>------------------------------<wbr>--</p></div></div><div><div><br></div><div>&quot;strict mode&quot; is enforced for second interface, and it no longuer works...</div><div>Which means - at least - that there is no redundancy in case of hardware faillure and this is not acceptable for our production needs.<br></div><div><br></div><div>What is really strange is that we have another &quot;twin&quot; site on another geographic region with simillar hardware configuration and same oVirt installation, and this problem does not happen.</div><div><br></div><div>What can be the root cause of this behaviour? How can I correct it?<br></div><div><br></div><div><br></div></div></div></div></blockquote><div><br></div><div>Actually it is very strange to me to understand how you don&#39;t have problems on the other side.</div><div>My workaround to get multipath with EQL in oVirt was the one explained here with screenshots:</div><div><a href="http://lists.ovirt.org/pipermail/users/2017-March/080992.html">http://lists.ovirt.org/pipermail/users/2017-March/080992.html</a></div><div><br></div><div>It has been working now for about 3 months without problems. We have several Oracle RDBMS server VMs on it, from 2virtual threads and 8Gb of ram to 16 threads (2-4-2) and 64Gb of ram  </div><div>How did you configure multipath instead? As far as I know oVirt will not let you do it.</div><div>The only way would be to use bonding but that is not certified/supported by Dell.</div><div><br></div><div>HIH sharing experiences,</div><div>Gianluca</div><div><br></div></div></div></div>