<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">
<div class="">Bug opened here:</div>
<div class=""><a href="https://bugzilla.redhat.com/show_bug.cgi?id=1474904" class="">https://bugzilla.redhat.com/show_bug.cgi?id=1474904</a></div>
<div class=""><br class="">
</div>
<div class="">Thanks,</div>
<div class="">V.</div>
<br class="">
<div>
<blockquote type="cite" class="">
<div class="">On 25 Jul 2017, at 12:08, Vinícius Ferrão &lt;<a href="mailto:ferrao@if.ufrj.br" class="">ferrao@if.ufrj.br</a>&gt; wrote:</div>
<br class="Apple-interchange-newline">
<div class="">
<div class="">Hello Maor,<br class="">
<br class="">
Thanks for answering and looking deeper in this case. You’re welcome to connect to my machine since it’s reachable over the internet. I’ll be opening a ticket in moments. Just to feed an update here:<br class="">
<br class="">
I’ve done what you asked, but since I’m running Self Hosted Engine, I lost the connection to HE, here’s the CLI:<br class="">
<br class="">
<br class="">
<br class="">
Last login: Thu Jul 20 02:43:50 2017 from 172.31.2.3<br class="">
<br class="">
&nbsp;node status: OK<br class="">
&nbsp;See `nodectl check` for more information<br class="">
<br class="">
Admin Console: <a href="https://192.168.11.3:9090/" class="">https://192.168.11.3:9090/</a> or
<a href="https://192.168.12.3:9090/" class="">https://192.168.12.3:9090/</a> or <a href="https://146.164.37.103:9090/" class="">
https://146.164.37.103:9090/</a><br class="">
<br class="">
[root@ovirt3 ~]# iscsiadm -m session -u<br class="">
Logging out of session [sid: 1, target: iqn.2017-07.br.ufrj.if.cc.storage.ctl:ovirt-he, portal: 192.168.12.14,3260]<br class="">
Logging out of session [sid: 4, target: iqn.2017-07.br.ufrj.if.cc.storage.ctl:ovirt-mpio, portal: 192.168.12.14,3260]<br class="">
Logging out of session [sid: 7, target: iqn.2017-07.br.ufrj.if.cc.storage.ctl:ovirt-mpio, portal: 192.168.12.14,3260]<br class="">
Logging out of session [sid: 5, target: iqn.2017-07.br.ufrj.if.cc.storage.ctl:ovirt-mpio, portal: 192.168.11.14,3260]<br class="">
Logging out of session [sid: 6, target: iqn.2017-07.br.ufrj.if.cc.storage.ctl:ovirt-mpio, portal: 192.168.11.14,3260]<br class="">
Logout of [sid: 1, target: iqn.2017-07.br.ufrj.if.cc.storage.ctl:ovirt-he, portal: 192.168.12.14,3260] successful.<br class="">
Logout of [sid: 4, target: iqn.2017-07.br.ufrj.if.cc.storage.ctl:ovirt-mpio, portal: 192.168.12.14,3260] successful.<br class="">
Logout of [sid: 7, target: iqn.2017-07.br.ufrj.if.cc.storage.ctl:ovirt-mpio, portal: 192.168.12.14,3260] successful.<br class="">
Logout of [sid: 5, target: iqn.2017-07.br.ufrj.if.cc.storage.ctl:ovirt-mpio, portal: 192.168.11.14,3260] successful.<br class="">
Logout of [sid: 6, target: iqn.2017-07.br.ufrj.if.cc.storage.ctl:ovirt-mpio, portal: 192.168.11.14,3260] successful.<br class="">
[root@ovirt3 ~]# service iscsid stop<br class="">
Redirecting to /bin/systemctl stop &nbsp;iscsid.service<br class="">
Warning: Stopping iscsid.service, but it can still be activated by:<br class="">
&nbsp;iscsid.socket<br class="">
<br class="">
[root@ovirt3 ~]# mv /var/lib/iscsi/ifaces/* /tmp/ifaces<br class="">
<br class="">
[root@ovirt3 ~]# service iscsid start<br class="">
Redirecting to /bin/systemctl start &nbsp;iscsid.service<br class="">
<br class="">
And finally:<br class="">
<br class="">
[root@ovirt3 ~]# hosted-engine --vm-status<br class="">
.<br class="">
.<br class="">
.<br class="">
<br class="">
It just hangs.<br class="">
<br class="">
Thanks,<br class="">
V.<br class="">
<br class="">
<blockquote type="cite" class="">On 25 Jul 2017, at 05:54, Maor Lipchuk &lt;<a href="mailto:mlipchuk@redhat.com" class="">mlipchuk@redhat.com</a>&gt; wrote:<br class="">
<br class="">
Hi Vinícius,<br class="">
<br class="">
I was trying to reproduce your scenario and also encountered this<br class="">
issue, so please disregard my last comment, can you please open a bug<br class="">
on that so we can investigate it properly<br class="">
<br class="">
Thanks,<br class="">
Maor<br class="">
<br class="">
<br class="">
On Tue, Jul 25, 2017 at 11:26 AM, Maor Lipchuk &lt;<a href="mailto:mlipchuk@redhat.com" class="">mlipchuk@redhat.com</a>&gt; wrote:<br class="">
<blockquote type="cite" class="">Hi Vinícius,<br class="">
<br class="">
For some reason it looks like your networks are both connected to the same IPs.<br class="">
<br class="">
based on the &nbsp;VDSM logs:<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;u'connectionParams':[<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;{<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;u'netIfaceName':u'eno3.11',<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;u'connection':u'192.168.11.14',<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;},<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;{<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;u'netIfaceName':u'eno3.11',<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;u'connection':u'192.168.12.14',<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;}<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;u'netIfaceName':u'eno4.12',<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;u'connection':u'192.168.11.14',<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;},<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;{<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;u'netIfaceName':u'eno4.12',<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;u'connection':u'192.168.12.14',<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;}<br class="">
&nbsp;&nbsp;&nbsp;&nbsp;],<br class="">
<br class="">
Can you try to reconnect to the iSCSI storage domain after<br class="">
re-initializing your iscsiadm on your host.<br class="">
<br class="">
1. Move your iSCSI storage domain to maintenance in oVirt by deactivating it<br class="">
<br class="">
2. In your VDSM host, log out from your iscsi open sessions which are<br class="">
related to this storage domain<br class="">
if that is your only iSCSI storage domain log out from all the sessions:<br class="">
&nbsp;&quot;iscsiadm -m session -u&quot;<br class="">
<br class="">
3. Stop the iscsid service:<br class="">
&nbsp;&quot;service iscsid stop&quot;<br class="">
<br class="">
4. Move your network interfaces configured in the iscsiadm to a<br class="">
temporary folder:<br class="">
&nbsp;&nbsp;mv /var/lib/iscsi/ifaces/* /tmp/ifaces<br class="">
<br class="">
5. Start the iscsid service<br class="">
&nbsp;&quot;service iscsid start&quot;<br class="">
<br class="">
Regards,<br class="">
Maor and Benny<br class="">
<br class="">
On Wed, Jul 19, 2017 at 1:01 PM, Uwe Laverenz &lt;<a href="mailto:uwe@laverenz.de" class="">uwe@laverenz.de</a>&gt; wrote:<br class="">
<blockquote type="cite" class="">Hi,<br class="">
<br class="">
<br class="">
Am 19.07.2017 um 04:52 schrieb Vinícius Ferrão:<br class="">
<br class="">
<blockquote type="cite" class="">I’m joining the crowd with iSCSI Multipath issues on oVirt here. I’m<br class="">
trying to enable the feature without success too.<br class="">
<br class="">
Here’s what I’ve done, step-by-step.<br class="">
<br class="">
1. Installed oVirt Node 4.1.3 with the following network settings:<br class="">
<br class="">
eno1 and eno2 on a 802.3ad (LACP) Bond, creating a bond0 interface.<br class="">
eno3 with 9216 MTU.<br class="">
eno4 with 9216 MTU.<br class="">
vlan11 on eno3 with 9216 MTU and fixed IP addresses.<br class="">
vlan12 on eno4 with 9216 MTU and fixed IP addresses.<br class="">
<br class="">
eno3 and eno4 are my iSCSI MPIO Interfaces, completelly segregated, on<br class="">
different switches.<br class="">
</blockquote>
<br class="">
<br class="">
This is the point: the OVirt implementation of iSCSI-Bonding assumes that<br class="">
all network interfaces in the bond can connect/reach all targets, including<br class="">
those in the other net(s). The fact that you use separate, isolated networks<br class="">
means that this is not the case in your setup (and not in mine).<br class="">
<br class="">
I am not sure if this is a bug, a design flaw or a feature, but as a result<br class="">
of this OVirt's iSCSI-Bonding does not work for us.<br class="">
<br class="">
Please see my mail from yesterday for a workaround.<br class="">
<br class="">
cu,<br class="">
Uwe<br class="">
_______________________________________________<br class="">
Users mailing list<br class="">
<a href="mailto:Users@ovirt.org" class="">Users@ovirt.org</a><br class="">
http://lists.ovirt.org/mailman/listinfo/users<br class="">
</blockquote>
</blockquote>
</blockquote>
<br class="">
_______________________________________________<br class="">
Users mailing list<br class="">
<a href="mailto:Users@ovirt.org" class="">Users@ovirt.org</a><br class="">
http://lists.ovirt.org/mailman/listinfo/users<br class="">
</div>
</div>
</blockquote>
</div>
<br class="">
</body>
</html>