<div>Oh, fence agent works fine if I select ilo4,</div><div>Thank you for your help!</div><div><br><div class="gmail_quote"><div>On Sun, Apr 16, 2017 at 8:22 PM Dan Yasny &lt;<a href="mailto:dyasny@gmail.com">dyasny@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="gmail_extra"><div class="gmail_quote">On Sun, Apr 16, 2017 at 11:19 PM, Konstantin Raskoshnyi <span>&lt;<a href="mailto:konrasko@gmail.com" target="_blank">konrasko@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>Makes sense. </div><div>I was trying to set it up, but doesn&#39;t work with our staging hardware. </div><div>We have old ilo100, I&#39;ll try again. </div><div>Thanks!<div><div class="m_1774108031932592886h5"><br></div></div></div></blockquote><div><br></div></div></div></div><div><div class="gmail_extra"><div class="gmail_quote"><div>It is absolutely necessary for any HA to work properly. There&#39;s of course the &quot;confirm host has been shutdown&quot; option, which serves as an override for the fence command, but it&#39;s manual</div></div></div></div><div><div class="gmail_extra"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><div class="m_1774108031932592886h5"><div class="gmail_quote"><div>On Sun, Apr 16, 2017 at 8:18 PM Dan Yasny &lt;<a href="mailto:dyasny@gmail.com" target="_blank">dyasny@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="gmail_extra"><div class="gmail_quote">On Sun, Apr 16, 2017 at 11:15 PM, Konstantin Raskoshnyi <span>&lt;<a href="mailto:konrasko@gmail.com" target="_blank">konrasko@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>Fence agent under each node?</div></blockquote><div><br></div></div></div></div><div><div class="gmail_extra"><div class="gmail_quote"><div>When you configure a host, there&#39;s the power management tab, where you need to enter the bmc details for the host. If you don&#39;t have fencing enabled, how do you expect the system to make sure a host running a service is actually down (and it is safe to start HA services elsewhere), and not, for example, just unreachable by the engine? How do you avoid a splitbraid -&gt; SBA ?</div></div></div></div><div><div class="gmail_extra"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="m_1774108031932592886m_3846525510791616528m_1120357608056684743HOEnZb"><div class="m_1774108031932592886m_3846525510791616528m_1120357608056684743h5"><div><br><div class="gmail_quote"><div>On Sun, Apr 16, 2017 at 8:14 PM Dan Yasny &lt;<a href="mailto:dyasny@gmail.com" target="_blank">dyasny@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="gmail_extra"><div class="gmail_quote">On Sun, Apr 16, 2017 at 11:13 PM, Konstantin Raskoshnyi <span>&lt;<a href="mailto:konrasko@gmail.com" target="_blank">konrasko@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>&quot;Corner cases&quot;? </div><div>I tried to simulate crash of SPM server and ovirt kept trying to reistablished connection to the failed node. </div></blockquote><div><br></div></div></div></div><div><div class="gmail_extra"><div class="gmail_quote"><div>Did you configure fencing?</div></div></div></div><div><div class="gmail_extra"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="m_1774108031932592886m_3846525510791616528m_1120357608056684743m_362375030716496662m_-7954130722235415210HOEnZb"><div class="m_1774108031932592886m_3846525510791616528m_1120357608056684743m_362375030716496662m_-7954130722235415210h5"><div><br></div><div><br><div class="gmail_quote"><div>On Sun, Apr 16, 2017 at 8:10 PM Dan Yasny &lt;<a href="mailto:dyasny@gmail.com" target="_blank">dyasny@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="gmail_extra"><div class="gmail_quote">On Sun, Apr 16, 2017 at 7:29 AM, Nir Soffer <span>&lt;<a href="mailto:nsoffer@redhat.com" target="_blank">nsoffer@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="gmail_quote"><span><div>On Sun, Apr 16, 2017 at 2:05 PM Dan Yasny &lt;<a href="mailto:dyasny@redhat.com" target="_blank">dyasny@redhat.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><br><div class="gmail_extra"><br><div class="gmail_quote">On Apr 16, 2017 7:01 AM, &quot;Nir Soffer&quot; &lt;<a href="mailto:nsoffer@redhat.com" target="_blank">nsoffer@redhat.com</a>&gt; wrote:<br type="attribution"><blockquote class="m_1774108031932592886m_3846525510791616528m_1120357608056684743m_362375030716496662m_-7954130722235415210m_2173925241577336935m_-6434846878319371191m_5622908635907641408m_8346864507156293354quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="gmail_quote"><div class="m_1774108031932592886m_3846525510791616528m_1120357608056684743m_362375030716496662m_-7954130722235415210m_2173925241577336935m_-6434846878319371191m_5622908635907641408m_8346864507156293354quoted-text"><div>On Sun, Apr 16, 2017 at 4:17 AM Dan Yasny &lt;<a href="mailto:dyasny@gmail.com" target="_blank">dyasny@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>When you set up a storage domain, you need to specify a host to perform the initial storage operations, but once the SD is defined, it&#39;s details are in the engine database, and all the hosts get connected to it directly. If the first host you used to define the SD goes down, all other hosts will still remain connected and work. SPM is an HA service, and if the current SPM host goes down, SPM gets started on another host in the DC. In short, unless your actual NFS exporting host goes down, there is no outage. </div></blockquote><div><br></div></div><div>There is no storage outage, but if you shutdown the spm host, the spm host</div><div>will not move to a new host until the spm host is online again, or you confirm</div><div>manually that the spm host was rebooted.</div></div></div></blockquote></div></div></div><div><br></div></div><div><div>In a properly configured setup the SBA should take care of that. That&#39;s the whole point of HA services </div></div></blockquote><div><br></div></span><div>In some cases like power loss or hardware failure, there is no way to start</div><div>the spm host, and the system cannot recover automatically.</div></div></div></blockquote><div><br></div></div></div></div><div><div class="gmail_extra"><div class="gmail_quote"><div>There are always corner cases, no doubt. But in a normal situation. where an SPM host goes down because of a hardware failure, it gets fenced, other hosts contend for SPM and start it. No surprises there. </div></div></div></div><div><div class="gmail_extra"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="gmail_quote"><span class="m_1774108031932592886m_3846525510791616528m_1120357608056684743m_362375030716496662m_-7954130722235415210m_2173925241577336935m_-6434846878319371191HOEnZb"><font color="#888888"><div><br></div><div>Nir</div></font></span><div><div class="m_1774108031932592886m_3846525510791616528m_1120357608056684743m_362375030716496662m_-7954130722235415210m_2173925241577336935m_-6434846878319371191h5"><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><br></div><div><div class="gmail_extra"><div class="gmail_quote"><blockquote class="m_1774108031932592886m_3846525510791616528m_1120357608056684743m_362375030716496662m_-7954130722235415210m_2173925241577336935m_-6434846878319371191m_5622908635907641408m_8346864507156293354quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="gmail_quote"><font color="#888888"><div><br></div><div>Nir</div></font><div class="m_1774108031932592886m_3846525510791616528m_1120357608056684743m_362375030716496662m_-7954130722235415210m_2173925241577336935m_-6434846878319371191m_5622908635907641408m_8346864507156293354elided-text"><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="gmail_extra"><br><div class="gmail_quote">On Sat, Apr 15, 2017 at 1:53 PM, Konstantin Raskoshnyi <span>&lt;<a href="mailto:konrasko@gmail.com" target="_blank">konrasko@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>Hi Fernando,</div><div>I see each host has direct connection nfs mount, but yes, if main host to which I connected nfs storage going down the storage becomes unavailable and all vms are down</div><div class="m_1774108031932592886m_3846525510791616528m_1120357608056684743m_362375030716496662m_-7954130722235415210m_2173925241577336935m_-6434846878319371191m_5622908635907641408m_8346864507156293354m_6867735599077560094m_2305649857973554660HOEnZb"><div class="m_1774108031932592886m_3846525510791616528m_1120357608056684743m_362375030716496662m_-7954130722235415210m_2173925241577336935m_-6434846878319371191m_5622908635907641408m_8346864507156293354m_6867735599077560094m_2305649857973554660h5"><div><br></div><div><br><div class="gmail_quote"><div>On Sat, Apr 15, 2017 at 10:37 AM FERNANDO FREDIANI &lt;<a href="mailto:fernando.frediani@upx.com" target="_blank">fernando.frediani@upx.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><div><div>Hello Konstantin.<br><br></div>That doesn`t make much sense make a whole cluster depend on a single host. From what I know any host talk directly to NFS Storage Array or whatever other Shared Storage you have.<br></div>Have you tested that host going down if that affects the other with the NFS mounted directlly in a NFS Storage array ?<br><br></div></div><div>Fernando<br></div><div class="gmail_extra"><br><div class="gmail_quote">2017-04-15 12:42 GMT-03:00 Konstantin Raskoshnyi <span>&lt;<a href="mailto:konrasko@gmail.com" target="_blank">konrasko@gmail.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>In ovirt you have to attach storage through specific host. </div><div>If host goes down storage is not available. </div><div><br><div class="gmail_quote"><div>On Sat, Apr 15, 2017 at 7:31 AM FERNANDO FREDIANI &lt;<a href="mailto:fernando.frediani@upx.com" target="_blank">fernando.frediani@upx.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><div>Well, make it not go through host1 and dedicate a storage server for running NFS and make both hosts connect to it.<br></div>In my view NFS is much easier to manage than any other type of storage, specially FC and iSCSI and performance is pretty much the same, so you won`t get better results other than management going to other type.<br><br></div>Fernando<br></div><div class="gmail_extra"><br><div class="gmail_quote"></div></div><div class="gmail_extra"><div class="gmail_quote">2017-04-15 5:25 GMT-03:00 Konstantin Raskoshnyi <span>&lt;<a href="mailto:konrasko@gmail.com" target="_blank">konrasko@gmail.com</a>&gt;</span>:<br></div></div><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>Hi guys,<div>I have one nfs storage,</div><div>it&#39;s connected through host1.</div><div>host2 also has access to it, I can easily migrate vms between them.</div><div><br></div><div>The question is - if host1 is down - all infrastructure is down, since all traffic goes through host1,</div><div>is there any way in oVirt to use redundant storage?</div><div><br></div><div>Only glusterfs?</div><div><br></div><div>Thanks</div><div><br></div></div>
<br></blockquote></div></div><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
<br></blockquote></div></div></blockquote></div></div>
</blockquote></div><br></div>
</blockquote></div></div>
</div></div><br>_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
<br></blockquote></div><br></div>
_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
</blockquote></div></div></div>
<br>_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
<br></blockquote></div><br></div></div></div></blockquote></div></div></div></div>
</blockquote></div></div></div></blockquote></div></div>
</div></div></blockquote></div></div></div></blockquote></div></div>
</div></div></blockquote></div></div></div></blockquote></div></div></div></div>
</blockquote></div></div></div></blockquote></div></div>