<div dir="ltr"><div><div><div><div>Hi Andrew,<br><br></div>Yes..both on the same node...but i have 4 nodes of this type in the same cluster....So it should work or not ?? <br><br></div>1. 4 physical nodes with 12 bricks each(distributed replicated)...<br>
</div>2. The same all 4 nodes use for the compute purpose also...<br><br></div>Do i still require the VIP...or not ?? because i tested even the mount point node goes down...the VM will not pause and not affect...<br></div>
<div class="gmail_extra"><br><br><div class="gmail_quote">On Fri, Jul 4, 2014 at 1:18 PM, Andrew Lau <span dir="ltr">&lt;<a href="mailto:andrew@andrewklau.com" target="_blank">andrew@andrewklau.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Or just localhost as your computer and storage are on the same box.<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
On Fri, Jul 4, 2014 at 2:48 PM, Punit Dambiwal &lt;<a href="mailto:hypunit@gmail.com">hypunit@gmail.com</a>&gt; wrote:<br>
&gt; Hi Andrew,<br>
&gt;<br>
&gt; Thanks for the update....that means HA can not work without VIP in the<br>
&gt; gluster,so better to use the glusterfs with the VIP to take over the ip...in<br>
&gt; case of any storage node failure...<br>
&gt;<br>
&gt;<br>
&gt; On Fri, Jul 4, 2014 at 12:35 PM, Andrew Lau &lt;<a href="mailto:andrew@andrewklau.com">andrew@andrewklau.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Don&#39;t forget to take into consideration quroum, that&#39;s something<br>
&gt;&gt; people often forget<br>
&gt;&gt;<br>
&gt;&gt; The reason you&#39;re having the current happen, is gluster only uses the<br>
&gt;&gt; initial IP address to get the volume details. After that it&#39;ll connect<br>
&gt;&gt; directly to ONE of the servers, so with your 2 storage server case,<br>
&gt;&gt; 50% chance it won&#39;t go to paused state.<br>
&gt;&gt;<br>
&gt;&gt; For the VIP, you could consider CTDB or keepelived, or even just using<br>
&gt;&gt; localhost (as your storage and compute are all on the same machine).<br>
&gt;&gt; For CTDB, checkout<br>
&gt;&gt; <a href="http://community.redhat.com/blog/2014/05/ovirt-3-4-glusterized/" target="_blank">http://community.redhat.com/blog/2014/05/ovirt-3-4-glusterized/</a><br>
&gt;&gt;<br>
&gt;&gt; I have a BZ open regarding gluster VMs going into paused state and not<br>
&gt;&gt; being resumable, so it&#39;s something you should also consider. My case,<br>
&gt;&gt; switch dies, gluster volume goes away, VMs go into paused state but<br>
&gt;&gt; can&#39;t be resumed. If you lose one server out of a cluster is a<br>
&gt;&gt; different story though.<br>
&gt;&gt; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1058300" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1058300</a><br>
&gt;&gt;<br>
&gt;&gt; HTH<br>
&gt;&gt;<br>
&gt;&gt; On Fri, Jul 4, 2014 at 11:48 AM, Punit Dambiwal &lt;<a href="mailto:hypunit@gmail.com">hypunit@gmail.com</a>&gt; wrote:<br>
&gt;&gt; &gt; Hi,<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Thanks...can you suggest me any good how to/article for the glusterfs<br>
&gt;&gt; &gt; with<br>
&gt;&gt; &gt; ovirt...<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; One strange thing is if i will try both (compute &amp; storage) on the same<br>
&gt;&gt; &gt; node...the below quote not happen....<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; ---------------------<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Right now, if 10.10.10.2 goes away, all your gluster mounts go away and<br>
&gt;&gt; &gt; your<br>
&gt;&gt; &gt; VMs get paused because the hypervisors can’t access the storage. Your<br>
&gt;&gt; &gt; gluster storage is still fine, but ovirt can’t talk to it because<br>
&gt;&gt; &gt; 10.10.10.2<br>
&gt;&gt; &gt; isn’t there.<br>
&gt;&gt; &gt; ---------------------<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Even the 10.10.10.2 goes down...i can still access the gluster mounts<br>
&gt;&gt; &gt; and no<br>
&gt;&gt; &gt; VM pause....i can access the VM via ssh...no connection failure.....the<br>
&gt;&gt; &gt; connection drop only in case of SPM goes down and the another node will<br>
&gt;&gt; &gt; elect as SPM(All the running VM&#39;s pause in this condition).<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; On Fri, Jul 4, 2014 at 4:12 AM, Darrell Budic<br>
&gt;&gt; &gt; &lt;<a href="mailto:darrell.budic@zenfire.com">darrell.budic@zenfire.com</a>&gt;<br>
&gt;&gt; &gt; wrote:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; You need to setup a virtual IP to use as the mount point, most people<br>
&gt;&gt; &gt;&gt; use<br>
&gt;&gt; &gt;&gt; keepalived to provide a virtual ip via vrrp for this. Setup something<br>
&gt;&gt; &gt;&gt; like<br>
&gt;&gt; &gt;&gt; 10.10.10.10 and use that for your mounts.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Right now, if 10.10.10.2 goes away, all your gluster mounts go away and<br>
&gt;&gt; &gt;&gt; your VMs get paused because the hypervisors can’t access the storage.<br>
&gt;&gt; &gt;&gt; Your<br>
&gt;&gt; &gt;&gt; gluster storage is still fine, but ovirt can’t talk to it because<br>
&gt;&gt; &gt;&gt; 10.10.10.2<br>
&gt;&gt; &gt;&gt; isn’t there.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; If the SPM goes down, it the other hypervisor hosts will elect a new<br>
&gt;&gt; &gt;&gt; one<br>
&gt;&gt; &gt;&gt; (under control of the ovirt engine).<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Same scenarios if storage &amp; compute are on the same server, you still<br>
&gt;&gt; &gt;&gt; need<br>
&gt;&gt; &gt;&gt; a vip address for the storage portion to serve as the mount point so<br>
&gt;&gt; &gt;&gt; it’s<br>
&gt;&gt; &gt;&gt; not dependent on any one server.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; -Darrell<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; On Jul 3, 2014, at 1:14 AM, Punit Dambiwal &lt;<a href="mailto:hypunit@gmail.com">hypunit@gmail.com</a>&gt; wrote:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Hi,<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; I have some HA related concern about glusterfs with Ovirt...let say i<br>
&gt;&gt; &gt;&gt; have<br>
&gt;&gt; &gt;&gt; 4 storage node with gluster bricks as below :-<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; 1. 10.10.10.1 to 10.10.10.4 with 2 bricks each and i have distributed<br>
&gt;&gt; &gt;&gt; replicated architecture...<br>
&gt;&gt; &gt;&gt; 2. Now attached this gluster storge to ovrit-engine with the following<br>
&gt;&gt; &gt;&gt; mount point <a href="http://10.10.10.2/vol1" target="_blank">10.10.10.2/vol1</a><br>
&gt;&gt; &gt;&gt; 3. In my cluster i have 3 hypervisior hosts (10.10.10.5 to 10.10.10.7)<br>
&gt;&gt; &gt;&gt; SPM<br>
&gt;&gt; &gt;&gt; is on 10.10.10.5...<br>
&gt;&gt; &gt;&gt; 4. What happen if 10.10.10.2 will goes down.....can hypervisior host<br>
&gt;&gt; &gt;&gt; can<br>
&gt;&gt; &gt;&gt; still access the storage ??<br>
&gt;&gt; &gt;&gt; 5. What happen if SPM goes down ???<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Note :- What happen for point 4 &amp;5 ,If storage and Compute both working<br>
&gt;&gt; &gt;&gt; on<br>
&gt;&gt; &gt;&gt; the same server.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Thanks,<br>
&gt;&gt; &gt;&gt; Punit<br>
&gt;&gt; &gt;&gt; _______________________________________________<br>
&gt;&gt; &gt;&gt; Users mailing list<br>
&gt;&gt; &gt;&gt; <a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
&gt;&gt; &gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; _______________________________________________<br>
&gt;&gt; &gt; Users mailing list<br>
&gt;&gt; &gt; <a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
&gt;&gt; &gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt; &gt;<br>
&gt;<br>
&gt;<br>
</div></div></blockquote></div><br></div>