<div dir="ltr"><div>Hi Andrew,<br><br></div>Thanks for the update....that means HA can not work without VIP in the gluster,so better to use the glusterfs with the VIP to take over the ip...in case of any storage node failure...<br>
</div><div class="gmail_extra"><br><br><div class="gmail_quote">On Fri, Jul 4, 2014 at 12:35 PM, Andrew Lau <span dir="ltr">&lt;<a href="mailto:andrew@andrewklau.com" target="_blank">andrew@andrewklau.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Don&#39;t forget to take into consideration quroum, that&#39;s something<br>
people often forget<br>
<br>
The reason you&#39;re having the current happen, is gluster only uses the<br>
initial IP address to get the volume details. After that it&#39;ll connect<br>
directly to ONE of the servers, so with your 2 storage server case,<br>
50% chance it won&#39;t go to paused state.<br>
<br>
For the VIP, you could consider CTDB or keepelived, or even just using<br>
localhost (as your storage and compute are all on the same machine).<br>
For CTDB, checkout<br>
<a href="http://community.redhat.com/blog/2014/05/ovirt-3-4-glusterized/" target="_blank">http://community.redhat.com/blog/2014/05/ovirt-3-4-glusterized/</a><br>
<br>
I have a BZ open regarding gluster VMs going into paused state and not<br>
being resumable, so it&#39;s something you should also consider. My case,<br>
switch dies, gluster volume goes away, VMs go into paused state but<br>
can&#39;t be resumed. If you lose one server out of a cluster is a<br>
different story though.<br>
<a href="https://bugzilla.redhat.com/show_bug.cgi?id=1058300" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1058300</a><br>
<br>
HTH<br>
<div class="HOEnZb"><div class="h5"><br>
On Fri, Jul 4, 2014 at 11:48 AM, Punit Dambiwal &lt;<a href="mailto:hypunit@gmail.com">hypunit@gmail.com</a>&gt; wrote:<br>
&gt; Hi,<br>
&gt;<br>
&gt; Thanks...can you suggest me any good how to/article for the glusterfs with<br>
&gt; ovirt...<br>
&gt;<br>
&gt; One strange thing is if i will try both (compute &amp; storage) on the same<br>
&gt; node...the below quote not happen....<br>
&gt;<br>
&gt; ---------------------<br>
&gt;<br>
&gt; Right now, if 10.10.10.2 goes away, all your gluster mounts go away and your<br>
&gt; VMs get paused because the hypervisors can’t access the storage. Your<br>
&gt; gluster storage is still fine, but ovirt can’t talk to it because 10.10.10.2<br>
&gt; isn’t there.<br>
&gt; ---------------------<br>
&gt;<br>
&gt; Even the 10.10.10.2 goes down...i can still access the gluster mounts and no<br>
&gt; VM pause....i can access the VM via ssh...no connection failure.....the<br>
&gt; connection drop only in case of SPM goes down and the another node will<br>
&gt; elect as SPM(All the running VM&#39;s pause in this condition).<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On Fri, Jul 4, 2014 at 4:12 AM, Darrell Budic &lt;<a href="mailto:darrell.budic@zenfire.com">darrell.budic@zenfire.com</a>&gt;<br>
&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; You need to setup a virtual IP to use as the mount point, most people use<br>
&gt;&gt; keepalived to provide a virtual ip via vrrp for this. Setup something like<br>
&gt;&gt; 10.10.10.10 and use that for your mounts.<br>
&gt;&gt;<br>
&gt;&gt; Right now, if 10.10.10.2 goes away, all your gluster mounts go away and<br>
&gt;&gt; your VMs get paused because the hypervisors can’t access the storage. Your<br>
&gt;&gt; gluster storage is still fine, but ovirt can’t talk to it because 10.10.10.2<br>
&gt;&gt; isn’t there.<br>
&gt;&gt;<br>
&gt;&gt; If the SPM goes down, it the other hypervisor hosts will elect a new one<br>
&gt;&gt; (under control of the ovirt engine).<br>
&gt;&gt;<br>
&gt;&gt; Same scenarios if storage &amp; compute are on the same server, you still need<br>
&gt;&gt; a vip address for the storage portion to serve as the mount point so it’s<br>
&gt;&gt; not dependent on any one server.<br>
&gt;&gt;<br>
&gt;&gt; -Darrell<br>
&gt;&gt;<br>
&gt;&gt; On Jul 3, 2014, at 1:14 AM, Punit Dambiwal &lt;<a href="mailto:hypunit@gmail.com">hypunit@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; I have some HA related concern about glusterfs with Ovirt...let say i have<br>
&gt;&gt; 4 storage node with gluster bricks as below :-<br>
&gt;&gt;<br>
&gt;&gt; 1. 10.10.10.1 to 10.10.10.4 with 2 bricks each and i have distributed<br>
&gt;&gt; replicated architecture...<br>
&gt;&gt; 2. Now attached this gluster storge to ovrit-engine with the following<br>
&gt;&gt; mount point <a href="http://10.10.10.2/vol1" target="_blank">10.10.10.2/vol1</a><br>
&gt;&gt; 3. In my cluster i have 3 hypervisior hosts (10.10.10.5 to 10.10.10.7) SPM<br>
&gt;&gt; is on 10.10.10.5...<br>
&gt;&gt; 4. What happen if 10.10.10.2 will goes down.....can hypervisior host can<br>
&gt;&gt; still access the storage ??<br>
&gt;&gt; 5. What happen if SPM goes down ???<br>
&gt;&gt;<br>
&gt;&gt; Note :- What happen for point 4 &amp;5 ,If storage and Compute both working on<br>
&gt;&gt; the same server.<br>
&gt;&gt;<br>
&gt;&gt; Thanks,<br>
&gt;&gt; Punit<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Users mailing list<br>
&gt;&gt; <a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
&gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Users mailing list<br>
&gt; <a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;<br>
</div></div></blockquote></div><br></div>