<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Sun, Jul 2, 2017 at 2:08 AM, Mike DePaulo <span dir="ltr">&lt;<a href="mailto:mikedep333@gmail.com" target="_blank">mikedep333@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi everyone,<br>
<br>
I have ovirt 4.1.1/4.1.2 running on 3 hosts with a gluster hosted engine.<br>
<br>
I was working on setting up a network for gluster storage and<br>
migration. The addresses for it will be 10.0.20.x, rather than<br>
192.168.1.x for the management network.  However, I switched gluster<br>
storage and migration back over to the management network.<br>
<br>
I updated and rebooted one of my hosts (death-star, 10.0.20.52) and on<br>
reboot, the glusterd service would start, but wouldn&#39;t seem to work.<br>
The engine webgui reported that its bricks were down, and commands<br>
like this would fail:<br>
<br>
[root@death-star glusterfs]# gluster pool list<br>
pool list: failed<br>
[root@death-star glusterfs]# gluster peer status<br>
peer status: failed<br>
<br>
Upon further investigation, I had under /var/lib/glusterd/peers/ the 2<br>
existing UUID files, plus a new 3rd one:<br>
[root@death-star peers]# cat 10.0.20.53<br>
uuid=00000000-0000-0000-0000-<wbr>000000000000<br>
state=0<br>
hostname1=10.0.20.53<br>
<br>
I moved that file out of there, restarted glusterd, and now gluster is<br>
working again.<br>
<br>
I am guessing that this is a bug. Let me know if I should attach other<br>
log files; I am not sure which ones.<br>
<br>
And yes, 10.0.20.53 is the IP of one of the other hosts.<br>
<br>
-Mike<br></blockquote></div><br></div><div class="gmail_extra">Hello,<br></div><div class="gmail_extra">I&#39;m trying to accomplish the same.<br></div><div class="gmail_extra">See also comments here at my answer today:<br></div><div class="gmail_extra"><a href="http://lists.ovirt.org/pipermail/users/2017-July/082990.html">http://lists.ovirt.org/pipermail/users/2017-July/082990.html</a><br><br></div><div class="gmail_extra">So at the end you rollback?<br><br>Can you list with detail what were your modifications and operating steps with hosts, before trying to restart with the new network config?<br>Did you try to set the new network as gluster role in oVirt?<br><br>I&#39;m using 4 volumes at the moment: data, engine, iso, export and based on some analysis that I&#39;m doing right now, one should modify at least these files for each vol_name accordingly under /var/lib/glusterd on the 3 hosts:<br><br>./vols/vol_name/info<br>./vols/vol_name/bricks/ovirt01.localdomain.local:-gluster-brick1-engine<br>./vols/vol_name/bricks/ovirt02.localdomain.local:-gluster-brick1-engine<br>./vols/vol_name/bricks/ovirt03.localdomain.local:-gluster-brick1-engine<br>./vols/vol_name/trusted-engine.tcp-fuse.vol<br>./vols/vol_name/engine.tcp-fuse.vol<br><br></div><div class="gmail_extra">plus one has to rename 3 of these files themselves. Suppose hostnames are ovirtN.localdomain.local and that you decide to assign hostname glovirtN.localdomain.local to the interfaces on the new gluster network, they should become:<br><br>./vols/vol_name/bricks/glovirt01.localdomain.local:-gluster-brick1-engine<br>./vols/vol_name/bricks/glovirt02.localdomain.local:-gluster-brick1-engine<br>./vols/vol_name/bricks/glovirt03.localdomain.local:-gluster-brick1-engine</div><div class="gmail_extra"><br><br>And also change these files on each node (with related uid files of the other two nodes)s:<br><br>./peers/ec81a04c-a19c-4d31-9d82-7543cefe79f3<br>./peers/e9717281-a356-42aa-a579-a4647a29a0bc<br>./glustershd/glustershd-server.vol<br><br></div><div class="gmail_extra">I see no problems for the migration network chenage though. I did it, changing role in check box under Cluster --&gt; Default --&gt; Logical Networks subpane --&gt; Manage Networks<br></div><div class="gmail_extra">You have to assign an ip to the interface for every host in Hosts --&gt; Network Interfaces --&gt; Setup Host Networks<br><br></div><div class="gmail_extra">Gianluca<br></div></div>