<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Wed, Jan 17, 2018 at 9:28 AM, Fred Rolland <span dir="ltr">&lt;<a href="mailto:frolland@redhat.com" target="_blank">frolland@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div>Hi,<br><br></div>I tested uploading an ISO to Gluster on my setup and it worked fine.<br><br></div><div><br></div></div></blockquote><div>Ok. </div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div></div><div>Are you seeing any other issues with your Gluster setup?</div><div>Creating regular disks, copy/move disks to this SD?</div><div><br></div><div>Thanks,</div><div>Fred</div></div></blockquote><div><br></div><div>Nothing particular.</div><div>Indeed it is a nested environment and not with great performances, but it doesn&#39;t have particular problems.</div><div>At this moment I have 3 VMs defined on this SD and one of them is powered on: I just created another 3Gb disk on it and then formatted a file system without problems</div><div><br></div><div>If I try to copy from engine VM (that is on its engine gluster domain) to this VM (that is on data gluster domain)</div><div><br></div><div>First I create a 2Gb file on hosted engine vm, so the only I/O is on engine gluster volume:</div><div><br></div><div><div>[root@ovengine ~]# time dd if=/dev/zero bs=1024k count=2048 of=/testfile</div><div>2048+0 records in</div><div>2048+0 records out</div><div>2147483648 bytes (2.1 GB) copied, 98.1768 s, 21.9 MB/s</div><div><br></div><div>real<span style="white-space:pre">        </span>1m38.188s</div><div>user<span style="white-space:pre">        </span>0m0.023s</div><div>sys<span style="white-space:pre">        </span>0m14.687s</div><div>[root@ovengine ~]# </div></div><div><br></div><div>Then I copy this file from the engine VM to the CentOS 6 VM with its disk on data gluster volume.</div><div><br></div><div><div>[root@ovengine ~]# time dd if=/testfile bs=1024k count=2048 | gzip | ssh 192.168.150.111 &quot;gunzip | dd of=/testfile bs=1024k&quot;</div><div><a href="mailto:root@192.168.150.111">root@192.168.150.111</a>&#39;s password: </div><div>2048+0 records in</div><div>2048+0 records out</div><div>2147483648 bytes (2.1 GB) copied, 41.9347 s, 51.2 MB/s</div><div>0+62205 records in</div><div>0+62205 records out</div><div>2147483648 bytes (2.1 GB) copied, 39.138 s, 54.9 MB/s</div><div><br></div><div>real<span style="white-space:pre">        </span>0m42.634s</div><div>user<span style="white-space:pre">        </span>0m29.727s</div><div>sys<span style="white-space:pre">        </span>0m5.421s</div><div>[root@ovengine ~]# </div></div><div><br></div><div><div>[root@centos6 ~]# ll /testfile </div><div>-rw-r--r--. 1 root root 2147483648 Jan 17 11:47 /testfile</div><div>[root@centos6 ~]# </div></div><div><br></div><div><br></div><div>And right after the end of the command, also at gluster point of view all seems consistent (I see also replication go at about 50MB/s):</div><div><br></div><div><div>[[root@ovirt01 ovirt-imageio-daemon]# gluster volume heal data info</div><div>Brick ovirt01.localdomain.local:/gluster/brick2/data</div><div>Status: Connected</div><div>Number of entries: 0</div><div><br></div><div>Brick ovirt02.localdomain.local:/gluster/brick2/data</div><div>Status: Connected</div><div>Number of entries: 0</div><div><br></div><div>Brick ovirt03.localdomain.local:/gluster/brick2/data</div><div>Status: Connected</div><div>Number of entries: 0</div><div><br></div><div>[root@ovirt01 ovirt-imageio-daemon]# gluster volume heal engine info</div><div>Brick ovirt01.localdomain.local:/gluster/brick1/engine</div><div>Status: Connected</div><div>Number of entries: 0</div><div><br></div><div>Brick ovirt02.localdomain.local:/gluster/brick1/engine</div><div>Status: Connected</div><div>Number of entries: 0</div><div><br></div><div>Brick ovirt03.localdomain.local:/gluster/brick1/engine</div><div>Status: Connected</div><div>Number of entries: 0</div><div><br></div><div>[root@ovirt01 ovirt-imageio-daemon]# </div></div><div><br></div><div>Could it be in any way related to the fact that this environment has been created in 4.0.5 then gradually updated to 4.2.1rc1?</div><div>The detailed history:</div><div><br></div><div><div>Nov 2016 installed 4.0.5 with ansible and gdeploy</div><div>Jun 2017 upgrade to 4.1.2 </div><div>Jul 2017 upgrade to 4.1.3</div><div>Nov 2017 upgrade to 4.1.7</div><div>Dec 2017 upgrade to 4.2.0</div></div><div>Jan 2018 upgrade to 4.2.1rc1</div><div><br></div><div>I had a problem with enabling libgfapi due to the connection to gluster volumes being of type host:volume instead of the default now node:/volume</div><div>see here:</div><div><a href="https://bugzilla.redhat.com/show_bug.cgi?id=1530261">https://bugzilla.redhat.com/show_bug.cgi?id=1530261</a><br></div><div><br></div><div>just a guess...</div><div><br></div><div>Thanks,</div><div>Gianluca</div></div></div></div>