<div><br></div><div><p class="MsoNormal" style="line-height: 21px;"><span style="line-height: 1.5;">==============================<wbr>=====---</span></p><p class="MsoNormal" style="line-height: 21px;"><span style="line-height: 1.5;">&nbsp;&nbsp;</span><span lang="EN-US" style="line-height: 1.5;">&nbsp;###</span><span style="line-height: 1.5;">vdsm or supervdsm log &nbsp;report :</span></p><p class="MsoNormal" style="line-height: 21px;"><span lang="EN-US">&nbsp; &nbsp;&nbsp;</span><span style="line-height: 1.5;">MainProcess|jsonrpc.Executor<wbr>/7::ERROR::2016-11-01 11:07:00,178::supervdsmServer:<wbr>:96:<span style="background-color: rgb(255, 255, 0);">:SuperVdsm.ServerCallback:<wbr>:(wrapper) Error in getPathsStatus</span></span></p><p class="MsoNormal" style="line-height: 21px;"><span lang="EN-US">MainProcess|jsonrpc.Executor/4<wbr>::ERROR::2016-11-01 11:07:20,964::supervdsmServer:<wbr>:96::SuperVdsm.ServerCallback:<wbr>:(wrapper) Error in getPathsStatus</span></p></div><div><includetail><div>&nbsp;============================ &nbsp;some code info ------------&gt;</div><div>[root@horeba storage]# pwd</div><div>/usr/share/vdsm/storage</div><div><br></div><div><div>[root@horeba storage]# grep "getPathsStatus" -R ./</div><div>./devicemapper.py:def _getPathsStatus():</div><div>./devicemapper.py:def getPathsStatus():</div><div>./devicemapper.py: &nbsp; &nbsp;return getProxy().getPathsStatus()</div><div>./multipath.py: &nbsp; &nbsp;pathStatuses = devicemapper.getPathsStatus()</div></div><div><br></div><div><div>def _getPathsStatus():</div><div>&nbsp; &nbsp; cmd = [EXT_DMSETUP, "status"]</div><div>&nbsp; &nbsp; rc, out, err = misc.execCmd(cmd)</div><div>&nbsp; &nbsp; if rc != 0:</div><div>&nbsp; &nbsp; &nbsp; &nbsp; raise Exception("Could not get device statuses")</div><div><br></div><div>&nbsp; &nbsp; res = {}</div><div>&nbsp; &nbsp; for statusLine in out:</div><div>&nbsp; &nbsp; &nbsp; &nbsp; try:</div><div>&nbsp; &nbsp; &nbsp;<span style="background-color: rgb(255, 255, 0);"> &nbsp; &nbsp; &nbsp; devName, statusLine = statusLine.split(":", 1)</span></div><div>&nbsp; &nbsp; &nbsp; &nbsp; except ValueError:</div><div>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; if len(out) == 1:</div><div>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; # return an empty dict when status output is: No devices found</div><div>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; return res</div><div>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; else:</div><div>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; raise</div><div><br></div><div>&nbsp; &nbsp; &nbsp; &nbsp; for m in PATH_STATUS_RE.finditer(statusLine):</div><div>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; devNum, status = m.groups()</div><div>&nbsp; &nbsp; &nbsp; &nbsp;<span style="background-color: rgb(255, 255, 0);"> &nbsp; &nbsp; physdevName = findDev(*[int(i) for i in devNum.split(":")])</span></div><div><span style="background-color: rgb(255, 255, 0);">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; res[physdevName] = {"A": "active", "F": "failed"}[status]</span></div><div><br></div><div>&nbsp; &nbsp; return res</div><div><div style="line-height: 21px;">def getPathsStatus():</div><div style="line-height: 21px;">&nbsp; &nbsp; return getProxy().getPathsStatus()</div></div><div>=============================================</div><div><span style="line-height: 1.5;">&nbsp; and flashcache dm device will error &nbsp;when use&nbsp;</span><span style="line-height: 1.5;">getPathsStatus() function . &nbsp;could change code not check flashcache dm device ?</span></div></div><div><span style="line-height: 1.5;">========================================dmsetup info -----------&gt;</span></div><div><div>[root@horebc ~]# dmsetup status</div><div>flash_sdb: 0 976771072 flashcache stats:&nbsp;</div><div>&nbsp; &nbsp; &nbsp; &nbsp; reads(1388761), writes(15548965)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; read hits(1235671), read hit percent(88)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; write hits(6539144) write hit percent(42)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; dirty write hits(21372) dirty write hit percent(0)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; replacement(147711), write replacement(524881)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; write invalidates(0), read invalidates(1)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; pending enqueues(810), pending inval(810)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; metadata dirties(15196370), metadata cleans(15196322)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; metadata batch(30087377) metadata ssd writes(305315)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; cleanings(15196322) fallow cleanings(48187)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; no room(337139) front merge(716153) back merge(14391395)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; force_clean_block(0)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; disk reads(153093), disk writes(15530535) ssd reads(16431974) ssd writes(15672221)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; uncached reads(3714), uncached writes(334235), uncached IO requeue(0)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; disk read errors(0), disk write errors(0) ssd read errors(0) ssd write errors(0)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; uncached sequential reads(0), uncached sequential writes(0)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; pid_adds(0), pid_dels(0), pid_drops(0) pid_expiry(0)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; lru hot blocks(12158976), lru warm blocks(12158976)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; lru promotions(0), lru demotions(0)</div><div>dedbd337--ca66--43ff--b78c--4e9347682a9c-metadata: 0 1048576 linear&nbsp;</div><div>dedbd337--ca66--43ff--b78c--4e9347682a9c-leases: 0 4194304 linear&nbsp;</div><div>23137643634356633: 0 2147483648 multipath 2 0 0 0 1 1 A 0 1 2 8:128 A 0 0 1&nbsp;</div><div>dedbd337--ca66--43ff--b78c--4e9347682a9c-master: 0 2097152 linear&nbsp;</div><div>dedbd337--ca66--43ff--b78c--4e9347682a9c-inbox: 0 262144 linear&nbsp;</div><div>dedbd337--ca66--43ff--b78c--4e9347682a9c-outbox: 0 262144 linear&nbsp;</div><div><br></div><div><div>[root@horebc ~]# dmsetup info -C</div><div>Name &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Maj Min Stat Open Targ Event &nbsp;UUID &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;</div><div>flash_sdb &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 253 &nbsp; 0 L--w &nbsp; &nbsp;1 &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;&nbsp;</div><div>dedbd337--ca66--43ff--b78c--4e9347682a9c-metadata 253 &nbsp; 4 L--w &nbsp; &nbsp;0 &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp;0 LVM-zSZKhQXbs2Ms5ceM2Wlt3p46BgsS8gGIGwifAPyYj9GmjFzCmJkIf9vFFFHn9n7V</div><div>dedbd337--ca66--43ff--b78c--4e9347682a9c-leases &nbsp; 253 &nbsp; 6 L--w &nbsp; &nbsp;0 &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp;0 LVM-zSZKhQXbs2Ms5ceM2Wlt3p46BgsS8gGIVSCllWEYYKziY1bSeiTL0dAKAd27JqDT</div><div>23137643634356633 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 253 &nbsp; 3 L--w &nbsp; &nbsp;6 &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp;0 mpath-23137643634356633 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;&nbsp;</div><div>dedbd337--ca66--43ff--b78c--4e9347682a9c-master &nbsp; 253 &nbsp; 9 L--w &nbsp; &nbsp;0 &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp;0 LVM-zSZKhQXbs2Ms5ceM2Wlt3p46BgsS8gGIiEnFZklRhZfFZ4YRdYWFImKWsUGr5pHg</div><div>dedbd337--ca66--43ff--b78c--4e9347682a9c-inbox &nbsp; &nbsp;253 &nbsp; 8 L--w &nbsp; &nbsp;0 &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp;0 LVM-zSZKhQXbs2Ms5ceM2Wlt3p46BgsS8gGILobNK8KRD4SzDWyg50aG7jGdcNAi3KNw</div><div>dedbd337--ca66--43ff--b78c--4e9347682a9c-outbox &nbsp; 253 &nbsp; 5 L--w &nbsp; &nbsp;0 &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp;0 LVM-zSZKhQXbs2Ms5ceM2Wlt3p46BgsS8gGIAvbT8CLegbVL802bG3QgLtH7I7llmS6R</div><div>flash_sdf &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 253 &nbsp; 2 L--w &nbsp; &nbsp;1 &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;&nbsp;</div><div>dedbd337--ca66--43ff--b78c--4e9347682a9c-ids &nbsp; &nbsp; &nbsp;253 &nbsp; 7 L--w &nbsp; &nbsp;1 &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp;0 LVM-zSZKhQXbs2Ms5ceM2Wlt3p46BgsS8gGIIkeaFaWvxa9wbHy7WrfiXNsP4F2J3gg0</div><div>flash_sdd &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 253 &nbsp; 1 L--w &nbsp; &nbsp;1 &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;</div></div><div style="line-height: 1.5;"><br></div></div><div style="line-height: 1.5;">====================================================================</div><div style="line-height: 1.5;">and flashcache dm have no UUID &nbsp;,I think it can export it &nbsp;before checking .</div><div><br></div><div><span style="line-height: 1.5;"><br></span></div><div><span style="line-height: 1.5;">humaorong&nbsp;</span></div><div><span style="line-height: 1.5;">&nbsp; 2016-11-25</span></div><div><span style="line-height: 1.5;"><br></span></div><div><span style="line-height: 1.5;">&nbsp; &nbsp;</span></div><div>&nbsp;</div><div style="font:Verdana normal 14px;color:#000;"><div style="FONT-SIZE: 12px;FONT-FAMILY: Arial Narrow;padding:2px 0 2px 0;">------------------&nbsp;Original&nbsp;------------------</div><div style="FONT-SIZE: 12px;background:#efefef;padding:8px;"><div id="menu_sender"><b>From: </b>&nbsp;"胡茂荣"&lt;maorong.hu@horebdata.cn&gt;;</div><div><b>Date: </b>&nbsp;Fri, Nov 25, 2016 01:18 PM</div><div><b>To: </b>&nbsp;"Sahina Bose"&lt;sabose@redhat.com&gt;; <wbr></div><div><b>Cc: </b>&nbsp;"Maor Lipchuk"&lt;mlipchuk@redhat.com&gt;; "Jeff Nelson"&lt;jenelson@redhat.com&gt;; "users"&lt;users@ovirt.org&gt;; <wbr></div><div><b>Subject: </b>&nbsp;Re: [ovirt-users] can not use iscsi storage type on ovirtandGlusterfshyper-converged environment</div></div><div>&nbsp;</div><div>&nbsp; </div><div>&nbsp; &nbsp; I find this problem more info : </div><div>&nbsp; &nbsp; <span style="line-height: 1.5;">&nbsp; I use flashcache &nbsp;on ovirt hosts , have dm device in /dev/mapper/ :</span></div><div><br></div><div><div>[root@horeba init.d]# dmsetup info -C &nbsp; &nbsp; <span style="line-height: 1.5;">(and I set them in multipath blacklist )</span></div><div>Name &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Maj Min Stat Open Targ Event &nbsp;UUID &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;</div><div>flash_sdb &nbsp; &nbsp; &nbsp; &nbsp;253 &nbsp; 0 L--w &nbsp; &nbsp;0 &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; </div><div>flash_sdf &nbsp; &nbsp; &nbsp; &nbsp;253 &nbsp; 2 L--w &nbsp; &nbsp;0 &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; </div><div>flash_sdd &nbsp; &nbsp; &nbsp; &nbsp;253 &nbsp; 1 L--w &nbsp; &nbsp;0 &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp;0 &nbsp; </div><div>[root@horeba init.d]# multipath -l &nbsp;</div><div>[root@horeba init.d]# </div><div>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; </div><div>[root@horeba init.d]# ll /dev/mapper/</div><div>total 0</div><div>crw------- 1 root root 10, 236 Nov 25 10:09 control</div><div>lrwxrwxrwx 1 root root &nbsp; &nbsp; &nbsp; 7 Nov 25 12:51 flash_sdb -&gt; ../dm-0</div><div>lrwxrwxrwx 1 root root &nbsp; &nbsp; &nbsp; 7 Nov 25 12:51 flash_sdd -&gt; ../dm-1</div><div>lrwxrwxrwx 1 root root &nbsp; &nbsp; &nbsp; 7 Nov 25 12:51 flash_sdf -&gt; ../dm-2</div></div><div>&nbsp; &nbsp; </div><div>&nbsp; on this condition , ovirt UI add <span style="line-height: 1.5;">&nbsp;</span><span style="line-height: 1.5;">iscsi type storage</span><span style="line-height: 1.5;">&nbsp; will fail .</span></div><div><br></div><div>&nbsp; &nbsp;If I delete the flashcache device &nbsp;/dev/mapper/flash_* &nbsp;, ovirt UI &nbsp;add iscsi type storage &nbsp;have no problem . &nbsp;</div><div>&nbsp; </div><div>&nbsp; &nbsp;I need flashcache for using ssd cache on my environment , &nbsp;how can I use iscsi type storage on this environment , please help me , Thanks!</div><div><div>&nbsp; &nbsp;</div><div>&nbsp;</div><div style="font:Verdana normal 14px;color:#000;"><div style="FONT-SIZE: 12px;FONT-FAMILY: Arial Narrow;padding:2px 0 2px 0;">------------------ Original ------------------</div><div style="FONT-SIZE: 12px;background:#efefef;padding:8px;"><div id="menu_sender"><b>From: </b>&nbsp;"Sahina Bose"&lt;sabose@redhat.com&gt;;</div><div><b>Date: </b>&nbsp;Thu, Nov 3, 2016 05:54 PM</div><div><b>To: </b>&nbsp;"胡茂荣"&lt;maorong.hu@horebdata.cn&gt;; <wbr></div><div><b>Cc: </b>&nbsp;"Maor Lipchuk"&lt;mlipchuk@redhat.com&gt;; "Jeff Nelson"&lt;jenelson@redhat.com&gt;; "users"&lt;users@ovirt.org&gt;; <wbr></div><div><b>Subject: </b>&nbsp;Re: [ovirt-users] can not use iscsi storage type on ovirtandGlusterfshyper-converged environment</div></div><div>&nbsp;</div><div dir="ltr"><div>A wild guess, not sure if it is related - can you check if multipathd service is enabled. If you set up your oVirt-Gluster hyperconverged environment via gdeploy, multipathd service is disabled and the /etc/multipath.conf is edited to blacklist all devices - this was to fix <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1303940">https://bugzilla.redhat.com/show_bug.cgi?id=1303940</a><br><br></div>Since you mention you're unable to add iscsi storage only in this environment, thought it's worth checking.<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Nov 3, 2016 at 6:40 AM, 胡茂荣 <span dir="ltr">&lt;<a href="mailto:maorong.hu@horebdata.cn" target="_blank">maorong.hu@horebdata.cn</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><span style="line-height:1.5"><br></span></div><div><span style="line-height:1.5">&nbsp; &nbsp; &nbsp;my &nbsp;</span><span style="line-height:1.5">&nbsp;</span><span style="line-height:1.5">environment rpm &nbsp;are :</span></div><div><u></u><div>&nbsp;[root@horeba ~]# rpm -q vdsm</div><div>vdsm-4.18.13-1.el7.centos.x86_<wbr>64</div><div><br></div><div><div>[root@horeba ~]# rpm -aq | grep ovirt</div><div>ovirt-vmconsole-host-1.0.4-1.<wbr>el7.centos.noarch</div><div>ovirt-imageio-common-0.4.0-1.<wbr>el7.noarch</div><div>ovirt-hosted-engine-setup-2.0.<wbr>2.2-1.el7.centos.noarch</div><div>ovirt-imageio-daemon-0.4.0-1.<wbr>el7.noarch</div><div>ovirt-engine-appliance-4.0-<wbr>20160928.1.el7.centos.noarch</div><div>ovirt-vmconsole-1.0.4-1.el7.<wbr>centos.noarch</div><div>ovirt-host-deploy-1.5.2-1.el7.<wbr>centos.noarch</div><div>ovirt-hosted-engine-ha-2.0.4-<wbr>1.el7.centos.noarch</div><div>ovirt-release40-4.0.4-1.noarch</div><div>ovirt-setup-lib-1.0.2-1.el7.<wbr>centos.noarch</div><div>ovirt-engine-sdk-python-3.6.9.<wbr>1-1.el7.centos.noarch</div></div><div><br></div><div>&nbsp; and I test if not on '<span style="line-height:1.5">&nbsp;</span><span style="line-height:1.5">ovirt and Glusterfs hyper-converged environment </span><span style="line-height:1.5">' , &nbsp;ovirt WEB UI &nbsp;add </span>iscsi storage &nbsp;work ok .</div><div><br></div><div>&nbsp;</div><div style="font:Verdana normal 14px;color:#000"><div style="FONT-SIZE:12px;FONT-FAMILY:Arial Narrow;padding:2px 0 2px 0">------------------ Original --<wbr>----------------</div><div style="FONT-SIZE:12px;background:#efefef;padding:8px"><div id="m_7048953968785441569menu_sender"><b>From: </b>&nbsp;"Maor Lipchuk"&lt;<a href="mailto:mlipchuk@redhat.com" target="_blank">mlipchuk@redhat.com</a>&gt;;</div><div><b>Date: </b>&nbsp;Wed, Nov 2, 2016 07:37 PM</div><div><b>To: </b>&nbsp;"胡茂荣"&lt;<a href="mailto:maorong.hu@horebdata.cn" target="_blank">maorong.hu@horebdata.cn</a><wbr>&gt;; </div><div><b>Cc: </b>&nbsp;"users"&lt;<a href="mailto:users@ovirt.org" target="_blank">users@ovirt.org</a>&gt;; "Jeff Nelson"&lt;<a href="mailto:jenelson@redhat.com" target="_blank">jenelson@redhat.com</a>&gt;; "Nir Soffer"&lt;<a href="mailto:nsoffer@redhat.com" target="_blank">nsoffer@redhat.com</a>&gt;; </div><div><div class="h5"><div><b>Subject: </b>&nbsp;Re: [ovirt-users] can not use iscsi storage type on ovirtandGlusterfs hyper-converged environment</div></div></div></div><div><div class="h5"><div>&nbsp;</div><div dir="ltr">Thanks for the logs,<div><br></div><div>What kind of VDSM version are you using? </div><div>&nbsp; &nbsp; "<span style="color:rgb(0,0,0);white-space:pre-wrap">rpm -q vdsm"</span></div><div><span style="color:rgb(0,0,0);white-space:pre-wrap">There seems to be a similar issue which was reported recently in the VDSM area</span></div><div><span style="color:rgb(0,0,0);white-space:pre-wrap"> (see </span><font color="#000000"><span style="white-space:pre-wrap"><a href="https://bugzilla.redhat.com/show_bug.cgi?id=1197292" target="_blank">https://bugzilla.redhat.com/<wbr>show_bug.cgi?id=1197292</a>)</span></font></div><div><span style="color:rgb(0,0,0);white-space:pre-wrap">It should be fixed in later versions of VDSM </span><span style="color:rgb(0,0,0);white-space:pre-wrap">vdsm-4.16.12-2.el7ev.x86_64</span></div><div><span style="color:rgb(0,0,0);white-space:pre-wrap">Adding also Nir and Jeff to the thread, if they have any insights</span></div><div><span style="color:rgb(0,0,0);white-space:pre-wrap"><br></span></div><div><span style="color:rgb(0,0,0);white-space:pre-wrap">Regards,</span></div><div><span style="color:rgb(0,0,0);white-space:pre-wrap">Maor</span></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Nov 2, 2016 at 4:11 AM, 胡茂荣 <span dir="ltr">&lt;<a href="mailto:maorong.hu@horebdata.cn" target="_blank">maorong.hu@horebdata.cn</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><br></div><div><u></u><div>&nbsp;Hi <span style="line-height:1.5">Maor:</span></div><div><span style="line-height:1.5">&nbsp; &nbsp; &nbsp; vdsm/supervdsm/engine log on attachment .&nbsp; I mkfs.xfs the lun block device and mount to /mnt , dd write &nbsp;,dmesg not report error ,dd result is ok :</span></div><div><span style="line-height:1.5">&nbsp; &nbsp; </span></div><div><div>/dev/sdi &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;50G &nbsp; 33M &nbsp; 50G &nbsp; 1% /mnt<span style="line-height:1.5">&nbsp;</span></div><div><span style="line-height:1.5"><br></span></div><div>[root@horebc mnt]# for i in `seq 3`; do dd if=/dev/zero of=./file &nbsp; bs=1G count=1 oflag=direct ; done</div><div>1+0 records in</div><div>1+0 records out</div><div>1073741824 bytes (1.1 GB) copied, 13.3232 s, 80.6 MB/s</div><div>1+0 records in</div><div>1+0 records out</div><div>1073741824 bytes (1.1 GB) copied, 9.89988 s, 108 MB/s</div><div>1+0 records in</div><div>1+0 records out</div><div>1073741824 bytes (1.1 GB) copied, 14.0143 s, 76.6 MB/s </div><div>&nbsp;</div><div>&nbsp; &nbsp;my envirnment &nbsp;have three &nbsp;network segments (hosts have 3 network segments ) :</div><div>&nbsp; &nbsp; &nbsp; &nbsp;engine &nbsp;and glusterfs mount : 192.168.11.X/24 &nbsp; </div><div>&nbsp; &nbsp; &nbsp; &nbsp; glusterfs brick : 192.168.10.x/24</div><div>&nbsp; &nbsp; &nbsp; &nbsp; iscsi : <a href="http://192.168.1.0/24" target="_blank">192.168.1.0/24</a> &nbsp;</div><div><br></div><div style="line-height:1.5">&nbsp; &nbsp; and I add <a href="http://192.168.1.0/24" target="_blank">192.168.1.0/24</a> to engine vm , &nbsp;ovirt web UI report the same error .</div></div><div style="line-height:1.5"><br></div><div style="line-height:1.5">&nbsp;humaorong </div><div style="line-height:1.5">&nbsp; 2016-11-2</div><div style="line-height:1.5"><br></div><div style="font:Verdana normal 14px;color:#000"><div style="FONT-SIZE:12px;FONT-FAMILY:Arial Narrow;padding:2px 0 2px 0">------------------ Original --<wbr>----------------</div><div style="FONT-SIZE:12px;background:#efefef;padding:8px"><div id="m_7048953968785441569m_-8948992772911632279menu_sender"><b>From: </b>&nbsp;"Maor Lipchuk"&lt;<a href="mailto:mlipchuk@redhat.com" target="_blank">mlipchuk@redhat.com</a>&gt;;</div><div><b>Date: </b>&nbsp;Tue, Nov 1, 2016 08:14 PM</div><div><b>To: </b>&nbsp;"胡茂荣"&lt;<a href="mailto:maorong.hu@horebdata.cn" target="_blank">maorong.hu@horebdata.cn</a><wbr>&gt;; </div><div><b>Cc: </b>&nbsp;"users"&lt;<a href="mailto:users@ovirt.org" target="_blank">users@ovirt.org</a>&gt;; </div><div><b>Subject: </b>&nbsp;Re: [ovirt-users] can not use iscsi storage type on ovirt andGlusterfs hyper-converged environment</div></div><div><div class="m_7048953968785441569h5"><div>&nbsp;</div><div dir="ltr"><h3 class="m_7048953968785441569m_-8948992772911632279gmail-iw"><span name="胡茂荣" class="m_7048953968785441569m_-8948992772911632279gmail-gD" style="font-size:12.8px;font-weight:normal">Hi 胡茂荣</span></h3><h3 class="m_7048953968785441569m_-8948992772911632279gmail-iw"><span style="font-weight:normal">Can u please also add the VDSM and engine logs.</span></h3><div><span style="font-weight:normal">If you try discover and connect to those luns directly from your Host does it work?</span></div><div><span style="font-weight:normal"><br></span></div><div><span style="font-weight:normal">Regards,</span></div><div><span style="font-weight:normal">Maor</span></div><table class="m_7048953968785441569m_-8948992772911632279gmail-cf m_7048953968785441569m_-8948992772911632279gmail-gJ" style="font-size:12.8px" cellpadding="0"><tbody><tr class="m_7048953968785441569m_-8948992772911632279gmail-acZ"><td class="m_7048953968785441569m_-8948992772911632279gmail-gF m_7048953968785441569m_-8948992772911632279gmail-gK" style="width:453.125px"><table class="m_7048953968785441569m_-8948992772911632279gmail-cf m_7048953968785441569m_-8948992772911632279gmail-ix" style="width:453.333px" cellpadding="0"><tbody><tr><td><h3 class="m_7048953968785441569m_-8948992772911632279gmail-iw"><br></h3></td></tr></tbody></table></td></tr></tbody></table></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Nov 1, 2016 at 6:12 AM, 胡茂荣 <span dir="ltr">&lt;<a href="mailto:maorong.hu@horebdata.cn" target="_blank">maorong.hu@horebdata.cn</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><u></u><u></u></div><div><br></div><div><br></div><div><span>&nbsp; &nbsp; on ovirt and Glusterfs hyper-converged environment , can not use iscsi storage type , UI report error: "</span><span style="line-height:1.5">Could not retrieve LUNs, please check your storage." , vdsm report :"</span><span style="line-height:1.5">VDSM hosted_engine_3 command failed: Error
block device action: ()</span><span style="line-height:1.5">" .</span></div><div><span style="line-height:1.5">&nbsp; &nbsp; but this block device alse login on centos 7 host :</span></div><div><span style="line-height:1.5">==============================<wbr>==============================<wbr>=</span></div><div><p class="MsoNormal"><span lang="EN-US">## lsscsi </span></p>

<p class="MsoNormal"><span lang="EN-US">[7:0:0:0]&nbsp;&nbsp; 
disk&nbsp; &nbsp; SCST_BIO
DEVFOR_OVIRT_rbd&nbsp; 221&nbsp; /dev/sdi</span></p><p class="MsoNormal"><span lang="EN-US">&nbsp; ## dmesg :</span></p><p class="MsoNormal"><span lang="EN-US"></span></p><p class="MsoNormal"><span lang="EN-US">[684521.131186] sd 7:0:0:0: [sdi] Attached
SCSI disk</span></p><p class="MsoNormal"><span style="line-height:1.5">==============================<wbr>=====---</span></p><p class="MsoNormal"><span style="line-height:1.5">&nbsp; </span><span style="line-height:1.5" lang="EN-US">&nbsp;###</span><span style="line-height:1.5">vdsm or supervdsm log &nbsp;report :</span></p><p class="MsoNormal"><span lang="EN-US">&nbsp; &nbsp; </span><span style="line-height:1.5">MainProcess|jsonrpc.Executor<wbr>/7::ERROR::2016-11-01
11:07:00,178::supervdsmServer:<wbr>:96:<span style="background-color:rgb(255,255,0)">:SuperVdsm.ServerCallback:<wbr>:(wrapper) Error in
getPathsStatus</span></span></p>

<p class="MsoNormal"><span lang="EN-US">MainProcess|jsonrpc.Executor/4<wbr>::ERROR::2016-11-01
11:07:20,964::supervdsmServer:<wbr>:96::SuperVdsm.ServerCallback:<wbr>:(wrapper) Error in
getPathsStatus</span></p><p class="MsoNormal"><span lang="EN-US">&nbsp; &nbsp;</span><span style="line-height:1.5">jsonrpc.Executor/4::DEBUG::20<wbr>16-11-01
11:07:04,251::iscsi::434::Stor<wbr>age.ISCSI::(rescan) Performing SCSI scan, this
will take up to 30 seconds</span></p>

<p class="MsoNormal"><span lang="EN-US">jsonrpc.Executor/5::INFO::2016<wbr>-11-01
11:07:19,413::iscsi::567::Stor<wbr>age.ISCSI::(setRpFilterIfNeede<wbr>d) <span style="background:yellow">iSCSI iface.net_ifacename not provided.
Skipping.</span></span></p><p class="MsoNormal"><span style="line-height:1.5">11:09:15,753::iscsiadm::119::S<wbr>torage.Misc.excCmd::(_runCmd)
/usr/bin/taskset --cpu-list 0-7 /usr/bin/sudo -n /usr/sbin/iscsiadm -m session
-R (</span><span style="line-height:1.5;background:yellow">cwd None</span><span style="line-height:1.5">)</span></p><p class="MsoNormal"><span style="line-height:1.5">==============================<wbr>========</span></p><p class="MsoNormal"><span style="line-height:1.5">&nbsp; &nbsp; &nbsp;the other info please t</span><span style="line-height:1.5">he attachment "bug-info.doc".</span></p><p class="MsoNormal"><span lang="EN-US">&nbsp; &nbsp; &nbsp;this prolem on ovirt3.6 and 4.X </span><span>&nbsp;</span><span>ovirt and Glusterfs hyper-converged environment </span><span style="line-height:1.5" lang="EN-US">. how can I use </span><span>iscsi storage type on </span><span>ovirt and Glusterfs hyper-converged environment .Please help me !</span></p><p class="MsoNormal"><span>&nbsp; &nbsp; humaorong</span></p><p class="MsoNormal"><font face="lucida Grande, Verdana">&nbsp; &nbsp;2016-11-1</font></p><p class="MsoNormal"><span><br></span></p><p class="MsoNormal"><span lang="EN-US"><br></span></p>

<p class="MsoNormal"><br></p>

<p class="MsoNormal"><span lang="EN-US">&nbsp;</span></p></div><div><span style="line-height:1.5">&nbsp; &nbsp; &nbsp; </span></div><br>______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman<wbr>/listinfo/users</a><br>
<br></blockquote></div><br></div>

</div></div></div><u></u></div></blockquote></div><br></div>

</div></div></div><u></u></div><br>______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a><br>
<br></blockquote></div><br></div>

</div></div></div><!--<![endif]--></includetail></div>