<div dir="ltr"><div class="gmail_quote"><div dir="ltr">On Wed, Nov 15, 2017 at 8:58 AM Misak Khachatryan &lt;<a href="mailto:kmisak@gmail.com">kmisak@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
<br>
will it be a more clean approach? I can&#39;t tolerate full stop of all<br>
VMs just to enable it, seems too disastrous for real production<br>
environment. Will it be some migration mechanisms in future?<br></blockquote><div><br></div><div>You can enable it per vm, you don&#39;t need to stop all of them. But I think</div><div>we do not support upgrading a machine with running vms, so upgrading </div><div>requires:</div><div><br></div><div>1. migrating vms from the host you want to upgrade</div><div>2. upgrading the host</div><div>3. stopping the vm you want to upgrade to libgfapi</div><div>4. starting this vm on the upgraded host</div><div><br></div><div>Theoretically qemu could switch from one disk to another, but I&#39;m not</div><div>sure this is supported when switching to the same disk using different</div><div>transports. I know it is not supported now to mirror a network drive to</div><div>another network drive.</div><div><br></div><div>The old disk is using:</div><div><br></div><div><div>            &lt;disk device=&quot;disk&quot; snapshot=&quot;no&quot; type=&quot;file&quot;&gt;</div><div>                &lt;source file=&quot;/rhev/data-center/mnt/server:_volname/sd_id/images/img_id/vol_id&quot;/&gt;</div><div>                &lt;target bus=&quot;virtio&quot; dev=&quot;vda&quot;/&gt;</div><div>                &lt;driver cache=&quot;none&quot; error_policy=&quot;stop&quot; io=&quot;threads&quot; name=&quot;qemu&quot; type=&quot;raw&quot;/&gt;</div><div>            &lt;/disk&gt;</div></div><div><br></div><div>The new disk should use:</div><div><br></div><div><div>            &lt;disk device=&quot;disk&quot; snapshot=&quot;no&quot; type=&quot;network&quot;&gt;                                                                                                                                 </div><div>                &lt;source name=&quot;volname/sd_id/images/img_id/vol_id&quot; protocol=&quot;gluster&quot;&gt;</div><div>                    &lt;host name=&quot;1.2.3.4&quot; port=&quot;0&quot; transport=&quot;tcp&quot;/&gt;</div><div>                &lt;/source&gt;</div><div>                &lt;driver cache=&quot;none&quot; error_policy=&quot;stop&quot; io=&quot;threads&quot; name=&quot;qemu&quot; type=&quot;raw&quot;/&gt;</div><div>            &lt;/disk&gt;</div></div><div><br></div><div>Adding qemu-block mailing list.</div><div><br></div><div>Nir</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Best regards,<br>
Misak Khachatryan<br>
<br>
<br>
On Fri, Nov 10, 2017 at 12:35 AM, Darrell Budic &lt;<a href="mailto:budic@onholyground.com" target="_blank">budic@onholyground.com</a>&gt; wrote:<br>
&gt; You do need to stop the VMs and restart them, not just issue a reboot. I<br>
&gt; havn’t tried under 4.2 yet, but it works in 4.1.6 that way for me.<br>
&gt;<br>
&gt; ________________________________<br>
&gt; From: Alessandro De Salvo &lt;<a href="mailto:Alessandro.DeSalvo@roma1.infn.it" target="_blank">Alessandro.DeSalvo@roma1.infn.it</a>&gt;<br>
&gt; Subject: Re: [ovirt-users] Enabling libgfapi disk access with oVirt 4.2<br>
&gt; Date: November 9, 2017 at 2:35:01 AM CST<br>
&gt; To: <a href="mailto:users@ovirt.org" target="_blank">users@ovirt.org</a><br>
&gt;<br>
&gt;<br>
&gt; Hi again,<br>
&gt;<br>
&gt; OK, tried to stop all the vms, except the engine, set engine-config -s<br>
&gt; LibgfApiSupported=true (for 4.2 only) and restarted the engine.<br>
&gt;<br>
&gt; When I tried restarting the VMs they are still not using gfapi, so it does<br>
&gt; not seem to help.<br>
&gt;<br>
&gt; Cheers,<br>
&gt;<br>
&gt;<br>
&gt;     Alessandro<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; Il 09/11/17 09:12, Alessandro De Salvo ha scritto:<br>
&gt;<br>
&gt; Hi,<br>
&gt; where should I enable gfapi via the UI?<br>
&gt; The only command I tried was engine-config -s LibgfApiSupported=true but the<br>
&gt; result is what is shown in my output below, so it’s set to true for v4.2. Is<br>
&gt; it enough?<br>
&gt; I’ll try restarting the engine. Is it really needed to stop all the VMs and<br>
&gt; restart them all? Of course this is a test setup and I can do it, but for<br>
&gt; production clusters in the future it may be a problem.<br>
&gt; Thanks,<br>
&gt;<br>
&gt;    Alessandro<br>
&gt;<br>
&gt; Il giorno 09 nov 2017, alle ore 07:23, Kasturi Narra &lt;<a href="mailto:knarra@redhat.com" target="_blank">knarra@redhat.com</a>&gt; ha<br>
&gt; scritto:<br>
&gt;<br>
&gt; Hi ,<br>
&gt;<br>
&gt;     The procedure to enable gfapi is below.<br>
&gt;<br>
&gt; 1) stop all the vms running<br>
&gt; 2) Enable gfapi via UI or using engine-config command<br>
&gt; 3) Restart ovirt-engine service<br>
&gt; 4) start the vms.<br>
&gt;<br>
&gt; Hope you have not missed any !!<br>
&gt;<br>
&gt; Thanks<br>
&gt; kasturi<br>
&gt;<br>
&gt; On Wed, Nov 8, 2017 at 11:58 PM, Alessandro De Salvo<br>
&gt; &lt;<a href="mailto:Alessandro.DeSalvo@roma1.infn.it" target="_blank">Alessandro.DeSalvo@roma1.infn.it</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; I&#39;m using the latest 4.2 beta release and want to try the gfapi access,<br>
&gt;&gt; but I&#39;m currently failing to use it.<br>
&gt;&gt;<br>
&gt;&gt; My test setup has an external glusterfs cluster v3.12, not managed by<br>
&gt;&gt; oVirt.<br>
&gt;&gt;<br>
&gt;&gt; The compatibility flag is correctly showing gfapi should be enabled with<br>
&gt;&gt; 4.2:<br>
&gt;&gt;<br>
&gt;&gt; # engine-config -g LibgfApiSupported<br>
&gt;&gt; LibgfApiSupported: false version: 3.6<br>
&gt;&gt; LibgfApiSupported: false version: 4.0<br>
&gt;&gt; LibgfApiSupported: false version: 4.1<br>
&gt;&gt; LibgfApiSupported: true version: 4.2<br>
&gt;&gt;<br>
&gt;&gt; The data center and cluster have the 4.2 compatibility flags as well.<br>
&gt;&gt;<br>
&gt;&gt; However, when starting a VM with a disk on gluster I can still see the<br>
&gt;&gt; disk is mounted via fuse.<br>
&gt;&gt;<br>
&gt;&gt; Any clue of what I&#39;m still missing?<br>
&gt;&gt;<br>
&gt;&gt; Thanks,<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;    Alessandro<br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Users mailing list<br>
&gt;&gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
&gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Users mailing list<br>
&gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Users mailing list<br>
&gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Users mailing list<br>
&gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;<br>
_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
</blockquote></div></div>