<br><div class="gmail_quote">On Sun, Sep 23, 2012 at 8:41 AM, Itamar Heim <span dir="ltr">&lt;<a href="mailto:iheim@redhat.com" target="_blank">iheim@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="im">On 09/23/2012 05:33 PM, Josh Logan wrote:<br>
</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im">
<br>
On Sun, Sep 23, 2012 at 6:10 AM, Itamar Heim &lt;<a href="mailto:iheim@redhat.com" target="_blank">iheim@redhat.com</a><br></div><div><div class="h5">
&lt;mailto:<a href="mailto:iheim@redhat.com" target="_blank">iheim@redhat.com</a>&gt;&gt; wrote:<br>
<br>
    On 09/22/2012 08:58 AM, Josh Logan wrote:<br>
<br>
<br>
        I&#39;m currently setting up an ovirt cluster and so far it looks<br>
        good.  I<br>
        like the integration with Foreman <a href="http://theforeman.org/" target="_blank">http://theforeman.org/</a> .<br>
<br>
        I would like to use Ceph / rbd for my storage.  I saw some<br>
        mention of<br>
        patches coming in May, but I did not find any new posts.<br>
<br>
        What is the status of this work?  Is there some patches I can<br>
        try out?<br>
        I have a working Ceph cluster and a working ovirt cluster, I<br>
        just need a<br>
        way to bring them together.<br>
<br>
        Thanks, JOSH<br>
<br>
<br>
<br>
    I don&#39;t remember any active work on this right now (for sure nothing<br>
    like the gluster integration being done).<br>
    but iiuc, ceph provides posixfs support - did you try creating a<br>
    posixfs based storage domain?<br>
    (you would need a &quot;full&quot; host (not ovirt-node) to install ceph<br>
    client components on).<br>
<br>
    Thanks,<br>
        Itamar<br>
<br>
<br>
<br>
I am doing my work on Fedora 17 hosts, not ovirt-node, since I know this<br>
will need more OS support.<br>
<br>
There are a few different Ceph filesystems.  But the posix based one is<br>
the least ready for production.  The rbd filesystem is integrated into<br>
qemu and libvirt is the most suited for VM images.<br>
<br>
Are the Gluster patches available?  I would like to see what that<br>
feature looks like and if I can modify them for Ceph.<br>
If there is a better filesystem to investigate please let me know.<br>
<br>
Thanks, JOSH<br>
<br>
</div></div></blockquote>
<br>
gluster as a native storage domain (rather than posixfs)  is still in reviews (and has patches only for vdsm side).<br>
<a href="http://gerrit.ovirt.org/#/c/6856/" target="_blank">http://gerrit.ovirt.org/#/c/<u></u>6856/</a><br>
<br>
you can also use NFS in the meantime if relevant for ceph.<br>
<br>
</blockquote><div><br>Thanks for the pointer.  I&#39;ll follow that and see what I learn.<br><br>The vdsm side may be similar since both are network disk device.  There are only 2 steps needed to start up a VM with rbd.<br>
<br>qemu-img create -f rbd rbd:data/host1 10G<br><br>Then to start the image for qemu add -drive file=rbd:data/host1,if=none,id=drive-virtio-disk0,format=raw<br><br>or within libvirt:<br>    &lt;disk type=&#39;network&#39; device=&#39;disk&#39;&gt;<br>
      &lt;driver name=&#39;qemu&#39; type=&#39;raw&#39;/&gt;<br>      &lt;source protocol=&#39;rbd&#39; name=&#39;data/host1&#39;/&gt;<br>      &lt;target dev=&#39;vda&#39; bus=&#39;virtio&#39;/&gt;<br>      &lt;address type=&#39;pci&#39; domain=&#39;0x0000&#39; bus=&#39;0x00&#39; slot=&#39;0x05&#39; function=&#39;0x0&#39;/&gt;<br>
    &lt;/disk&gt;<br><br>So the steps are simple, and maybe Gluster is more complex then I should use as an example.<br><br>Thanks, JOSH<br> </div></div>