<html><head><meta http-equiv="content-type" content="text/html; charset=utf-8"></head><body dir="auto"><div></div><div>Hi Yaniv,</div><div><br>Il giorno 18 dic 2016, alle ore 17:37, Yaniv Kaul &lt;<a href="mailto:ykaul@redhat.com">ykaul@redhat.com</a>&gt; ha scritto:<br><br></div><blockquote type="cite"><div><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Sun, Dec 18, 2016 at 6:21 PM, Alessandro De Salvo <span dir="ltr">&lt;<a href="mailto:Alessandro.DeSalvo@roma1.infn.it" target="_blank">Alessandro.DeSalvo@roma1.infn.it</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div></div><div>Hi,</div><div>having a 3-node ceph cluster is the bare minimum you can have to make it working, unless you want to have just a replica-2 mode, which is not safe.</div></div></blockquote><div><br></div><div>How well does it perform?</div></div></div></div></div></blockquote><div><br></div><div>One if the ceph clusters we use had exactly this setup: 3 DELL R630 (ceph jewel), 6 1TB NL-SAS disks so 3 mons, 6 osds. We bound the cluster network to a dedicated interface, 1Gbps. I can say it works pretty well, the performance reaches up to 100MB/s per rbd device, which is the expected maximum for the network connection. Resiliency is also pretty good, we can loose 2 osds (I.e. a full machine) without impacting on the performance.</div><br><blockquote type="cite"><div><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div>&nbsp;</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div>It's not true that ceph is not easy to configure, you might use very easily ceph-deploy, have puppet configuring it or even run it in containers. Using docker is in fact the easiest solution, it really requires 10 minutes to make a cluster up. I've tried it both with jewel (official containers) and kraken (custom containers), and it works pretty well.</div></div></blockquote><div><br></div><div>This could be a great blog post in <a href="http://ovirt.org">ovirt.org</a> site - care to write something describing the configuration and setup?</div></div></div></div></div></blockquote><div><br></div><div>Oh sure, if it may be of general interest I'll be glad to. How can I do it? :-)</div><div>Cheers,</div><div><br></div><div>&nbsp; &nbsp;Alessandro&nbsp;</div><br><blockquote type="cite"><div><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div>Y.</div><div>&nbsp;</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div>The real problem is not creating and configuring a ceph cluster, but using it from ovirt, as it requires cinder, i.e. a minimal setup of openstack. We have it and it's working pretty well, but it requires some work. For your reference we have cinder running on an ovirt VM using gluster.</div><div>Cheers,</div><div><br></div><div>&nbsp; &nbsp;Alessandro&nbsp;</div><div><div class="h5"><div><br>Il giorno 18 dic 2016, alle ore 17:07, Yaniv Kaul &lt;<a href="mailto:ykaul@redhat.com" target="_blank">ykaul@redhat.com</a>&gt; ha scritto:<br><br></div><blockquote type="cite"><div><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Sun, Dec 18, 2016 at 3:29 PM, rajatjpatel <span dir="ltr">&lt;<a href="mailto:rajatjpatel@gmail.com" target="_blank">rajatjpatel@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="m_8035446879836480739m_-8155750194716306479gmail_signature"><div dir="ltr"><div>​Dear Team,<br><br>We are using Ovirt 4.0 for POC what we are doing I want to check with all Guru's Ovirt.<br><br>We have 2 hp proliant dl 380 with 500GB SAS &amp; 1TB *4 SAS Disk and 500GB SSD.<br><br>Waht we are done we have install ovirt hyp on these h/w and we have physical server where we are running our manager for ovirt. For ovirt hyp we are using only one 500GB of one HDD rest we have kept for ceph, so we have 3 node as guest running on ovirt and for ceph. My question you all is what I am doing is right or wrong.<br></div></div></div></div></blockquote><div><br></div><div>I think Ceph requires a lot more resources than above. It's also a bit more challenging to configure. I would highly recommend a 3-node cluster with Gluster.</div><div>Y.</div><div>&nbsp;</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="m_8035446879836480739m_-8155750194716306479gmail_signature"><div dir="ltr"><div><br></div><div>Regards<br></div><div>Rajat​</div><br></div></div>
</div>
<br>______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman<wbr>/listinfo/users</a><br>
<br></blockquote></div><br></div></div>
</div></blockquote><blockquote type="cite"><div><span>______________________________<wbr>_________________</span><br><span>Users mailing list</span><br><span><a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a></span><br><span><a href="http://lists.ovirt.org/mailman/listinfo/users" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a></span><br></div></blockquote></div></div></div></blockquote></div><br></div></div>
</div></blockquote></body></html>