<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    Thnak you for reporting this issue because, I met exactly the same :
    FC storage domain and sometimes, many of my hosts (15 ) become
    sometimes unavailable without any apparent action on them.<br>
    The issue message is : storage domain is unvailable. So it is a
    desaster when power management is activated because hosts reboot at
    the same time and all VMs go down without migrating.<br>
    It happened to me two times, and the second time it was less a pity
    because I desactivated the power management.<br>
    It may be a serious issue because host stay reacheable and lun is
    still okay when doing a lvs command.<br>
    The workaround in this case is to restart the engine (restarting
    vdsm gives nothing) and then, all the hosts come up.<br>
    <br>
    <ul>
      <li>el6 engine on a separate KVM</li>
      <li>implied el7 and el6 hosts<br>
      </li>
      <li>ovirt 3.5.1 and vdsm 4.16.10-8</li>
      <li>2 FC datacenter on two remote sites with the same engine and
        both are impacted<br>
      </li>
    </ul>
    <br>
    <div class="moz-cite-prefix">Le 23/03/2015 16:54, Jonas Israelsson a
      �crit�:<br>
    </div>
    <blockquote cite="mid:5510372C.6030701@israelsson.com" type="cite">Greetings.
      <br>
      <br>
      Running oVirt 3.5 with a mix of NFS and FC Storage.
      <br>
      <br>
      Engine running on a seperate KVM VM and Node installed with a pre
      3.5 ovirt-node "ovirt-node-iso-3.5.0.ovirt35.20140912.el6
      (Edited)"
      <br>
      <br>
      I had some problems with my FC-Storage where the LUNS for a while
      became unavailable to my Ovirt-host. Everything is now up and
      running and those luns again are accessible by the host. The NFS
      domains goes back online but the FC does not.
      <br>
      <br>
      Thread-22::DEBUG::2015-03-23
      14:53:02,706::lvm::290::Storage.Misc.excCmd::(cmd) /usr/bin/sudo
      -n /sbin/lvm vgs --config ' devices { preferred_names =
      ["^/dev/mapper/"] ignore_suspended_devices=1 write_cache_state=0
      disable_after_error_count=3 obtain_device_list_from_udev=0 filter
      = [ '\''r|.*|'\'' ] }� global {� locking_type=1
      prioritise_write_locks=1� wait_for_locks=1� use_lvmetad=0 }�
      backup {� retain_min = 50� retain_days = 0 } ' --noheadings
      --units b --nosuffix --separator '|' --ignoreskippedcluster -o
      uuid,name,attr,size,free,extent_size,extent_count,free_count,tags,vg_mda_size,vg_mda_free,lv_count,pv_count,pv_name
      29f9b165-3674-4384-a1d4-7aa87d923d56 (cwd None)
      <br>
      <br>
      Thread-24::DEBUG::2015-03-23
      14:53:02,981::lvm::290::Storage.Misc.excCmd::(cmd) FAILED:
      &lt;err&gt; = '� Volume group
      "29f9b165-3674-4384-a1d4-7aa87d923d56" not found\n� Skipping
      volume group 29f9b165-3674-4384-a1d4-7aa87d923d56\n'; &lt;rc&gt; =
      5
      <br>
      <br>
      Thread-24::WARNING::2015-03-23
      14:53:02,986::lvm::372::Storage.LVM::(_reloadvgs) lvm vgs failed:
      5 [] ['� Volume group "29f9b165-3674-4384-a1d4-7aa87d923d56" not
      found', '� Skipping volume group
      29f9b165-3674-4384-a1d4-7aa87d923d56']
      <br>
      <br>
      <br>
      Running the command above manually does indeed give the same
      output:
      <br>
      <br>
      # /sbin/lvm vgs --config ' devices { preferred_names =
      ["^/dev/mapper/"] ignore_suspended_devices=1 write_cache_state=0
      disable_after_error_count=3 obtain_device_list_from_udev=0 filter
      = [ '\''r|.*|'\'' ] }� global {� locking_type=1
      prioritise_write_locks=1� wait_for_locks=1� use_lvmetad=0 }�
      backup {� retain_min = 50� retain_days = 0 } ' --noheadings
      --units b --nosuffix --separator '|' --ignoreskippedcluster -o
      uuid,name,attr,size,free,extent_size,extent_count,free_count,tags,vg_mda_size,vg_mda_free,lv_count,pv_count,pv_name
      29f9b165-3674-4384-a1d4-7aa87d923d56
      <br>
      <br>
      � Volume group "29f9b165-3674-4384-a1d4-7aa87d923d56" not found
      <br>
      � Skipping volume group 29f9b165-3674-4384-a1d4-7aa87d923d56
      <br>
      <br>
      What puzzles me is that those volume does exist.
      <br>
      <br>
      lvm vgs
      <br>
      � VG���������������������������������� #PV #LV #SN Attr�� VSize
      VFree
      <br>
      � 22cf06d1-faca-4e17-ac78-d38b7fc300b1�� 1� 13�� 0 wz--n- 999.62g
      986.50g
      <br>
      � 29f9b165-3674-4384-a1d4-7aa87d923d56�� 1�� 8�� 0 wz--n-� 99.62g
      95.50g
      <br>
      � HostVG�������������������������������� 1�� 4�� 0 wz--n-� 13.77g
      52.00m
      <br>
      <br>
      <br>
      � --- Volume group ---
      <br>
      � VG Name�������������� 29f9b165-3674-4384-a1d4-7aa87d923d56
      <br>
      � System ID
      <br>
      � Format��������������� lvm2
      <br>
      � Metadata Areas������� 2
      <br>
      � Metadata Sequence No� 20
      <br>
      � VG Access������������ read/write
      <br>
      � VG Status������������ resizable
      <br>
      � MAX LV��������������� 0
      <br>
      � Cur LV��������������� 8
      <br>
      � Open LV�������������� 0
      <br>
      � Max PV��������������� 0
      <br>
      � Cur PV��������������� 1
      <br>
      � Act PV��������������� 1
      <br>
      � VG Size�������������� 99.62 GiB
      <br>
      � PE Size�������������� 128.00 MiB
      <br>
      � Total PE������������� 797
      <br>
      � Alloc PE / Size������ 33 / 4.12 GiB
      <br>
      � Free� PE / Size������ 764 / 95.50 GiB
      <br>
      � VG UUID�������������� aAoOcw-d9YB-y9gP-Tp4M-S0UE-Aqpx-y6Z2Uk
      <br>
      <br>
      lvm vgs --config ' devices { preferred_names = ["^/dev/mapper/"]
      ignore_suspended_devices=1 write_cache_state=0
      disable_after_error_count=3 obtain_device_list_from_udev=0 }�
      global {� locking_type=1� prioritise_write_locks=1�
      wait_for_locks=1 use_lvmetad=0 }� backup {� retain_min = 50�
      retain_days = 0 } ' --noheadings --units b --nosuffix --separator
      '|' --ignoreskippedcluster -o
      uuid,name,attr,size,free,extent_size,extent_count,free_count,tags,vg_mda_size,vg_mda_free,lv_count,pv_count,pv_name
      29f9b165-3674-4384-a1d4-7aa87d923d56
      <br>
      <br>
      <br>
aAoOcw-d9YB-y9gP-Tp4M-S0UE-Aqpx-y6Z2Uk|29f9b165-3674-4384-a1d4-7aa87d923d56|wz--n-|106971529216|102542344192|134217728|797|764|MDT_LEASETIMESEC=60,MDT_CLASS=Data,MDT_VERSION=3,MDT_SDUUID=29f9b165-3674-4384-a1d4-7aa87d923d56,MDT_PV0=pv:36001405c94d80be2ed0482c91a1841b8&amp;44&amp;uuid:muHcYl-sobG-3LyY-jjfg-3fGf-1cHO-uDk7da&amp;44&amp;pestart:0&amp;44&amp;pecount:797&amp;44&amp;mapoffset:0,MDT_LEASERETRIES=3,MDT_VGUUID=aAoOcw-d9YB-y9gP-Tp4M-S0UE-Aqpx-y6Z2Uk,MDT_IOOPTIMEOUTSEC=10,MDT_LOCKRENEWALINTERVALSEC=5,MDT_PHYBLKSIZE=512,MDT_LOGBLKSIZE=512,MDT_TYPE=FCP,MDT_LOCKPOLICY=,MDT_DESCRIPTION=Master,RHAT_storage_domain,MDT_POOL_SPM_ID=-1,MDT_POOL_DESCRIPTION=Elementary,MDT_POOL_SPM_LVER=-1,MDT_POOL_UUID=8c3c5df9-e8ff-4313-99c9-385b6c7d896b,MDT_MASTER_VERSION=10,MDT_POOL_DOMAINS=22cf06d1-faca-4e17-ac78-d38b7fc300b1:Active&amp;44&amp;c434ab5a-9d21-42eb-ba1b-dbd716ba3ed1:Active&amp;44&amp;96e62d18-652d-401a-b4b5-b54ecefa331c:Active&amp;44&amp;29f9b165-3674-4384-a1d4-7aa87d923d56:Active&amp;44&
amp;1a0d3e5a-d2ad-4829-8ebd-ad3ff5463062:Active,MDT__SH
      <br>
A_CKSUM=7ea9af890755d96563cb7a736f8e3f46ea986f67,MDT_ROLE=Regular|134217728|67103744|8|1|/dev/sda
      <br>
      <br>
      <br>
      [root@patty vdsm]# vdsClient -s 0 getStorageDomainsList (Returns
      all but only the NFS-Domains)
      <br>
      c434ab5a-9d21-42eb-ba1b-dbd716ba3ed1
      <br>
      1a0d3e5a-d2ad-4829-8ebd-ad3ff5463062
      <br>
      a8fd9df0-48f2-40a2-88d4-7bf47fef9b07
      <br>
      <br>
      <br>
      engine=# select id,storage,storage_name,storage_domain_type from
      storage_domain_static ;
      <br>
      ����������������� id����������������� | storage����������������
      |����� storage_name����� | storage_domain_type
      <br>
--------------------------------------+----------------------------------------+------------------------+---------------------
      <br>
      �072fbaa1-08f3-4a40-9f34-a5ca22dd1d74 |
      ceab03af-7220-4d42-8f5c-9b557f5d29af�� | ovirt-image-repository
      |����� 4
      <br>
      �1a0d3e5a-d2ad-4829-8ebd-ad3ff5463062 |
      6564a0b2-2f92-48de-b986-e92de7e28885�� | ISO |������������� 2
      <br>
      �c434ab5a-9d21-42eb-ba1b-dbd716ba3ed1 |
      bb54b2b8-00a2-4b84-a886-d76dd70c3cb0�� | Export |�������� 3
      <br>
      �22cf06d1-faca-4e17-ac78-d38b7fc300b1 |
      e43eRZ-HACv-YscJ-KNZh-HVwe-tAd2-0oGNHh | Hinken |���������
      1��������� &lt;---- 'GONE'
      <br>
      �29f9b165-3674-4384-a1d4-7aa87d923d56 |
      aAoOcw-d9YB-y9gP-Tp4M-S0UE-Aqpx-y6Z2Uk | Master |����� 1�����
      &lt;---- 'GONE'
      <br>
      �a8fd9df0-48f2-40a2-88d4-7bf47fef9b07 |
      0299ca61-d68e-4282-b6c3-f6e14aef2688�� | NFS-DATA |����������� 0
      <br>
      <br>
      When manually trying to activate one of the above domains the
      following is written to the engine.log
      <br>
      <br>
      2015-03-23 16:37:27,193 INFO
      [org.ovirt.engine.core.bll.storage.SyncLunsInfoForBlockStorageDomainCommand]
      (org.ovirt.thread.pool-8-thread-42) [5f2bcbf9] Running command:
      SyncLunsInfoForBlockStorageDomainCommand internal: true. Entities
      affected :� ID: 29f9b165-3674-4384-a1d4-7aa87d923d56 Type: Storage
      <br>
      2015-03-23 16:37:27,202 INFO
      [org.ovirt.engine.core.vdsbroker.vdsbroker.GetVGInfoVDSCommand]
      (org.ovirt.thread.pool-8-thread-42) [5f2bcbf9] START,
      GetVGInfoVDSCommand(HostName = patty.elemementary.se, HostId =
      38792a69-76f3-46d8-8620-9d4b9a5ec21f,
      VGID=aAoOcw-d9YB-y9gP-Tp4M-S0UE-Aqpx-y6Z2Uk), log id: 6e6f6792
      <br>
      2015-03-23 16:37:27,404 ERROR
      [org.ovirt.engine.core.vdsbroker.vdsbroker.GetVGInfoVDSCommand]
      (org.ovirt.thread.pool-8-thread-28) [3258de6d] Failed in
      GetVGInfoVDS method
      <br>
      2015-03-23 16:37:27,404 INFO
      [org.ovirt.engine.core.vdsbroker.vdsbroker.GetVGInfoVDSCommand]
      (org.ovirt.thread.pool-8-thread-28) [3258de6d] Command
      org.ovirt.engine.core.vdsbroker.vdsbroker.GetVGInfoVDSCommand
      return value
      <br>
      <br>
      OneVGReturnForXmlRpc [mStatus=StatusForXmlRpc [mCode=506,
      mMessage=Volume Group does not exist: (u'vg_uuid:
      aAoOcw-d9YB-y9gP-Tp4M-S0UE-Aqpx-y6Z2Uk',)]]
      <br>
      <br>
      2015-03-23 16:37:27,406 INFO
      [org.ovirt.engine.core.vdsbroker.vdsbroker.GetVGInfoVDSCommand]
      (org.ovirt.thread.pool-8-thread-28) [3258de6d] HostName =
      patty.elemementary.se
      <br>
      2015-03-23 16:37:27,407 ERROR
      [org.ovirt.engine.core.vdsbroker.vdsbroker.GetVGInfoVDSCommand]
      (org.ovirt.thread.pool-8-thread-28) [3258de6d] Command
      GetVGInfoVDSCommand(HostName = patty.elemementary.se, HostId =
      38792a69-76f3-46d8-8620-9d4b9a5ec21f,
      VGID=aAoOcw-d9YB-y9gP-Tp4M-S0UE-Aqpx-y6Z2Uk) execution failed.
      Exception: VDSErrorException: VDSGenericException:
      VDSErrorException: Failed to GetVGInfoVDS, error = Volume Group
      does not exist: (u'vg_uuid:
      aAoOcw-d9YB-y9gP-Tp4M-S0UE-Aqpx-y6Z2Uk',), code = 506
      <br>
      2015-03-23 16:37:27,409 INFO
      [org.ovirt.engine.core.vdsbroker.vdsbroker.GetVGInfoVDSCommand]
      (org.ovirt.thread.pool-8-thread-28) [3258de6d] FINISH,
      GetVGInfoVDSCommand, log id: 2edb7c0d
      <br>
      2015-03-23 16:37:27,410 ERROR
      [org.ovirt.engine.core.bll.storage.SyncLunsInfoForBlockStorageDomainCommand]
      (org.ovirt.thread.pool-8-thread-28) [3258de6d] Command
      org.ovirt.engine.core.bll.storage.SyncLunsInfoForBlockStorageDomainCommand
      throw Vdc Bll exception. With error message VdcBLLException:
      org.ovirt.engine.core.vdsbroker.vdsbroker.VDSErrorException:
      VDSGenericException: VDSErrorException: Failed to GetVGInfoVDS,
      error = Volume Group does not exist: (u'vg_uuid:
      aAoOcw-d9YB-y9gP-Tp4M-S0UE-Aqpx-y6Z2Uk',), code = 506 (Failed with
      error VolumeGroupDoesNotExist and code 506)
      <br>
      2015-03-23 16:37:27,413 INFO
      [org.ovirt.engine.core.vdsbroker.irsbroker.ActivateStorageDomainVDSCommand]
      (org.ovirt.thread.pool-8-thread-28) [3258de6d] START,
      ActivateStorageDomainVDSCommand( storagePoolId =
      8c3c5df9-e8ff-4313-99c9-385b6c7d896b, ignoreFailoverLimit = false,
      storageDomainId = 29f9b165-3674-4384-a1d4-7aa87d923d56), log id:
      795253ee
      <br>
      2015-03-23 16:37:27,482 ERROR
      [org.ovirt.engine.core.vdsbroker.vdsbroker.GetVGInfoVDSCommand]
      (org.ovirt.thread.pool-8-thread-42) [5f2bcbf9] Failed in
      GetVGInfoVDS method
      <br>
      2015-03-23 16:37:27,482 INFO
      [org.ovirt.engine.core.vdsbroker.vdsbroker.GetVGInfoVDSCommand]
      (org.ovirt.thread.pool-8-thread-42) [5f2bcbf9] Command
      org.ovirt.engine.core.vdsbroker.vdsbroker.GetVGInfoVDSCommand
      return value
      <br>
      OneVGReturnForXmlRpc [mStatus=StatusForXmlRpc [mCode=506,
      mMessage=Volume Group does not exist: (u'vg_uuid:
      aAoOcw-d9YB-y9gP-Tp4M-S0UE-Aqpx-y6Z2Uk',)]]
      <br>
      <br>
      <br>
      Could someone (pretty please with sugar on top) point me in the
      right direction ?
      <br>
      <br>
      Brgds Jonas
      <br>
      <br>
      _______________________________________________
      <br>
      Users mailing list
      <br>
      <a class="moz-txt-link-abbreviated" href="mailto:Users@ovirt.org">Users@ovirt.org</a>
      <br>
      <a class="moz-txt-link-freetext" href="http://lists.ovirt.org/mailman/listinfo/users">http://lists.ovirt.org/mailman/listinfo/users</a>
      <br>
    </blockquote>
    <br>
  </body>
</html>