Trying to fix one thing I broke another :( 

I fixed mnt_options for hosted engine storage domain and installed latest security patches to my hosts and hosted engine. All VM's up and running, but  hosted_engine --vm-status reports about issues: 

[root@ovirt1 ~]# hosted-engine --vm-status


--== Host 1 status ==--

conf_on_shared_storage             : True
Status up-to-date                  : False
Hostname                           : ovirt2
Host ID                            : 1
Engine status                      : unknown stale-data
Score                              : 0
stopped                            : False
Local maintenance                  : False
crc32                              : 193164b8
local_conf_timestamp               : 8350
Host timestamp                     : 8350
Extra metadata (valid at timestamp):
        metadata_parse_version=1
        metadata_feature_version=1
        timestamp=8350 (Fri Jan 12 19:03:54 2018)
        host-id=1
        score=0
        vm_conf_refresh_time=8350 (Fri Jan 12 19:03:54 2018)
        conf_on_shared_storage=True
        maintenance=False
        state=EngineUnexpectedlyDown
        stopped=False
        timeout=Thu Jan  1 05:24:43 1970


--== Host 2 status ==--

conf_on_shared_storage             : True
Status up-to-date                  : False
Hostname                           : ovirt1.telia.ru
Host ID                            : 2
Engine status                      : unknown stale-data
Score                              : 0
stopped                            : True
Local maintenance                  : False
crc32                              : c7037c03
local_conf_timestamp               : 7530
Host timestamp                     : 7530
Extra metadata (valid at timestamp):
        metadata_parse_version=1
        metadata_feature_version=1
        timestamp=7530 (Fri Jan 12 16:10:12 2018)
        host-id=2
        score=0
        vm_conf_refresh_time=7530 (Fri Jan 12 16:10:12 2018)
        conf_on_shared_storage=True
        maintenance=False
        state=AgentStopped
        stopped=True
[root@ovirt1 ~]# 



from second host situation looks a bit different:


[root@ovirt2 ~]# hosted-engine --vm-status


--== Host 1 status ==--

conf_on_shared_storage             : True
Status up-to-date                  : True
Hostname                           : ovirt2
Host ID                            : 1
Engine status                      : {"reason": "vm not running on this host", "health": "bad", "vm": "down", "detail": "unknown"}
Score                              : 0
stopped                            : False
Local maintenance                  : False
crc32                              : 78eabdb6
local_conf_timestamp               : 8403
Host timestamp                     : 8402
Extra metadata (valid at timestamp):
        metadata_parse_version=1
        metadata_feature_version=1
        timestamp=8402 (Fri Jan 12 19:04:47 2018)
        host-id=1
        score=0
        vm_conf_refresh_time=8403 (Fri Jan 12 19:04:47 2018)
        conf_on_shared_storage=True
        maintenance=False
        state=EngineUnexpectedlyDown
        stopped=False
        timeout=Thu Jan  1 05:24:43 1970


--== Host 2 status ==--

conf_on_shared_storage             : True
Status up-to-date                  : False
Hostname                           : ovirt1.telia.ru
Host ID                            : 2
Engine status                      : unknown stale-data
Score                              : 0
stopped                            : True
Local maintenance                  : False
crc32                              : c7037c03
local_conf_timestamp               : 7530
Host timestamp                     : 7530
Extra metadata (valid at timestamp):
        metadata_parse_version=1
        metadata_feature_version=1
        timestamp=7530 (Fri Jan 12 16:10:12 2018)
        host-id=2
        score=0
        vm_conf_refresh_time=7530 (Fri Jan 12 16:10:12 2018)
        conf_on_shared_storage=True
        maintenance=False
        state=AgentStopped
        stopped=True


WebGUI shows that engine running on host ovirt1. 
Gluster looks fine 
[root@ovirt1 ~]# gluster volume status engine
Status of volume: engine
Gluster process                             TCP Port  RDMA Port  Online  Pid
------------------------------------------------------------------------------
Brick ovirt1.telia.ru:/oVirt/engine         49169     0          Y       3244 
Brick ovirt2.telia.ru:/oVirt/engine         49179     0          Y       20372
Brick ovirt3.telia.ru:/oVirt/engine         49206     0          Y       16609
Self-heal Daemon on localhost               N/A       N/A        Y       117868
Self-heal Daemon on ovirt2.telia.ru         N/A       N/A        Y       20521
Self-heal Daemon on ovirt3                  N/A       N/A        Y       25093
 
Task Status of Volume engine
------------------------------------------------------------------------------
There are no active volume tasks

How to resolve this issue?