oVirt FC Storage - LUN в статусе Down - ВМ в статусе not responding

molik
Завсегдатай
Сообщения: 45
Зарегистрирован: 18 май 2017 05:19

Re: FC storage, статус LUN

Сообщение molik » 02 апр 2018 09:23

В лог SPM хоста постоянно сыпятcя эти сообщения:

Код: Выделить всё

Apr  1 03:42:43 blvirt1 kernel: __ratelimit: 8 callbacks suppressed
Apr  1 03:42:43 blvirt1 kernel: end_request: I/O error, dev dm-11, sector 6683623296
Apr  1 03:42:43 blvirt1 kernel: end_request: I/O error, dev dm-11, sector 6683623408
Apr  1 03:42:43 blvirt1 kernel: end_request: I/O error, dev dm-11, sector 0
Apr  1 03:42:43 blvirt1 kernel: end_request: I/O error, dev dm-14, sector 209715072
Apr  1 03:42:43 blvirt1 kernel: end_request: I/O error, dev dm-14, sector 209715184
Apr  1 03:42:43 blvirt1 kernel: end_request: I/O error, dev dm-14, sector 0
Apr  1 03:42:43 blvirt1 kernel: end_request: I/O error, dev dm-92, sector 2147483520
Apr  1 03:42:43 blvirt1 kernel: end_request: I/O error, dev dm-92, sector 2147483632
Apr  1 03:42:43 blvirt1 kernel: end_request: I/O error, dev dm-92, sector 0
Apr  1 03:42:43 blvirt1 kernel: end_request: I/O error, dev dm-11, sector 6683623296
Apr  1 03:42:44 blvirt1 multipathd: 3600000e00d11000000113629001b0000: sdq - tur checker reports path is down
Apr  1 03:42:44 blvirt1 multipathd: 3600000e00d1100000011362900210000: sdr - tur checker reports path is down
Apr  1 03:42:47 blvirt1 multipathd: 3600000e00d11000000113629001b0000: sdg - tur checker reports path is down
Apr  1 03:42:47 blvirt1 multipathd: 3600000e00d1100000011362900210000: sdh - tur checker reports path is down
Apr  1 03:42:47 blvirt1 multipathd: 3600000e00d1100000011362900260000: sdv - tur checker reports path is down
Apr  1 03:42:47 blvirt1 multipathd: 3600000e00d1100000011362900260000: sdu - tur checker reports path is down
Apr  1 03:42:48 blvirt1 kernel: __ratelimit: 26 callbacks suppressed
Apr  1 03:42:48 blvirt1 kernel: end_request: I/O error, dev dm-11, sector 6683623296
Apr  1 03:42:48 blvirt1 kernel: end_request: I/O error, dev dm-11, sector 6683623408
Apr  1 03:42:48 blvirt1 kernel: end_request: I/O error, dev dm-11, sector 0
Apr  1 03:42:48 blvirt1 kernel: end_request: I/O error, dev dm-14, sector 209715072
Apr  1 03:42:48 blvirt1 kernel: end_request: I/O error, dev dm-14, sector 209715184
Apr  1 03:42:48 blvirt1 kernel: end_request: I/O error, dev dm-14, sector 0
Apr  1 03:42:48 blvirt1 kernel: end_request: I/O error, dev dm-92, sector 2147483520
Apr  1 03:42:48 blvirt1 kernel: end_request: I/O error, dev dm-92, sector 2147483632
Apr  1 03:42:48 blvirt1 kernel: end_request: I/O error, dev dm-92, sector 0
Apr  1 03:42:49 blvirt1 multipathd: 3600000e00d11000000113629001b0000: sdq - tur checker reports path is down
Apr  1 03:42:49 blvirt1 multipathd: 3600000e00d1100000011362900210000: sdr - tur checker reports path is down
Apr  1 03:42:49 blvirt1 kernel: end_request: I/O error, dev dm-11, sector 6683623296
Apr  1 03:42:52 blvirt1 multipathd: 3600000e00d11000000113629001b0000: sdg - tur checker reports path is down
Apr  1 03:42:52 blvirt1 multipathd: 3600000e00d1100000011362900210000: sdh - tur checker reports path is down
Apr  1 03:42:52 blvirt1 multipathd: 3600000e00d1100000011362900260000: sdv - tur checker reports path is down
Apr  1 03:42:52 blvirt1 multipathd: 3600000e00d1100000011362900260000: sdu - tur checker reports path is down
Apr  1 03:42:54 blvirt1 multipathd: 3600000e00d11000000113629001b0000: sdq - tur checker reports path is down
Apr  1 03:42:54 blvirt1 multipathd: 3600000e00d1100000011362900210000: sdr - tur checker reports path is down
Apr  1 03:42:57 blvirt1 multipathd: 3600000e00d11000000113629001b0000: sdg - tur checker reports path is down
Apr  1 03:42:57 blvirt1 multipathd: 3600000e00d1100000011362900210000: sdh - tur checker reports path is down
Apr  1 03:42:57 blvirt1 multipathd: 3600000e00d1100000011362900260000: sdv - tur checker reports path is down
Apr  1 03:42:57 blvirt1 multipathd: 3600000e00d1100000011362900260000: sdu - tur checker reports path is down
Apr  1 03:42:59 blvirt1 multipathd: 3600000e00d11000000113629001b0000: sdq - tur checker reports path is down
Apr  1 03:42:59 blvirt1 multipathd: 3600000e00d1100000011362900210000: sdr - tur checker reports path is down
Apr  1 03:43:02 blvirt1 multipathd: 3600000e00d11000000113629001b0000: sdg - tur checker reports path is down
Apr  1 03:43:02 blvirt1 multipathd: 3600000e00d1100000011362900210000: sdh - tur checker reports path is down
Apr  1 03:43:02 blvirt1 multipathd: 3600000e00d1100000011362900260000: sdv - tur checker reports path is down
Apr  1 03:43:02 blvirt1 multipathd: 3600000e00d1100000011362900260000: sdu - tur checker reports path is down
Apr  1 03:43:04 blvirt1 multipathd: 3600000e00d11000000113629001b0000: sdq - tur checker reports path is down
Apr  1 03:43:04 blvirt1 multipathd: 3600000e00d1100000011362900210000: sdr - tur checker reports path is down
Apr  1 03:43:07 blvirt1 multipathd: 3600000e00d11000000113629001b0000: sdg - tur checker reports path is down
Apr  1 03:43:07 blvirt1 multipathd: 3600000e00d1100000011362900210000: sdh - tur checker reports path is down

dm-11 dm-14 dm-92 - это отображение одного LVM в Овирте. Хранилище на эти диски не ругается, значит смарт дисков в порядке.

Вот такие ошибки пошли, когда началась глобальная проблема и всё поотваливалось, только там номер проблемного LUN dm-9 dm-13 dm-15:

Вырезки:

Код: Выделить всё

Mar 27 12:55:15 blvirt2 multipathd: 3600000e00d1100000011362900210000: sdh - tur checker reports path is down
Mar 27 12:55:16 blvirt2 multipathd: 3600000e00d1100000011362900260000: Entering recovery mode: max_retries=10
Mar 27 12:55:16 blvirt2 multipathd: 3600000e00d1100000011362900210000: Entering recovery mode: max_retries=10
Mar 27 12:55:16 blvirt2 multipathd: 3600000e00d11000000113629001b0000: Entering recovery mode: max_retries=10
Mar 27 12:55:16 blvirt2 kernel: sd 0:0:0:10: [sdk]  Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Mar 27 12:55:16 blvirt2 kernel: sd 0:0:0:10: [sdk]  Sense Key : Illegal Request [current]
Mar 27 12:55:16 blvirt2 kernel: sd 0:0:0:10: [sdk]  Add. Sense: Logical unit not supported
Mar 27 12:55:16 blvirt2 kernel: sd 0:0:0:10: [sdk] CDB: Read(10): 28 00 00 00 00 00 00 00 08 00
Mar 27 12:55:16 blvirt2 kernel: __ratelimit: 35 callbacks suppressed
Mar 27 12:55:16 blvirt2 kernel: end_request: I/O error, dev sdk, sector 0
Mar 27 12:55:16 blvirt2 kernel: device-mapper: multipath: Failing path 8:160.
Mar 27 12:55:16 blvirt2 kernel: sd 0:0:0:7: [sdh]  Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Mar 27 12:55:16 blvirt2 kernel: sd 0:0:0:7: [sdh]  Sense Key : Illegal Request [current]
Mar 27 12:55:16 blvirt2 kernel: sd 0:0:0:7: [sdh]  Add. Sense: Logical unit not supported
Mar 27 12:55:16 blvirt2 kernel: sd 0:0:0:7: [sdh] CDB: Read(10): 28 00 00 00 00 00 00 00 08 00
Mar 27 12:55:16 blvirt2 kernel: end_request: I/O error, dev sdh, sector 0
Mar 27 12:55:16 blvirt2 kernel: device-mapper: multipath: Failing path 8:112.
Mar 27 12:55:16 blvirt2 kernel: sd 1:0:0:10: [sdx]  Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Mar 27 12:55:16 blvirt2 kernel: sd 1:0:0:10: [sdx]  Sense Key : Illegal Request [current]
Mar 27 12:55:16 blvirt2 kernel: sd 1:0:0:10: [sdx]  Add. Sense: Logical unit not supported
Mar 27 12:55:16 blvirt2 kernel: sd 1:0:0:10: [sdx] CDB: Read(10): 28 00 00 00 00 00 00 00 08Mar 27 12:58:53 blvirt2 vdsm root ERROR Process failed with rc=1 out='\nudevadm settle - timeout of 5 seconds reached, the event queue contains:\n  /sys/devices/virtual/block/dm-13 (970102)\n  /sys/devices/virtual/block/dm-13 (970103)\n  /sys/devices/virtual/block/dm-9 (970104)\n  /sys/devices/virtual/block/dm-9 (970105)\n  /sys/devices/virtual/block/dm-13 (970108)\n  /sys/devices/virtual/block/dm-9 (970109)\n  /sys/devices/virtual/block/dm-13 (970110)\n  /sys/devices/virtual/block/dm-9 (970111)\n' err=''
 00
Mar 27 12:55:16 blvirt2 kernel: end_request: I/O error, dev sdx, sector 0
Mar 27 12:55:16 blvirt2 kernel: device-mapper: multipath: Failing path 65:112.
Mar 27 12:55:16 blvirt2 kernel: sd 1:0:0:7: [sdu]  Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Mar 27 12:55:16 blvirt2 kernel: sd 1:0:0:7: [sdu]  Sense Key : Illegal Request [current]
Mar 27 12:55:16 blvirt2 kernel: sd 1:0:0:7: [sdu]  Add. Sense: Logical unit not supported
Mar 27 12:55:16 blvirt2 kernel: sd 1:0:0:7: [sdu] CDB: Read(10): 28 00 00 00 00 00 00 00 08 00
Mar 27 12:55:16 blvirt2 kernel: end_request: I/O error, dev sdu, sector 0
Mar 27 12:55:16 blvirt2 kernel: device-mapper: multipath: Failing path 65:64.
Mar 27 12:55:16 blvirt2 kernel: set_rtc_mmss: can't update from 0 to 55
Mar 27 12:55:16 blvirt2 multipathd: 3600000e00d1100000011362900260000: sdx - tur checker reports path is down
Mar 27 12:55:17 blvirt2 multipathd: 3600000e00d1100000011362900260000: Entering recovery mode: max_retries=10
Mar 27 12:55:17 blvirt2 multipathd: 3600000e00d1100000011362900260000: Entering recovery mode: max_retries=10
Mar 27 12:55:17 blvirt2 multipathd: 3600000e00d1100000011362900210000: Entering recovery mode: max_retries=10
Mar 27 12:55:17 blvirt2 multipathd: 3600000e00d1100000011362900210000: Entering recovery mode: max_retries=10
...
Mar 27 12:57:55 blvirt2 multipathd: 3600000e00d1100000011362900210000: Disable queueing
Mar 27 12:57:55 blvirt2 multipathd: 3600000e00d1100000011362900260000: Disable queueing
Mar 27 12:57:55 blvirt2 kernel: end_request: I/O error, dev dm-9, sector 209715072
Mar 27 12:57:55 blvirt2 kernel: end_request: I/O error, dev dm-9, sector 0
Mar 27 12:57:55 blvirt2 kernel: __ratelimit: 30 callbacks suppressed
Mar 27 12:57:55 blvirt2 kernel: Buffer I/O error on device dm-9, logical block 0
Mar 27 12:57:55 blvirt2 kernel: end_request: I/O error, dev dm-13, sector 0
Mar 27 12:57:55 blvirt2 kernel: Buffer I/O error on device dm-13, logical block 0
Mar 27 12:57:55 blvirt2 kernel: end_request: I/O error, dev dm-9, sector 209715192
Mar 27 12:57:55 blvirt2 kernel: Buffer I/O error on device dm-9, logical block 26214399
Mar 27 12:57:55 blvirt2 kernel: end_request: I/O error, dev dm-13, sector 2147483640
Mar 27 12:57:55 blvirt2 kernel: Buffer I/O error on device dm-13, logical block 268435455
Mar 27 12:57:55 blvirt2 kernel: end_request: I/O error, dev dm-9, sector 0
Mar 27 12:57:55 blvirt2 kernel: Buffer I/O error on device dm-9, logical block 0
Mar 27 12:57:55 blvirt2 kernel: end_request: I/O error, dev dm-13, sector 0
Mar 27 12:57:55 blvirt2 kernel: Buffer I/O error on device dm-13, logical block 0
Mar 27 12:57:55 blvirt2 kernel: end_request: I/O error, dev dm-13, sector 0
Mar 27 12:57:55 blvirt2 kernel: end_request: I/O error, dev dm-9, sector 0
Mar 27 12:57:55 blvirt2 kernel: Buffer I/O error on device dm-13, logical block 0
Mar 27 12:57:55 blvirt2 kernel: Buffer I/O error on device dm-9, logical block 0
Mar 27 12:57:55 blvirt2 kernel: end_request: I/O error, dev dm-13, sector 24
Mar 27 12:57:55 blvirt2 kernel: Buffer I/O error on device dm-13, logical block 3
Mar 27 12:57:55 blvirt2 kernel: Buffer I/O error on device dm-9, logical block 3
Mar 27 12:57:55 blvirt2 multipathd: 3600000e00d11000000113629001b0000: Entering recovery mode: max_retries=10
Mar 27 12:57:55 blvirt2 kernel: sd 0:0:0:6: [sdg]  Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Mar 27 12:57:55 blvirt2 kernel: sd 0:0:0:6: [sdg]  Sense Key : Illegal Request [current]
Mar 27 12:57:55 blvirt2 kernel: sd 0:0:0:6: [sdg]  Add. Sense: Logical unit not supported
Mar 27 12:57:55 blvirt2 kernel: sd 0:0:0:6: [sdg] CDB: Read(16): 88 00 00 00 00 01 8e 5f ff 80 00 00 00 08 00 00
Mar 27 12:57:55 blvirt2 kernel: device-mapper: multipath: Failing path 8:96.
Mar 27 12:57:55 blvirt2 kernel: sd 1:0:0:6: [sdt]  Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Mar 27 12:57:55 blvirt2 kernel: sd 1:0:0:6: [sdt]  Sense Key : Illegal Request [current]
Mar 27 12:57:55 blvirt2 kernel: sd 1:0:0:6: [sdt]  Add. Sense: Logical unit not supported
Mar 27 12:57:55 blvirt2 kernel: sd 1:0:0:6: [sdt] CDB: Read(16): 88 00 00 00 00 01 8e 5f ff 80 00 00 00 08 00 00
Mar 27 12:57:55 blvirt2 kernel: sd 1:0:0:6: [sdt]  Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Mar 27 12:57:55 blvirt2 kernel: sd 1:0:0:6: [sdt]  Sense Key : Illegal Request [current]
Mar 27 12:57:55 blvirt2 kernel: sd 1:0:0:6: [sdt]  Add. Sense: Logical unit not supported
Mar 27 12:57:55 blvirt2 kernel: sd 1:0:0:6: [sdt] CDB: Read(16): 88 00 00 00 00 01 8e 5f ff 80 00 00 00 08 00 00
Mar 27 12:57:55 blvirt2 kernel: device-mapper: multipath: Failing path 65:48.
Mar 27 12:57:56 blvirt2 multipathd: 3600000e00d1100000011362900210000: sdh - tur checker reports path is down
Mar 27 12:57:56 blvirt2 multipathd: 3600000e00d11000000113629001b0000: Entering recovery mode: max_retries=10
...
Mar 27 12:58:53 blvirt2 vdsm root ERROR Process failed with rc=1 out='\nudevadm settle - timeout of 5 seconds reached, the event queue contains:\n  /sys/devices/virtual/block/dm-13 (970102)\n  /sys/devices/virtual/block/dm-13 (970103)\n  /sys/devices/virtual/block/dm-9 (970104)\n  /sys/devices/virtual/block/dm-9 (970105)\n  /sys/devices/virtual/block/dm-13 (970108)\n  /sys/devices/virtual/block/dm-9 (970109)\n  /sys/devices/virtual/block/dm-13 (970110)\n  /sys/devices/virtual/block/dm-9 (970111)\n' err=''

...

Mar 27 13:09:15 blvirt2 multipathd: dm-117: remove map (uevent)
Mar 27 13:09:15 blvirt2 multipathd: dm-117: devmap not registered, can't remove
Mar 27 13:09:15 blvirt2 multipathd: dm-117: remove map (uevent)
Mar 27 13:09:15 blvirt2 multipathd: dm-117: devmap not registered, can't remove
Mar 27 13:09:15 blvirt2 multipathd: dm-118: remove map (uevent)
Mar 27 13:09:15 blvirt2 multipathd: dm-118: devmap not registered, can't remove
Mar 27 13:09:15 blvirt2 multipathd: dm-118: remove map (uevent)
Mar 27 13:09:15 blvirt2 multipathd: dm-118: devmap not registered, can't remove
Mar 27 13:09:15 blvirt2 multipathd: 3600000e00d1100000011362900210000: sdu - tur checker reports path is down
Mar 27 13:09:16 blvirt2 vdsm vm.Vm ERROR vmId=`6b9efb28-3998-4c2e-88f6-28559f9e531f`::Stats function failed: <AdvancedStatsFunction _sampleVcpuPinning at 0x23fecb0>#012Traceback (most recent call last):#012  File "/usr/share/vdsm/virt/sampling.py", line 484, in collect#012    statsFunction()#012  File "/usr/share/vdsm/virt/sampling.py", line 359, in __call__#012    retValue = self._function(*args, **kwargs)#012  File "/usr/share/vdsm/virt/vm.py", line 351, in _sampleVcpuPinning#012    return vCpuInfos[0]#012TypeError: 'NoneType' object is unsubscriptable
Mar 27 13:09:16 blvirt2 vdsm vm.Vm ERROR vmId=`cd5d3e58-fd6b-483e-bc2c-ce69f6216bfb`::Stats function failed: <AdvancedStatsFunction _sampleVcpuPinning at 0x23fecb0>#012Traceback (most recent call last):#012  File "/usr/share/vdsm/virt/sampling.py", line 484, in collect#012    statsFunction()#012  File "/usr/share/vdsm/virt/sampling.py", line 359, in __call__#012    retValue = self._function(*args, **kwargs)#012  File "/usr/share/vdsm/virt/vm.py", line 351, in _sampleVcpuPinning#012    return vCpuInfos[0]#012TypeError: 'NoneType' object is unsubscriptable
Mar 27 13:09:16 blvirt2 multipathd: dm-119: remove map (uevent)
Mar 27 13:09:16 blvirt2 multipathd: dm-119: devmap not registered, can't remove
Mar 27 13:09:16 blvirt2 multipathd: dm-119: remove map (uevent)
Mar 27 13:09:16 blvirt2 multipathd: dm-119: devmap not registered, can't remove
Mar 27 13:09:16 blvirt2 multipathd: 3600000e00d1100000011362900210000: sdh - tur checker reports path is down
Mar 27 13:09:16 blvirt2 multipathd: dm-120: remove map (uevent)
Mar 27 13:09:16 blvirt2 multipathd: dm-120: devmap not registered, can't remove
Mar 27 13:09:16 blvirt2 multipathd: dm-120: remove map (uevent)
Mar 27 13:09:16 blvirt2 multipathd: dm-120: devmap not registered, can't remove
Mar 27 13:09:16 blvirt2 vdsm vm.Vm WARNING vmId=`b5b94ea6-0a39-43ef-a506-002c25c68c42`::trying to set state to Powering down when already Down
Mar 27 13:09:17 blvirt2 multipathd: dm-35: remove map (uevent)
Mar 27 13:09:17 blvirt2 multipathd: dm-35: devmap not registered, can't remove
Mar 27 13:09:17 blvirt2 multipathd: dm-35: remove map (uevent)
Mar 27 13:09:17 blvirt2 multipathd: dm-35: devmap not registered, can't remove
Вопрос ещё такой:

если на хранилке отключить эти LUN, как Овирт поведёт себя?

molik
Завсегдатай
Сообщения: 45
Зарегистрирован: 18 май 2017 05:19

Re: FC storage, статус LUN

Сообщение molik » 02 апр 2018 10:57

Обманул, вот этих двух LUN нет на хранилище:

3600000e00d1100000011362900260000
3600000e00d1100000011362900210000

Этот, вообще в другой LUN группе и хост никак не может его видеть.

3600000e00d11000000113629001b0000

Код: Выделить всё

3600000e00d1100000011362900260000 dm-92 FUJITSU,ETERNUS_DXL
size=1.0T features='0' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=enabled
| `- 0:0:0:10 sdu 65:64  failed faulty running
`-+- policy='round-robin 0' prio=0 status=enabled
  `- 1:0:0:10 sdv 65:80  failed faulty running
3600000e00d1100000011362900210000 dm-14 FUJITSU,ETERNUS_DXL
size=100G features='0' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=enabled
| `- 0:0:0:7  sdh 8:112  failed faulty running
`-+- policy='round-robin 0' prio=0 status=enabled
  `- 1:0:0:7  sdr 65:16  failed faulty running
3600000e00d11000000113629001b0000 dm-11 FUJITSU,ETERNUS_DXL
size=3.1T features='0' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=enabled
| `- 0:0:0:6  sdg 8:96   failed faulty running
`-+- policy='round-robin 0' prio=0 status=enabled
  `- 1:0:0:6  sdq 65:0   failed faulty running
Возможно стоит ребутнуть этот хост.
Я так понял, что когда-то удалили эти разделы с хранилки, а хост их запомнил.

Аватара пользователя
Dan Yasny
Дорогой гость
Сообщения: 73
Зарегистрирован: 07 окт 2016 14:17
Контактная информация:

Re: FC storage, статус LUN

Сообщение Dan Yasny » 03 апр 2018 13:31

Вот потому и тормозил. Если ничто не держит девайс (lsof-ом можно проверить) можно слить кэш через multipath -f

molik
Завсегдатай
Сообщения: 45
Зарегистрирован: 18 май 2017 05:19

Re: FC storage, статус LUN

Сообщение molik » 09 апр 2018 07:03

Dan Yasny писал(а):
03 апр 2018 13:31
Вот потому и тормозил. Если ничто не держит девайс (lsof-ом можно проверить) можно слить кэш через multipath -f

Ок.
Список multipath синхронизироваля между двумя хстами.
Теперь редактирование стораджей работает нормально и, maintenance стораджей тоже работает.

Становится не понятным, как правильно разделы удалять. Надо ещё заходить на каждый хост, очищать список multipath, удалять не нужные устройства?

Вот до этого, сначало в Овирте сделал detach стореджа, потом remove.
На хранилке отсоеденил разделы от хостов овирта.

После этого, в меню редактирования storage, в Овирте идентификаторы этих разделов были помечены оранжевым цветом с восклицательным знаком (скрин в первом посте). Ну и собственно с этого времени начались тормоза и проблемы.

Аватара пользователя
Dan Yasny
Дорогой гость
Сообщения: 73
Зарегистрирован: 07 окт 2016 14:17
Контактная информация:

Re: FC storage, статус LUN

Сообщение Dan Yasny » 09 апр 2018 12:23

если все отработало штатно, то проблем быть не должно, я думаю глюкнул именно multipath, как раз на днях слышал похожие жалобы на него из других источников. Надеюсь баг скоро починят

molik
Завсегдатай
Сообщения: 45
Зарегистрирован: 18 май 2017 05:19

Re: FC storage, статус LUN

Сообщение molik » 20 апр 2018 08:00

Короче так понял, что удаление стореджа должно происходить в такой последовательности:

1. в Овирте удаляем сторедж: "maintenance -> detach -> destroy".
2. потом заходим на каждый хост в кластере и удаляем соответствующий volume group и pvremove /dev/mapper/xxx.
3. далее multipath -f /dev/mapper/xxx
4. и потом уже отключаем раздел на хранилище.

Кстате вопрос: чем отличается remove и destroy при удалении стореджа в Овирте ?

Аватара пользователя
Dan Yasny
Дорогой гость
Сообщения: 73
Зарегистрирован: 07 окт 2016 14:17
Контактная информация:

Re: FC storage, статус LUN

Сообщение Dan Yasny » 20 апр 2018 12:41

Нет. Destroy убирает сторедж только из базы. Штатное удаление это remove

molik
Завсегдатай
Сообщения: 45
Зарегистрирован: 18 май 2017 05:19

Re: FC storage, статус LUN

Сообщение molik » 23 апр 2018 04:21

Если делать "remove", то volume также не удаляется и в multipath линк соответственно остаётся. Проверял на 4.2 кластере.
Т.е. приходится руками всё удалять, на каждом хосте иначе после отключения раздела на хранилке, будут ошибки на хостах.

Аватара пользователя
Алексей Максимов
Администратор сайта
Сообщения: 503
Зарегистрирован: 14 сен 2012 06:50
Откуда: г.Сыктывкар
Контактная информация:

Re: FC storage, статус LUN

Сообщение Алексей Максимов » 23 апр 2018 05:20

А разве обычный Reinstall проблемного хоста из веб-консоли oVirt Engine не решил бы в автоматическом режиме проблему с "мусором" в конфигурации multipath?

molik
Завсегдатай
Сообщения: 45
Зарегистрирован: 18 май 2017 05:19

Re: FC storage, статус LUN

Сообщение molik » 23 апр 2018 06:45

Алексей Максимов писал(а):
23 апр 2018 05:20
А разве обычный Reinstall проблемного хоста из веб-консоли oVirt Engine не решил бы в автоматическом режиме проблему с "мусором" в конфигурации multipath?
А reinstall, вроде же реинсталит гипервизор и хост нужно переводить в режим обслуживания.

Ответить

Вернуться в «oVirt»