ІНТЕРПРЕТОВАНА КЛАСИФІКАЦІЯ ГЕМОДИНАМІЧНОГО СТАНУ НА ОСНОВІ ВІДБОРУ КЛЮЧОВИХ НЕІНВАЗИВНИХ ПАРАМЕТРІВ ТА АНАЛІЗУ ВАЖЛИВОСТІ ОЗНАК

Автор(и)

DOI:

https://doi.org/10.35546/kntu2078-4481.2025.3.2.47

Ключові слова:

гемодинамічний стан, машинне навчання, інтерпретовані моделі, неінвазивні параметри, SHAP-аналіз, пояснюваний штучний інтелект, класифікація

Анотація

У статті розглянуто проблему інтерпретованої класифікації гемодинамічного стану людини на основі відбору ключових неінвазивних параметрів та аналізу важливості ознак. Сучасна медицина все більше орієнтується на створення автоматизованих систем моніторингу життєво важливих функцій організму, що базуються на методах машинного навчання та штучного інтелекту. Однак значною перешкодою у впровадженні таких систем є проблема довіри з боку лікарів та пацієнтів, оскільки більшість моделей машинного навчання працюють як «чорні скриньки», без зрозумілої логіки прийняття рішень. Це обмежує практичну цінність навіть високо точних алгоритмів, адже клінічні спеціалісти потребують не лише результату класифікації, а й аргументованого пояснення, чому саме той чи інший стан визначено.Метою дослідження є створення інтерпретованої моделі класифікації гемодинамічного стану із застосуванням відбору найбільш інформативних неінвазивних фізіологічних параметрів та методів пояснення моделей.У роботі використано такі показники: частота серцевих скорочень, артеріальний тиск, варіабельність серцевого ритму, насичення крові киснем (SpO₂) та частота дихання. На основі експериментів з моделями Random Forest, XGBoost, логістичною регресією та інтерпретованими деревами рішень здійснено порівняльний аналіз ефективності класифікації та зрозумілості результатів. Для оцінки внеску окремих ознак застосовано метод SHAP-аналізу, що дозволив кількісно визначити значущість параметрів у процесі прогнозування. Результати дослідження свідчать, що найбільш вагомими ознаками для оцінки гемодинамічного стану є насичення крові киснем (SpO2) та варіабельність серцевого ритму (HRV). Їх поєднання забезпечує найбільшу діагностичну інформативність у виявленні компенсованих та декомпенсованих станів. Частота серцевих скорочень та артеріальний тиск відіграють роль додаткових предикторів, тоді як частота дихання має допоміжне значення. Використання інтерпретованих алгоритмів дозволило сформувати правила класифікації у вигляді зрозумілих для лікаря залежностей, що значно підвищує рівень довіри до системи та створює передумови для практичного застосування.Таким чином, запропонований підхід поєднує високу точність автоматизованої діагностики з прозорістю та пояснюваністю результатів. Це робить його перспективним для впровадження у системи підтримки клінічних рішень, мобільні сенсорні пристрої та телемедичні платформи. Подальші дослідження доцільно спрямувати на тестування запропонованої моделі на розширених клінічних вибірках, а також на інтеграцію з інтелектуальними інформаційними системами для персоналізованої медицини.

Посилання

Vincent J. L., De Backer D. Circulatory shock // New England Journal of Medicine. 2013. Vol. 369, No. 18. P. 1726–1734.

Cecconi M., De Backer D., Antonelli M., et al. Consensus on circulatory shock and hemodynamic monitoring // Intensive Care Medicine. 2014. Vol. 40, No. 12. P. 1795–1815.

Tamura T., Maeda Y., Sekine M., Yoshida M. Wearable photoplethysmographic sensors – Past and present // Electronics. 2014. Vol. 3, No. 2. P. 282–302.

Shaffer F., Ginsberg J. P. An overview of heart rate variability metrics and norms // Frontiers in Public Health. 2017. Vol. 5. P. 258.

Rajkomar A., Dean J., Kohane I. Machine learning in medicine // New England Journal of Medicine. 2019. Vol. 380, No. 14. P. 1347–1358.

Johnson A. E. W., Ghassemi M., Nemati S., et al. Machine learning and decision support in critical care // Proceedings of the IEEE. 2016. Vol. 104, No. 2. P. 444–466.

Rudin C. Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead // Nature Machine Intelligence. 2019. Vol. 1, No. 5. P. 206–215.

Holzinger A., Langs G., Denk H., Zatloukal K., Müller H. Causability and explainability of artificial intelligence in medicine // Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery. 2019. Vol. 9, No. 4. e1312.

Lundberg S. M., Lee S.-I. A unified approach to interpreting model predictions // Advances in Neural Information Processing Systems. 2017. Vol. 30. P. 4765–4774.

Ribeiro M. T., Singh S., Guestrin C. «Why Should I Trust You?»: Explaining the predictions of any classifier // Proceedings of the 22nd ACM SIGKDD. 2016. P. 1135–1144.

##submission.downloads##

Опубліковано

2025-11-28