ОПТИМІЗАЦІЯ ПАРАМЕТРІВ ІНФОРМАЦІЙНО-ЕКСТРЕМАЛЬНОГО МАШИННОГО НАВЧАННЯ ДЛЯ РОЗПІЗНАВАННЯ НАЗЕМНИХ ОБ’ЄКТІВ БЕЗПІЛОТНИМИ ЛІТАЛЬНИМИ АПАРАТАМИ
DOI:
https://doi.org/10.35546/kntu2078-4481.2025.2.2.31Ключові слова:
БПЛА, машинне навчання, інформаційно-екстремальний підхід, автономна навігаціяАнотація
Стаття присвячена обґрунтуванню інноваційного підходу до автономної навігації безпілотних літальних апаратів (БПЛА) на основі машинного навчання з використанням інформаційно-екстремального методу. Основна увага зосереджена на оптимізації параметрів машинного навчання для підвищення точності розпізнавання наземних об’єктів у геопросторовій сцені.У дослідженні визначено оптимальні значення параметрів машинного навчання вектору, що дозволило побудувати геометричні контейнери класів розпізнавання та сформувати на їх основі ефективні вирішувальні правила. Функціональне тестування алгоритму підтвердило безпомилковість роботи системи за навчальною матрицею, а екзаменаційний етап продемонстрував високу точність машинного навчання автономного БПЛА. Ключовим теоретичним результатом є обґрунтування задачі інформаційно-екстремального синтезу бортової системи безпілотного літального апарату, яка полягає у пошуку глобального максимуму інформаційного критерію для оптимізації параметрів навчання у різних зонах геопросторової сцени. Додатково запропоновано функціональну категорійну модель машинного навчання другого рівня глибини, що може значно підвищити якість розпізнавання в умовах динамічного середовища.Запропоновано нову функціональну категорійну модель машинного навчання другого рівня глибини, що значно підвищує якість розпізнавання складних об’єктів у динамічних умовах. Ефективність моделі полягає у поєднанні інформаційно-екстремального методу з категорійною моделлю машинного навчання. Практична значимість отриманих результатів проявляється у можливості їх використання для розробки інтелектуальних систем управління БПЛА, обробки геопросторових даних та застосування у військовій, картографічній та моніторинговій сферах.Робота відкриває нові перспективи для створення високоефективних автономних систем навігації, здатних функціонувати в реальному часі у умовах динамічного змінного середовища.
Посилання
Afghah F., Razi A., Chakareski J., Ashdown J. Wildfire Monitoring in Remote Areas using Autonomous Unmanned Aerial Vehicles // arXiv preprint. 2019. № arXiv:1905.00492. URL: https://arxiv.org/abs/1905.00492
An Onboard Vision-Based System for Autonomous Landing of a Low-Cost Quadrotor on a Novel Landing Pad / Liu et al. Sensors. 2019. Vol. 19, no. 21. P. 4703. URL: https://doi.org/10.3390/s19214703
Badrinarayanan V., Kendall A., Cipolla R. SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2017. Vol. 39, no. 12. P. 2481–2495. URL: https://doi.org/10.1109/tpami.2016.2644615
Current status and perspective of remote sensing application in crop management / M. Jurišić et al. Journal of Central European Agriculture. 2021. Vol. 22, no. 1. P. 156–166. URL: :10.5513/JCEA01/22.1.3042
DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs / L.-C. Chen et al. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2018. Vol. 40, no. 4. P. 834–848. URL: https://doi.org/10.1109/tpami.2017.2699184
Engel J., Koltun V., Cremers D. Direct Sparse Odometry. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2018. Vol. 40, no. 3. P. 611–625. URL: https://doi.org/10.1109/tpami.2017.2658577
Forster C., Pizzoli M., Scaramuzza D. SVO: Fast semi-direct monocular visual odometry. 2014 IEEE International Conference on Robotics and Automation (ICRA). 2014. P. 15–22. URL: https://ieeexplore.ieee.org/document/6906584/citations#citations
G. Huang. Visual-Inertial Navigation: A Concise Review. International Conference on Robotics and Automation (ICRA). 2019. P. 9572-9582. URL: 10.1109/ICRA.2019.8793604
Information-Extreme Machine Learning of On-Board Vehicle Recognition System / A. S. Dovbysh et al. Cybernetics and Systems Analysis. 2020. Vol. 56, no. 4. P. 534–543. URL: https://doi.org/10.1007/s10559-020-00269-y
Liu Y., Zhang L. Machine Vision and Deep Learning for Autonomous UAV Navigation. Journal of Field Robotics. 2018. No. 35(4). P. 665–684. URL: https://doi.org/10.1002/rob.21855
Otroshchenko M., Myronenko M. DETERMINING THE LOCATION OF THE AUTONOMOUS UAV. Information Technology and Implementation (Satellite): Conference Proceedings, Kyiv, 24 November 2024. Kyiv, 2024. P. 56–57. URL: http://iti.fit.univ.kiev.ua/wp-content/uploads/Збірка-19_12_2024_ITI_2024-е.pdf
Park J., Lee H. GPS/IMU and Vision Integration for Autonomous UAV Navigation. International Journal of Aerospace Engineering. 2017. P. 1–10. URL: https://doi.org/10.1155/2017/4792174
Radar/electro-optical data fusion for non-cooperative UAS sense and avoid / G. Fasano et al. Aerospace Science and Technology. 2015. Vol. 46. P. 436–450. URL: https://doi.org/10.1016/j.ast.2015.08.010
Ronneberger O., Fischer P., Brox T. U-Net: Convolutional Networks for Biomedical Image Segmentation. Lecture Notes in Computer Science. Cham, 2015. P. 234–241. URL: https://doi.org/10.1007/978-3-319-24574-4_28
Scaramuzza D., Fraundorfer F. Visual Odometry [Tutorial]. IEEE Robotics & Automation Magazine. 2011. Vol. 18, no. 4. P. 80–92. URL: https://doi.org/10.1109/mra.2011.943233
Singh, I. P., Patel, A. Visual odometry for autonomous vehicles. Int. J. of Adv. Res. 7. 2019. P. 1136–1144. URL: https://dx.doi.org/10.21474/IJAR01/9765
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.






