СЕГМЕНТАЦІЯ СМУГ ДЛЯ ОПТИМІЗАЦІЇ ТРАФІК-ПОТОКУ

Автор(и)

DOI:

https://doi.org/10.35546/kntu2078-4481.2025.4.3.8

Ключові слова:

сегментація смуг руху; комп’ютерний зір; глибоке навчання; інтелектуальні транспортні системи; оптимізація транспортних потоків; управління дорожнім рухом; LaneATT; ERFNet; ENet; PINet; CondLaneNet

Анотація

Зростання інтенсивності дорожнього руху у містах призводить до збільшення заторів, підвищення рівня забруднення повітря та зниження безпеки учасників руху, тому ефективне управління транспортними потоками стає критично важливим завданням для сучасних мегаполісів. Технології комп’ютерного зору, зокрема сегментація смуг руху, відкривають нові можливості для інтелектуального управління дорожнім рухом та оптимізації використання наявної транспортної інфраструктури. У роботі здійснено комплексний аналіз сучасних нейромережевих архітектур сегментації смуг руху з метою визначення їхнього потенціалу в оптимізації транспортних потоків та оцінки можливостей застосування в системах управління дорожнім рухом. Проведено порівняльний аналіз п’яти передових архітектур глибокого навчання: LaneATT з механізмом уваги для виявлення ключових точок; ERFNet та ENet як ефективних архітектур реального часу; PINet для instance-based сегментації смуг; а також CondLaneNet з умовною генерацією форми смуг. Досліджено особливості кожної архітектури, їхню обчислювальну ефективність і точність, а також проаналізовано вплив якості сегментації на показники оптимізації транспортних потоків. Показано, що CondLaneNet забезпечує найвищу точність сегментації та найкраще відновлення геометрії смуг за низького рівня трафіку й простої топології доріг, тоді як LaneATT демонструє дещо нижчу пікову точність, проте характеризується більш плавною деградацією якості зі зростанням щільності руху. ENet та ERFNet забезпечують прийнятний компроміс між точністю та обчислювальною складністю, що робить їх придатними для систем реального часу з обмеженими ресурсами. PINet, завдяки представленням на основі ключових точок і кластеризації, виявляє найкращу стійкість до оклюзій і складних дорожніх сценаріїв та зберігає найбільшу частку базової якості в умовах середнього та високого трафіку. Отримані результати дають змогу обґрунтовано обирати оптимальну архітектуру для конкретних сценаріїв застосування в інтелектуальних транспортних системах.

Посилання

Zheng, T., Huang, Y., Liu, Y., Tang, W., Yang, Z., Cai, D., & He, X. (2022). CLRNet: Cross layer refinement network for lane detection. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 898-907. https://doi.org/10.1109/CVPR52688.2022.00097

Liu, L., Chen, X., Zhu, S., & Tan, P. (2021). CondLaneNet: A top-to-down lane detection framework based on conditional convolution. Proceedings of the IEEE/CVF International Conference on Computer Vision, 3773-3782. https://doi.org/10.1109/ICCV48922.2021.00375

Ko, Y., Lee, Y., Azam, S., Munir, F., Jeon, M., & Pedrycz, W. (2022). Key points estimation and point instance segmentation approach for lane detection. IEEE Transactions on Intelligent Transportation Systems, 23(7), 8949-8958. https://doi.org/10.1109/TITS.2021.3088488

Tabelini, L., Berriel, R., Paixao, T. M., Badue, C., De Souza, A. F., & Oliveira-Santos, T. (2021). Keep your eyes on the lane: Real-time attention-guided lane detection. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 294-302. https://doi.org/10.1109/CVPR46437.2021.00036

Pan, X., Shi, J., Luo, P., Wang, X., & Tang, X. (2018). Spatial as deep: Spatial CNN for traffic scene understanding. Proceedings of the AAAI Conference on Artificial Intelligence, 32(1), 7276-7283. https://doi.org/10.1609/aaai.v32i1.12301

Qin, Z., Wang, H., & Li, X. (2020). Ultra fast structure-aware deep lane detection. European Conference on Computer Vision (ECCV), 276-291. https://doi.org/10.1007/978-3-030-58586-0_17

Feng, Z., Guo, S., Tan, X., Xu, K., Wang, M., & Ma, L. (2022). Rethinking efficient lane detection via curve modeling. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 17062-17070. https://doi.org/10.1109/CVPR52688.2022.01655

Zheng, T., Fang, H., Zhang, Y., Tang, W., Yang, Z., Liu, H., & Cai, D. (2021). RESA: Recurrent feature-shift aggregator for lane detection. Proceedings of the AAAI Conference on Artificial Intelligence, 35(4), 3547-3554. https://doi.org/10.1609/aaai.v35i4.16469

Wang, J., Ma, Y., Huang, S., Hui, T., Wang, F., Qian, C., & Zhang, T. (2022). A keypoint-based global association network for lane detection. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 1392-1401. https://doi.org/10.1109/CVPR52688.2022.00147

Liu, R., Yuan, Z., Liu, T., & Xiong, Z. (2021). End-to-end lane shape prediction with transformers. 2021 IEEE Winter Conference on Applications of Computer Vision (WACV), 3693-3701. https://doi.org/10.1109/WACV48630.2021.00374

Xu, H., Wang, S., Cai, X., Zhang, W., Liang, X., & Li, Z. (2020). CurveLane-NAS: Unifying lane-sensitive architecture search and adaptive point blending. European Conference on Computer Vision (ECCV), 689-704. https://doi.org/10.48550/arXiv.2007.12147

Li, X., Li, J., Hu, X., & Yang, J. (2020). Line-CNN: End-to-end traffic line detection with line proposal unit. IEEE Transactions on Intelligent Transportation Systems, 21(1), 248-258. https://doi.org/10.1109/TITS.2019.2890870

##submission.downloads##

Опубліковано

2025-12-31