СЕГМЕНТАЦІЯ СМУГ ДЛЯ ОПТИМІЗАЦІЇ ТРАФІК-ПОТОКУ
DOI:
https://doi.org/10.35546/kntu2078-4481.2025.4.3.8Ключові слова:
сегментація смуг руху; комп’ютерний зір; глибоке навчання; інтелектуальні транспортні системи; оптимізація транспортних потоків; управління дорожнім рухом; LaneATT; ERFNet; ENet; PINet; CondLaneNetАнотація
Зростання інтенсивності дорожнього руху у містах призводить до збільшення заторів, підвищення рівня забруднення повітря та зниження безпеки учасників руху, тому ефективне управління транспортними потоками стає критично важливим завданням для сучасних мегаполісів. Технології комп’ютерного зору, зокрема сегментація смуг руху, відкривають нові можливості для інтелектуального управління дорожнім рухом та оптимізації використання наявної транспортної інфраструктури. У роботі здійснено комплексний аналіз сучасних нейромережевих архітектур сегментації смуг руху з метою визначення їхнього потенціалу в оптимізації транспортних потоків та оцінки можливостей застосування в системах управління дорожнім рухом. Проведено порівняльний аналіз п’яти передових архітектур глибокого навчання: LaneATT з механізмом уваги для виявлення ключових точок; ERFNet та ENet як ефективних архітектур реального часу; PINet для instance-based сегментації смуг; а також CondLaneNet з умовною генерацією форми смуг. Досліджено особливості кожної архітектури, їхню обчислювальну ефективність і точність, а також проаналізовано вплив якості сегментації на показники оптимізації транспортних потоків. Показано, що CondLaneNet забезпечує найвищу точність сегментації та найкраще відновлення геометрії смуг за низького рівня трафіку й простої топології доріг, тоді як LaneATT демонструє дещо нижчу пікову точність, проте характеризується більш плавною деградацією якості зі зростанням щільності руху. ENet та ERFNet забезпечують прийнятний компроміс між точністю та обчислювальною складністю, що робить їх придатними для систем реального часу з обмеженими ресурсами. PINet, завдяки представленням на основі ключових точок і кластеризації, виявляє найкращу стійкість до оклюзій і складних дорожніх сценаріїв та зберігає найбільшу частку базової якості в умовах середнього та високого трафіку. Отримані результати дають змогу обґрунтовано обирати оптимальну архітектуру для конкретних сценаріїв застосування в інтелектуальних транспортних системах.
Посилання
Zheng, T., Huang, Y., Liu, Y., Tang, W., Yang, Z., Cai, D., & He, X. (2022). CLRNet: Cross layer refinement network for lane detection. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 898-907. https://doi.org/10.1109/CVPR52688.2022.00097
Liu, L., Chen, X., Zhu, S., & Tan, P. (2021). CondLaneNet: A top-to-down lane detection framework based on conditional convolution. Proceedings of the IEEE/CVF International Conference on Computer Vision, 3773-3782. https://doi.org/10.1109/ICCV48922.2021.00375
Ko, Y., Lee, Y., Azam, S., Munir, F., Jeon, M., & Pedrycz, W. (2022). Key points estimation and point instance segmentation approach for lane detection. IEEE Transactions on Intelligent Transportation Systems, 23(7), 8949-8958. https://doi.org/10.1109/TITS.2021.3088488
Tabelini, L., Berriel, R., Paixao, T. M., Badue, C., De Souza, A. F., & Oliveira-Santos, T. (2021). Keep your eyes on the lane: Real-time attention-guided lane detection. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 294-302. https://doi.org/10.1109/CVPR46437.2021.00036
Pan, X., Shi, J., Luo, P., Wang, X., & Tang, X. (2018). Spatial as deep: Spatial CNN for traffic scene understanding. Proceedings of the AAAI Conference on Artificial Intelligence, 32(1), 7276-7283. https://doi.org/10.1609/aaai.v32i1.12301
Qin, Z., Wang, H., & Li, X. (2020). Ultra fast structure-aware deep lane detection. European Conference on Computer Vision (ECCV), 276-291. https://doi.org/10.1007/978-3-030-58586-0_17
Feng, Z., Guo, S., Tan, X., Xu, K., Wang, M., & Ma, L. (2022). Rethinking efficient lane detection via curve modeling. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 17062-17070. https://doi.org/10.1109/CVPR52688.2022.01655
Zheng, T., Fang, H., Zhang, Y., Tang, W., Yang, Z., Liu, H., & Cai, D. (2021). RESA: Recurrent feature-shift aggregator for lane detection. Proceedings of the AAAI Conference on Artificial Intelligence, 35(4), 3547-3554. https://doi.org/10.1609/aaai.v35i4.16469
Wang, J., Ma, Y., Huang, S., Hui, T., Wang, F., Qian, C., & Zhang, T. (2022). A keypoint-based global association network for lane detection. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 1392-1401. https://doi.org/10.1109/CVPR52688.2022.00147
Liu, R., Yuan, Z., Liu, T., & Xiong, Z. (2021). End-to-end lane shape prediction with transformers. 2021 IEEE Winter Conference on Applications of Computer Vision (WACV), 3693-3701. https://doi.org/10.1109/WACV48630.2021.00374
Xu, H., Wang, S., Cai, X., Zhang, W., Liang, X., & Li, Z. (2020). CurveLane-NAS: Unifying lane-sensitive architecture search and adaptive point blending. European Conference on Computer Vision (ECCV), 689-704. https://doi.org/10.48550/arXiv.2007.12147
Li, X., Li, J., Hu, X., & Yang, J. (2020). Line-CNN: End-to-end traffic line detection with line proposal unit. IEEE Transactions on Intelligent Transportation Systems, 21(1), 248-258. https://doi.org/10.1109/TITS.2019.2890870
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.






