АДАПТИВНИЙ РОЗПОДІЛ ОБЧИСЛЮВАЛЬНОГО НАВАНТАЖЕННЯ В СИСТЕМАХ ГОЛОСОВОЇ ІДЕНТИФІКАЦІЇ
DOI:
https://doi.org/10.35546/kntu2078-4481.2025.4.3.3Ключові слова:
системи голосової ідентифікації, MFCC, спектральне віднімання, вейвлет-фільтрація, CPU, GPU, адаптивний розподіл навантаження, керування навантаженням, розподіл задач, динамічне балансування ресурсів, продуктивність у реальному часі, багатопроцесорні системиАнотація
У роботі запропоновано підхід до підвищення ефективності систем голосової ідентифікації шляхом розподілу обчислювального навантаження між центральним (CPU) та графічним (GPU) процесорами. Існуючі реалізації подібних систем ґрунтуються на фіксованих схемах розподілу, у межах яких окремі етапи обробки апріорі асоційовані з CPU або GPU. Така статична організація обчислень не враховує динамічної варіативності параметрів мовного сигналу, поточного стану обчислювальних ресурсів та істотних відмінностей у обчислювальній складності окремих операцій. За таких умов система позбавлена механізмів адаптивного перерозподілу навантаження, що зумовлює асиметричне використання CPU та GPU і, відповідно, призводить до зниження інтегральної продуктивності. Запропоновано адаптивний алгоритм, який реалізує керування розподілом навантаження на основі аналізу комплексу характеристик мовних записів, що включає довжину кадру, ступінь перекриття, енергетичний вміст та спектральну насиченість сигналу. Використання цих параметрів дозволяє кількісно оцінювати обчислювальну складність поточного сегмента оброблюваного сигналу та динамічно визначати співвідношення обчислювальних операцій, виконуваних на CPU і GPU. Це забезпечує узгоджену взаємодію процесорів, мінімізацію простоїв і підвищення загальної швидкодії системи. Проведений порівняльний аналіз показав, що використання адаптивного алгоритму дозволяє суттєво зменшити середній час обробки мовних фрагментів порівняно з підходами, у яких розподіл здійснюється лише за обсягом даних. Запропонований блок адаптивного керування та розподілу навантаження підвищує загальну продуктивність систем голосової ідентифікації, особливо під час обробки великих та структурно складних наборів сигналів, і може бути інтегрований у сучасні багатопроцесорні архітектури.
Посилання
Samonte M. J. C., Callejo J. K., Lumbera D. C. N., Ocaya J. C. B. Mitigating Vishing in Digital Banking Through Caller Authentication and Verification Technologies. 2024 14th International Conference on Software Technology and Engineering ICSTE, Macau, China. 2024. Pp. 102–108. DOI: 10.1109/ICSTE63875.2024.00025
Kambampati P., Rane S., Shoeb A., Dhannawat R. PAYV Payment Voice A Platform using Voice Recognition to Enable Payment Transactions. 2024 Asia Pacific Conference on Innovation in Technology APCIT, Mysore, India. 2024. Pp. 1–6. DOI: 10.1109/APCIT62007.2024.10673442
Li Y., Gao X., Song Q., Wang Y., Lyu P., Zhang H. BoneAuth A Bone-Conduction-Based Voice Liveness Authentication for Voice Assistants. IEEE Internet of Things Journal. 2025. Vol. 12, no. 6. Pp. 6997–7009. DOI: 10.1109/ JIOT.2024.3494024
Bao L., Zuo Y. Speaker Identification based on MFSC Voice Feature Extraction using Transformer. 2023 IEEE International Conference on Data Mining Workshops ICDMW, Shanghai, China. 2023. Pp. 1–7. DOI: 10.1109/ ICDMW60847.2023.00008
Chen Q., Gu Z., Lu L., Xu X., Ba Z., Lin F., Liu Z., Ren K. Conan’s Bow Tie A Streaming Voice Conversion for Real-Time VTuber Livestreaming. Proceedings of the 29th International Conference on Intelligent User Interfaces. 2024. Pp. 35–50. DOI: 10.1145/3640543.3645146
Mykhailichenko I., Ivashchenko H., Barkovska O., Liashenko O. Application of Deep Neural Network for Real-Time Voice Command Recognition. IEEE 3rd KhPI Week on Advanced Technology KhPIWeek, Kharkiv, Ukraine. 2022. Pp. 1–4. DOI: 10.1109/KhPIWeek57572.2022.9916473
Бондаренко М. E., Іващенко Г. С. Використання послідовності методів попередньої обробки в системах голосової ідентифікації. Системи управління, навігації та зв’язку. Полтава: ПНТУ. 2025. № 2 (80). С. 90–96. DOI: 10.26906/SUNZ.2025.2.090
Бондаренко М. E., Іващенко Г. С. Організація паралельного виконання методів обробки голосових сигналів на багатоядерних CPU та GPU. Системи управління, навігації та зв’язку. Полтава: ПНТУ. 2025. № 4 (82). С. 39–44. DOI: 10.26906/SUNZ.2025.4.39-44
Gjermundsen A. CPU and GPU Co-processing for Sound. MA thesis. Norwegian University of Science and Technology. 2010. 173 p.
Momcilovic S., Ilic A., Roma N., Sousa L. Dynamic Load Balancing for Real-Time Video Encoding on Heterogeneous CPU+GPU Systems. IEEE Transactions on Multimedia. 2014. Vol. 16, no. 1. Pp. 108–121. DOI: 10.1109/TMM.2013.2284892
Kim J., Lane I. Accelerating Large Vocabulary Continuous Speech Recognition on Heterogeneous CPU-GPU Platforms. 2014 IEEE International Conference on Acoustics, Speech and Signal Processing ICASSP, Florence, Italy. 2014. Pp. 3291–3295. DOI: 10.1109/ICASSP.2014.6854209
Kossaifi J., Walecki R., Panagakis Y., Shen J., Schuller B., Pantic M. SEWA DB A Rich Database for Audio-Visual Emotion and Sentiment Research in the Wild. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2021. Vol. 43, no. 3. Pp. 1022–1040. DOI: 10.1109/TPAMI.2019.2944808
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.






