ARCHITECTURE OF INFORMATION TECHNOLOGY FOR IMPLEMENTING AN AUTONOMOUS ADAPTIVE CONTENT GENERATION SYSTEM BASED ON MACHINE LEARNING METHODS
DOI:
https://doi.org/10.35546/kntu2078-4481.2026.2.30Keywords:
autonomous adaptive content generation, LSTM, GAN, reinforcement learning, modular architecture, user behavior prediction, information technologyAbstract
This paper presents the architecture of an information technology system for autonomous adaptive content generation based on machine learning methods. The main problem addressed is ensuring effective dynamic content selection according to user behavior, which is critical for information systems, online platforms, and computer games. To solve this problem, a modular architecture is proposed, including: a data collection module for obtaining and preprocessing user information, an analytical module for predicting user responses using LSTM models and neural network agents, a content generation module based on Generative Adversarial Networks (GAN), and a control module implementing user interaction strategy optimization through reinforcement learning (RL). The system algorithm is described in detail, implementing a full cycle of autonomous adaptation: data collection, prediction, content generation, user response evaluation, model parameter update. Training was performed, the results of which showed a gradual decrease in the loss function (MSE). A comparative analysis of the full LSTM + GAN + RL system with baseline models (LSTM without generator, GAN without RL) was conducted. The comparative results indicate a significant reduction in mean squared error, improved prediction accuracy, and increased user engagement, confirming the effectiveness of the proposed modular architecture. The study demonstrates the practical applicability of autonomous adaptive content generation for information systems, online platforms, and computer games, while also highlighting future perspectives for improving generative and adaptive algorithms combined with multi-criteria reinforcement learning
References
Завгородній В.В., Завгородня Г.А., Валявська Н.О., Адаменко В.С., Дороговцев Є.В., Несмачний П.В. Метод автоматичної генерації контенту на основі процедурних алгоритмів. Вчені записки Таврійського національного університету імені В.І. Вернадського. Серія: Технічні науки, 2022, т. 33 (72), № 1, с. 91–96. DOI: https://doi.org/10.32838/2663-5941/2022.1/15
Завгородня Г.А., Завгородній В.В. Використання алгоритмів машинного навчання для динамічної адаптації складності комп’ютерних ігор. Таврійський науковий вісник. Серія: Технічні науки, 2025, 1(5), с. 156–163. DOI: https://doi.org/10.32782/tnv-tech.2025.5.1.16
Завгородня Г.А., Завгородній В.В. Розробка масштабованої розподіленої архітектури для масових багатокористувацьких онлайн-систем. Вісник Херсонського національного технічного університету, 2025, 4(95), частина 3, с. 99–106. DOI: https://doi.org/10.35546/kntu2078-4481.2025.4.3.11
Завгородня Г.А., Завгородній В.В. Моделювання поведінки гравця через нейромережеві агенти. Вчені записки ТНУ імені В.І. Вернадського. Серія: Технічні науки, 2025, т. 36(75), № 5, частина 2, с. 141–145. DOI: https://doi.org/10.32782/2663-5941/2025.6.2/20
Goodfellow, I., Pouget‑Abadie, J., Mirza, M., Xu, B., Warde‑Farley, D., Ozair, S., Courville, A., & Bengio, Y. (2020). Generative Adversarial Networks. Communications of the ACM, 63(11), 139–144. https://doi.org/10.1145/3422622
Karras, T., Aila, T., Laine, S., & Lehtinen, J. (2021). Progressive Growing of GANs for Improved Quality. IEEE Transactions on Pattern Analysis and Machine Intelligence, 43(3), 589–602. DOI: https://doi.org/10.48550/arXiv.1710.10196
Heaton, J. (2018). Review of “Deep Learning” by I. Goodfellow, Y. Bengio, and A. Courville. Genetic Programming and Evolvable Machines, 19, 305–307.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017).Attention Is All You Need. Advances in Neural Information Processing Systems, 30, 5998–6008. DOI: https://doi.org/10.48550/arXiv.1706.03762
Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P. & Amodei, D. (2020). Language Models are Few‑Shot Learners. Advances in Neural Information Processing Systems, 33, 1877–1901. DOI: https://doi.org/10.48550/arXiv.2005.14165
Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2021). Language Models are Unsupervised Multitask Learners. OpenAI. URL: https://cdn.openai.com/better-language-models/language_models_are_unsupervised_multitask_learners.pdf
Sutton, R. S., & Barto, A. G. (2021). Reinforcement Learning: An Introduction. MIT Press. URL: https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf
Silver, D., Hubert, T., Schrittwieser, J., Antonoglou, I., Lai, M., Guez, A. & Hassabis, D. (2018). Mastering Chess and Shogi by Self‑Play with a General Reinforcement Learning Algorithm. Science, 362(6419), 1140–1144. DOI: https://doi.org/10.48550/arXiv.1712.01815





