ARCHITECTURE OF INFORMATION TECHNOLOGY FOR IMPLEMENTING AN AUTONOMOUS ADAPTIVE CONTENT GENERATION SYSTEM BASED ON MACHINE LEARNING METHODS

Authors

DOI:

https://doi.org/10.35546/kntu2078-4481.2026.2.30

Keywords:

autonomous adaptive content generation, LSTM, GAN, reinforcement learning, modular architecture, user behavior prediction, information technology

Abstract

This paper presents the architecture of an information technology system for autonomous adaptive content generation based on machine learning methods. The main problem addressed is ensuring effective dynamic content selection according to user behavior, which is critical for information systems, online platforms, and computer games. To solve this problem, a modular architecture is proposed, including: a data collection module for obtaining and preprocessing user information, an analytical module for predicting user responses using LSTM models and neural network agents, a content generation module based on Generative Adversarial Networks (GAN), and a control module implementing user interaction strategy optimization through reinforcement learning (RL). The system algorithm is described in detail, implementing a full cycle of autonomous adaptation: data collection, prediction, content generation, user response evaluation, model parameter update. Training was performed, the results of which showed a gradual decrease in the loss function (MSE). A comparative analysis of the full LSTM + GAN + RL system with baseline models (LSTM without generator, GAN without RL) was conducted. The comparative results indicate a significant reduction in mean squared error, improved prediction accuracy, and increased user engagement, confirming the effectiveness of the proposed modular architecture. The study demonstrates the practical applicability of autonomous adaptive content generation for information systems, online platforms, and computer games, while also highlighting future perspectives for improving generative and adaptive algorithms combined with multi-criteria reinforcement learning

References

Завгородній В.В., Завгородня Г.А., Валявська Н.О., Адаменко В.С., Дороговцев Є.В., Несмачний П.В. Метод автоматичної генерації контенту на основі процедурних алгоритмів. Вчені записки Таврійського національного університету імені В.І. Вернадського. Серія: Технічні науки, 2022, т. 33 (72), № 1, с. 91–96. DOI: https://doi.org/10.32838/2663-5941/2022.1/15

Завгородня Г.А., Завгородній В.В. Використання алгоритмів машинного навчання для динамічної адаптації складності комп’ютерних ігор. Таврійський науковий вісник. Серія: Технічні науки, 2025, 1(5), с. 156–163. DOI: https://doi.org/10.32782/tnv-tech.2025.5.1.16

Завгородня Г.А., Завгородній В.В. Розробка масштабованої розподіленої архітектури для масових багатокористувацьких онлайн-систем. Вісник Херсонського національного технічного університету, 2025, 4(95), частина 3, с. 99–106. DOI: https://doi.org/10.35546/kntu2078-4481.2025.4.3.11

Завгородня Г.А., Завгородній В.В. Моделювання поведінки гравця через нейромережеві агенти. Вчені записки ТНУ імені В.І. Вернадського. Серія: Технічні науки, 2025, т. 36(75), № 5, частина 2, с. 141–145. DOI: https://doi.org/10.32782/2663-5941/2025.6.2/20

Goodfellow, I., Pouget‑Abadie, J., Mirza, M., Xu, B., Warde‑Farley, D., Ozair, S., Courville, A., & Bengio, Y. (2020). Generative Adversarial Networks. Communications of the ACM, 63(11), 139–144. https://doi.org/10.1145/3422622

Karras, T., Aila, T., Laine, S., & Lehtinen, J. (2021). Progressive Growing of GANs for Improved Quality. IEEE Transactions on Pattern Analysis and Machine Intelligence, 43(3), 589–602. DOI: https://doi.org/10.48550/arXiv.1710.10196

Heaton, J. (2018). Review of “Deep Learning” by I. Goodfellow, Y. Bengio, and A. Courville. Genetic Programming and Evolvable Machines, 19, 305–307.

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017).Attention Is All You Need. Advances in Neural Information Processing Systems, 30, 5998–6008. DOI: https://doi.org/10.48550/arXiv.1706.03762

Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P. & Amodei, D. (2020). Language Models are Few‑Shot Learners. Advances in Neural Information Processing Systems, 33, 1877–1901. DOI: https://doi.org/10.48550/arXiv.2005.14165

Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2021). Language Models are Unsupervised Multitask Learners. OpenAI. URL: https://cdn.openai.com/better-language-models/language_models_are_unsupervised_multitask_learners.pdf

Sutton, R. S., & Barto, A. G. (2021). Reinforcement Learning: An Introduction. MIT Press. URL: https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf

Silver, D., Hubert, T., Schrittwieser, J., Antonoglou, I., Lai, M., Guez, A. & Hassabis, D. (2018). Mastering Chess and Shogi by Self‑Play with a General Reinforcement Learning Algorithm. Science, 362(6419), 1140–1144. DOI: https://doi.org/10.48550/arXiv.1712.01815

Published

2026-05-07