МОДЕЛЮВАННЯ ПОВЕДІНКИ ГРАВЦІВ У ВЕБ-ІГРАХ ЧЕРЕЗ ШТУЧНИЙ ІНТЕЛЕКТ: ВИПРОБУВАННЯ І РЕЗУЛЬТАТИ

Автор(и)

  • Л. І. КУБЛІЙ Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського» https://orcid.org/0000-0002-1015-3209
  • О. І. ЮЩЕНКО Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського» https://orcid.org/0009-0001-2494-0449

DOI:

https://doi.org/10.35546/kntu2078-4481.2025.1.2.17

Ключові слова:

автоматизація, штучний інтелект, комп’ютерний зір, алгоритми прийняття рішень, гра «Вода і Вогонь», планування шляху

Анотація

Стаття присвячена розробці системи штучного інтелекту (ШІ) для моделювання поведінки гравців у веб-іграх на прикладі автоматичного проходження рівнів популярної гри «Вода і Вогонь», де два персонажі – Fireboy і Watergirl – повинні долати перешкоди і розв’язувати головоломки. Основною метою є створення ефективного штучного інтелекту, здатного виявляти об’єкти на екрані, аналізувати ситуацію та приймати обґрунтовані рішення для планування руху, взаємодії з об’єктами і подолання перешкод. Проведений аналіз наявних мето- дів автоматизації показав, що вони потребують вдосконалення для забезпечення точності й швидкості рішень у реальному часі. У статті запропоновано використовувати технології комп’ютерного зору для виявлення об’єктів за кольором і контурами, а також алгоритми планування шляху і прийняття рішень.Завдяки впровадженню сучасних алгоритмів навчання з підкріпленням, таких як Proximal Policy Optimization (PPO), розроблений штучний інтелект здатен адаптувати свою поведінку на основі досвіду, отриманого під час численних епізодів гри. Це дає можливість агентам Fireboy і Watergirl ефективно взаємодіяти з ігровими елементами, уникати небезпек та оптимізувати стратегії для досягнення цілей. Випробування показали, що штучний інтелект може самостійно приймати стратегічні рішення, такі як вибір оптимального маршруту і уникнення небажаних зон, що значно підвищує рівень автономності та ефективності.Впровадження штучного інтелекту в ігровий процес дає можливість створити більш динамічне та інтерактивне середовище, здатне адаптуватися до дій гравця в реальному часі. Це відкриває нові можливості для розробників при створенні ігор, які можуть забезпечити унікальний досвід для кожного користувача. Крім того, такі технології можуть бути застосовані не лише у сфері розваг, але й в інших галузях, де потрібна автоматизація процесів і прийняття рішень в умовах невизначеності. Отримані результати можуть бути використані для подальшого вдосконалення ігрового процесу, підвищення рівня інтерактивності та адаптивності ігор, а також для розробки нових підходів до автоматизації в різних галузях.

Посилання

Гра Вогонь і вода. URL: https://ua.sgames.org/188503/ (дата звернення: 06.01.2025).

Proximal Policy OptimizationA lgorithms / Schulman J. et al. arXiv:1707.06347v2. 2017,A ug 28. URL: https://arxiv.org/ pdf/1707.06347v2

DhanushKumar. PPO Algorithm. 2024, Feb 21. URL: https://medium.com/@danushidk507/ppo-algorithm- 3b33195de14a (дата звернення: 06.01.2025).

A Study on Overfitting in Deep Reinforcement Learning / Zhang C., Vinyals O., Munos R., Bengio S. A. arXiv:1804.06893v2. 2018, Apr 18. URL: https://arxiv.org/pdf /1804.06893 (дата звернення: 06.01.2025).

Hart P. E., Nilsson N. J., Raphael B. A Formal Basis for the Heuristic Determination of MinimumCost Paths. IEEE Transactions on Systems Science and Cybernetics. 1968. № 4(2). P. 100–107. URL: https://ieeexplore.ieee.org/ document/4082128 (дата звернення: 06.01.2025).

Mastering the Game of Go with Deep Neural Networks and Tree Search / Silver D. et al. Nature. 2016, Jan 27. № 529. P. 484–489. URL: https://www.nature.com/articles/nature16961 (дата звернення: 06.01.2025).

Human-level control through deep reinforcement learning / Mnih V. et al. Nature. 2015, Feb 25. № 518. P. 529–533. URL: https://www.nature.com/articles/nature14236 (дата звернення: 06.01.2025).

Hunt J. J., Pritzel A., Heess N., Erez T., Tassa Y., Silver D., Wierstra D. Continuous control with deep reinforcement learning / Lillicrap T. P. et al. arXiv:1509.02971v6>. 2015, Sep 9. URL: https://arxiv.org/abs/1509.02971 (дата звер- нення: 06.01.2025).

##submission.downloads##

Опубліковано

2025-02-25