ІТЕРАТИВНА ФОРМАЛІЗАЦІЯ ЕКСПЕРТНИХ ЗНАНЬ У СИСТЕМНІ ІНСТРУКЦІЇ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ
DOI:
https://doi.org/10.35546/kntu2078-4481.2026.2.33Ключові слова:
великі мовні моделі; LLM; формалізація знань; оптимізація промптів; автоматизований аудит документів; ітеративна оптимізація інструкцій; гендерно-чутливе відновленняАнотація
Стаття присвячена розв'язанню проблеми деградації логічного виводу великих мовних моделей (LLM) при семантичному аналізі великих документів. Дослідження фокусується на розробці фреймворку ітеративної формалізації неявних експертних знань (tacit knowledge) у системні інструкції для автоматизації аудиту планів розвитку громад на відповідність стандартам гендерно-чутливого відновлення. Методологія. Застосовано підхід багаторівневого логічного виводу («Оркестратор–Виконавець») на базі моделей класу gemini-2.5-flash. Математична модель системи представлена кортежем операторів, що включає Ініціалізатор-екстрактор для реверс-інжинірингу експертного мислення, Виконавця, QA-Аудитора для детекції галюцинацій, Суддю та Тренера, який формує пояснювальну модель помилок. Оптимізацію реалізовано як ітеративний цикл із механізмом Human-in-the-loop (HITL) для запобігання семантичному дрейфу та втраті фахової термінології. Для усунення анахронізмів впроваджено механізм семантичного контролю версій, що адаптує критерії аналізу до історичного контексту документа. Результати. Верифікацію проведено шляхом «сліпого тестування» на стратегічних планах 15 територіальних громад. Результати підтвердили високу узагальнювальну здатність оптимізованого промпту, забезпечивши рівень валідації, наближений до професійної людської оцінки за шкалою 0–10 балів. Використання архітектури «Оркестратор-Виконавець» дозволило суттєво знизити операційні витрати зі збереженням точності екстракції фактів. Новизна полягає у переосмисленні дистиляції знань як процесу «кристалізації» експертних евристик у семантичний простір системних промптів без донавчання нейромережі. Практична значущість реалізована в межах проєкту «GenPlan», де інструментарій забезпечує скринінг стратегічної документації для гендерно-чутливого планування відновлення громад
Посилання
Новаковський А., Яловега І. Визначення ролей агентів великих мовних моделей (LLM) у моделі дизайн-процесу. Сучасний стан наукових досліджень та технологій в промисловості. 2025. № 3 (33). С. 58–72. DOI:10.30837/2522-9818.2025.3.058.
Про затвердження Методичних рекомендацій щодо оцінювання гендерного впливу галузевих реформ :Наказ Міністерства соціальної політики України від 07.02.2020 № 86.
Wei J., Wang X., Schuurmans D. et al. Chain-of-thought prompting elicits reasoning in large language models. Advances in Neural Information Processing Systems. 2022. Vol. 35. P. 24824–24837.
Shojaee P., Mirzadeh I., Alizadeh K. et al. The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity. Apple, 2025. 23 p. DOI: 10.48550/arXiv.2506.06941
Khattab O. et al. DSPy: Compiling Declarative Language Model Calls into Self-Improving Pipelines. arXiv preprint. 2024. DOI:10.48550/arXiv.2310.03714
Yang C., Wang X., Lu Y. et al. Large language models as optimizers. arXiv preprint. 2024. DOI:10.48550/arXiv.2309.03409
Hinton G., Vinyals O., Dean J. Distilling the knowledge in a neural network. arXiv preprint. 2015. DOI:10.48550/arXiv.1503.02531
Wu X., Xiao L., Sun Y., Zhang J., Ma T., He L. A survey of human-in-the-loop for machine learning. Future Generation Computer Systems. 2022. Vol. 135. DOI: 10.1016/j.future.2022.05.014
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.




