РОЗПІЗНАВАННЯ ЗОБРАЖЕНЬ НАБОРУ FASHION MNIST МЕТОДАМИ ГЛИБОКОГО НАВЧАННЯ
DOI:
https://doi.org/10.32782/KNTU2618-0340/2021.4.1.8Ключові слова:
розпізнавання зображень, Fashion MNIST, нейронна мережа, FNN, CNN, PYTHON, KERAS, TENSORFLOW, якість розпізнавання, гіперпараметриАнотація
Огляд сучасних методів розпізнавання об’єктів-зображень показав, що алгоритми глибокого навчання успішно використовуються і дозволяють отримати високу якість. Прикладом можливо привести якість розпізнавання символів набору MNIST, яка наблизилась до 100%. Для другого набору даних, який теж популярний при тестуванні алгоритмів глибокого навчання, а саме, набору елементів одягу та аксесуарів Fashion MNIST, така висока якість розпізнавання ще не отримана. У роботі представлені результати розпізнавання даних Fashion MNISТ. Розглянуті моделі нейронної мережі прямого поширення і згорткової мережі. Виконано програмну реалізацію алгоритмів глибокого навчання, а саме, розглянуто багатошарову мережу прямого поширення (FNN) та згорткову нейронну мережу (CNN). Використано мову Python, бібліотеки TensorFlow та Keras Бібліотека Keras дозволяє спрощувати виклики функцій з TensorFlow. Типовий процес роботи в Python Keras полягає в наступному: завантаження необхідних модулів, завантаження даних, попередня обробка, розбивка їх на навчальну, тестову і валідаційну частини; створення моделі із зазначенням архітектури, та інше. Розроблено модуль для перегляду зображень набору даних, параметрів мережі та інформації з якості розпізнавання. Виконано чисельний експеримент розпізнавання елементів одягу засобами FNN. Проведено автоматичне налаштування гіперпараметрів мережі. Якість розпізнавання на тестових даних дорівнює 0,89. Налаштування гіперпараметрів покращило якість несуттєво. Невисока якість розпізнавання пояснюється також використанням дуже простої моделі нейронної мережі. Поліпшення результатів було досягнуто з використанням згорткової нейронної мережі. Кращій результати розпізнавання, який отримано у роботі, дорівнює 91.26%, але відомий найкращий результат якості розпізнавання дорівнює 94%. Роботу з вдосконалення результатів розпізнавання зображень даних Fashion MNIST доцільно продовжити, а програмний засіб, який розроблено, можливо використовувати щодо розпізнавання інших даних. При творчому підході розпізнавання об'єктів зображень на Python з застосуванням бібліотек Keras Tensorflow і інших є дуже перспективним напрямком для практичного застосування.
Посилання
Digit Recognizer [Електронний ресурс] – Режим доступу. — URL:https://www.kaggle.com/c/digit-recognizer (дата звернення 20.05.2021).
To Serious Machine Learning Researchers [Електронний ресурс] – Режим доступу. — URL: https://github.com/zalandoresearch/fashion-mnist (дата звернення 23.04.2021).https://www.researchgate.net/publication/343173734_CNN_Model_for_Image_Classification _on_MNIST_and_Fashion-MNIST_Dataset
Shivam S. Kadam, Amol C. Adamuthe, Ashwini B. Patil. CNN Model for Image Classification on MNIST and Fashion-MNIST Dataset. Journal of ScientificResearch 64(02):374-384. DOI:10.37398/JSR.2020.640251– Режим доступу. — URL:
https://www.researchgate.net/publication/343173734
Digit Recognizer [Електронний ресурс] – Режим доступу. — URL.https://www.kaggle.com/zalando-research/fashionmnist: (дата звернення 20.05.2021).
Гудфеллоу Я., Бенджио И., Курвилль А. Глубокое обучение/пер. с анг. Слинкина А.А. 2-е изд., испр. М.: ДМК Пресс, 2018. 652 с.
Николенко С., Кадурин А., Архангельская Е. Глубокое обучение. СПб.: Питер, 2018. 480 с.
Антонио Джулли, Суджит Пал. Библиотека Keras – инструмент глубокого обучения. Реализация нейронных сетей с помощью библиотек Theano и TensorFlow/Пер. с англ.Слинкин А. А. М.: ДМК Пресс, 2018. 294с.
Жерон, Орельен. Прикладное машинное обучение с помощью Scikit-Learn и TensorFlow: концепции, инструменты и техники для создания интеллектуальных систем./Пер. с англ. СПб.: ООО "Альфа-книга, 2018. 688 с.
Плас Дж. Вандер. Python для сложных задач: наука о данных и машинное обучение. СПб.: Питер, 2018. 576 с.
Лутц М. Программирование на Python, том I, 4-е издание. Пер. с англ. СПб.: Символ-Плюс, 2011. 992 с.