ІНФОРМАЦІЙНА ЕНТРОПІЯ ОБЧИСЛЮВАЛЬНИХ СТАНДАРТІВ IEEE 754: ТЕОРЕТИЧНИЙ АНАЛІЗ ТА ПРАКТИЧНІ НАСЛІДКИ
DOI:
https://doi.org/10.35546/kntu2078-4481.2026.1.45Ключові слова:
інформаційна ентропія; IEEE 754; числа з рухомою крапкою; питома ентропійна ефективність; ентропія Шеннона; NaN-надмірність; денормалізовані числа; закон Бенфорда; стиснення числових даних; нейромережеві форматиАнотація
У статті запропоновано оригінальний підхід до дослідження числових форматів стандарту IEEE 754 крізь призму теорії інформації Шеннона. На відміну від традиційних досліджень, що розглядають формати IEEE 754 виключно з точки зору обчислювальної точності або швидкодії, у даній роботі вперше систематично досліджено інформаційно-ентропійні характеристики кожного функціонального поля цих форматів – знакового біта, поля порядку та поля мантиси. Запропоновано авторське визначення поняття «питомої ентропійної ефективності» (ПЕЕ) числового формату як метрики, що дозволяє кількісно порівнювати інформаційну насиченість різних форматів подання дійсних чисел. Проведено детальний ентропійний аналіз чотирьох стандартних форматів – binary16, binary32, binary64 та binary128 – з урахуванням специфіки денормалізованих чисел, множинного кодування нуля, семантичної надмірності значень NaN. Вперше систематично класифіковано чотири джерела ентропійної надмірності у форматах IEEE 754 та оцінено їх відносний внесок. Встановлено аналітичну залежність між розрядністю поля порядку та рівнем NaN-надмірності формату. Виявлено та кількісно охарактеризовано прояв закону Бенфорда у бінарних числових форматах: нерівномірний розподіл старших біт мантиси створює потенціал стиснення близько 2 % на біт мантиси. Результати дослідження утворюють теоретичну основу для проектування нових числових форматів з оптимальними інформаційними характеристиками, зокрема для нейромережевих прискорювачів та систем обробки великих числових масивів.
Посилання
Shannon C. E. A Mathematical Theory of Communication. Bell System Technical Journal. 1948. Vol. 27, No. 3. Pp. 379–423.
Goldberg D. What every computer scientist should know about floating-point arithmetic. ACM Computing Surveys. 1991. Vol. 23, No. 1. Pp. 5–48.
Lehr J., Hintz J., Bertone A. Statistical distribution of floating-point numbers in scientific computing. Journal of Computational Science. 2019. Vol. 35. Pp. 28–37.
Lindstrom P. Fixed-Rate Compressed Floating-Point Arrays. IEEE Transactions on Visualization and Computer Graphics. 2014. Vol. 20, No. 12. Pp. 2674–2683.
Benford F. The law of anomalous numbers. Proceedings of the American Philosophical Society. 1938. Vol. 78, No. 4. Pp. 551–572.
IEEE Standard for Floating-Point Arithmetic. IEEE Std 754-2019. New York : IEEE, 2019. 84 p.
Muller J.-M. et al. Handbook of Floating-Point Arithmetic. 2nd ed. Birkhäuser, 2018. 627 p.
Higham N. J. Accuracy and Stability of Numerical Algorithms. 2nd ed. Philadelphia : SIAM, 2002. 680 p.
Kalamkar D. et al. A Study of BFLOAT16 for Deep Learning Training. arXiv:1905.12322. 2019. 8 p.
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.




