В информатике точность числовой величины — это мера детализации, в которой выражена величина. Обычно она измеряется в битах, но иногда в десятичных цифрах. Она связана с точностью в математике , которая описывает количество цифр, используемых для выражения значения.
Некоторые из стандартизированных форматов точности:
Из них формат восьмеричной точности используется редко. Форматы одинарной и двойной точности используются наиболее широко и поддерживаются практически на всех платформах. Использование формата половинной точности особенно возросло в области машинного обучения, поскольку многие алгоритмы машинного обучения изначально устойчивы к ошибкам.
Точность часто является источником ошибок округления при вычислениях . Количество бит, используемых для хранения числа, часто приводит к некоторой потере точности. Примером может служить сохранение "sin(0.1)" в стандарте IEEE с плавающей точкой одинарной точности. Затем ошибка часто увеличивается, поскольку последующие вычисления производятся с использованием данных (хотя ее также можно уменьшить).