Точность (информатика)

В информатике точность числовой величины — это мера детализации, в которой выражена величина. Обычно она измеряется в битах, но иногда в десятичных цифрах. Она связана с точностью в математике , которая описывает количество цифр, используемых для выражения значения.

Некоторые из стандартизированных форматов точности:

Из них формат восьмеричной точности используется редко. Форматы одинарной и двойной точности используются наиболее широко и поддерживаются практически на всех платформах. Использование формата половинной точности особенно возросло в области машинного обучения, поскольку многие алгоритмы машинного обучения изначально устойчивы к ошибкам.

Ошибка округления

Точность часто является источником ошибок округления при вычислениях . Количество бит, используемых для хранения числа, часто приводит к некоторой потере точности. Примером может служить сохранение "sin(0.1)" в стандарте IEEE с плавающей точкой одинарной точности. Затем ошибка часто увеличивается, поскольку последующие вычисления производятся с использованием данных (хотя ее также можно уменьшить).

Смотрите также

Ссылки

Взято с "https://en.wikipedia.org/w/index.php?title=Точность_(компьютерная_наука)&oldid=1172300949"