погрешности, различных для всего диапазона измерений одного или
нескольких участков.
В качестве предела допускаемой погрешности принимается
наибольшая погрешность, вызываемая изменением влияющей величины,
при которой средство измерения по техническим требованиям может быть
допущено к применению. То же самое относится и к дополнительной
погрешности. При этом исходят из следующих положений:
- дополнительная погрешность имеет такой же вид, что и основная
(абсолютная, относительная, приведенная);
- дополнительные погрешности, вызванные различными влияющими
факторами, должны нормироваться раздельно.
В общем виде суммарная абсолютная погрешность средств измерений
∑
=
∆
+
∆
=
∑
∆
n
i
i
1
2
0
,
(1.20)
где
0
∆
– основная погрешность СИ;
i
∆
– дополнительная погрешность,
вызванная изменением
i-го влияющего фактора.
Вследствие сложности разделения дополнительных и основных
погрешностей поверку СИ выполняют только при нормальных условиях
(т. е. дополнительные погрешности исключены).
Систематическая погрешность средства измерения – это
составляющая общей погрешности, которая остается постоянной или
закономерно изменяется при многократных измерениях одной и той же
величины.
Случайной погрешностью называют составляющую, изменяющуюся
при повторных измерениях одной и той же величины случайным образом.
Для пределов допускаемой основной и дополнительной погрешностей
предусмотрены различные способы выражения в виде абсолютной,
относительной и приведенной погрешностей.
Абсолютная погрешность – разность между показанием
х средства
измерения и действительным значением
х
д
измеряемой величины
д
х
х −
=
∆
.
(1.21)
Абсолютная погрешность выражается в единицах измеряемой
физической величины и может быть задана (рис. 1.8):
- либо одним числом (линия 1):
а
±
=
∆
;
- либо в виде функции линейной зависимости (линии 2 и 3):
bx
±
=
∆
;
)
(
bx
a
+
±
=
∆
;
- в
виде функции
)
(
x
f
=
∆
или графика, таблицы.
50