Контроль за ходом технологического процесса и эффективное управление им связано с измерениями различных величин, которые называются параметрами. Теория измерений является предметом изучения метрологии. Измерение - это процесс получения численного значения параметра.
Измерить какую-либо величину – значит сравнить ее с другой однородной величиной (мерой), принятой за единицу.
Основным уравнением измерения называется уравнение вида:
Q = n·q,
где
Q – измеряемая величина или результат измерения;
q – единица измерения;
n – число, показывающее во сколько раз измеряемая величина больше или
меньше единицы измерения.
Любые измерения сопровождаются погрешностями, которые подразделяются на методические, случайные, промахи и систематические.
Методические – обусловленные несовершенством принятого метода измерений.
К случайным погрешностям относятся погрешности, природа и величина которых обычно неизвестна. Они не имеют каких-либо закономерностей, кроме вероятностных. Они могут быть обнаружены только при многократных повторных измерениях одной и той же величины, поэтому их трудно учитывать.
Промахи относятсяк погрешностям, возникающим в результате неправильного присоединения приборов, неправильного отсчета показаний, то есть чаще всего носят субъективный характер и легко обнаруживаются при повторных измерениях.
Систематические погрешности определяются недостатками, присущими методам измерений (методические погрешности) и конструкциям приборов (инструментальные погрешности). Они зависят от наличия сил трения, зазоров в сочленениях механизмов приборов, от неточностей изготовления деталей приборов, грубой настройки и т. д. Они закономерно зависят от проявления внешних факторов (изменений внешнего напряжения, неправильной установки приборов и т. д.).
Оценка систематических погрешностей осуществляется по значениям абсолютной, относительной, относительной приведенной погрешностям и классу точности приборов.
Различают несколько видов погрешностей средств измерений:
абсолютную — разность показаний образцового Х и Хn поверяемого приборов, выраженную в единицах измеряемой величины:
Δ = ±|Х - Хn|;
относительную — отношение абсолютной погрешности к показанию прибора:
y = Δ / Хn·100;
приведенную — отношение абсолютной погрешности к нормирующему значению, %:
δ = Δ / ХN·100;
где ХN — нормирующее значение (обычно диапазон показаний или диапазон измерений).
Метрологические свойства прибора оценивают по установленному для него классу точности — наибольшей основной допускаемой приведенной погрешности. Класс точности устанавливает завод-изготовитель прибора и указывает его на шкале, например: 0,5; 1; 1,5 и т.д.
В процессе поверки прибора также определяют вариацию его показаний:
V = (Хп - Х0) / ХN·100;
где Хп и Х0 — показания прибора при прямом и обратном ходе указателя
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.