Лента новостей RSSRSS КалькуляторыКалькуляторы Вопросы экспертуВопросы эксперту Перейти в видео разделВидео

ГОСТ 8.146-75

Государственная система обеспечения единства измерений. Манометры дифференциальные показывающие и самопишущие с интеграторами ГСП. Методика поверки

Предлагаем прочесть документ: Государственная система обеспечения единства измерений. Манометры дифференциальные показывающие и самопишущие с интеграторами ГСП. Методика поверки. Если у Вас есть информация, что документ «ГОСТ 8.146-75» не является актуальным, просим написать об этом в редакцию сайта.

Скрыть дополнительную информацию

Дата введения: 01.01.1976
29.01.1975 Утвержден Госстандарт СССР
Статус документа на 2016: Актуальный

Страница 1

Страница 2

Страница 3

Страница 4

Страница 5

Страница 6

Страница 7

Страница 8

Страница 9

Страница 10

Страница 11

Страница 12

Страница 13

Страница 14

Страница 15

ГОСУДАРСТВЕННЫЙ СТАНДАРТ

ЕДИНСТВА ИЗМЕРЕНИЙ

МАНОМЕТРЫ ДИФФЕРЕНЦИАЛЬНЫЕ ПОКАЗЫВАЮЩИЕ И САМОПИШУЩИЕ С ИНТЕГРАТОРАМИ ГСП

МЕТОДИКА ПОВЕРКИ

ГОСТ 8.146-75 ест СЭВ 4382—83)

$

Издание официально*

ГОСУДАРСТВЕННЫЙ КОМИТЕТ СССР ПО СТАНДАРТАМ Москва

Р

УДК $34.787.039.6 : 006.354    Группа    ИМ

ГОСУДАРСТВЕННЫЙ СТАНДАРТ СОЮЗА ССР

Государственная система обеспечения единства измерений МАНОМЕТРЫ ДИФФЕРЕНЦИАЛЬНЫЕ ПОКАЗЫВАЮЩИЕ И САМОПИШУЩИЕ С ИНТЕГРАТОРАМИ ГСП Методика поверим State system for ensuring the uniformity of measurements Indicating and recording pressure gauge with integrators of SSI.

Wrthods oi verification

ГОСТ 8.146-751

|СТ СЭВ 4382—831


Постановлением Государственного комитета стандартов Совета Министров СССР от J9 января 1V7S г. И» J34 срок дейс1вия установлен

с 01.01.76

Настоящий стандарт распространяется на показывающие и са* мопишущие и выпускаемые в комплекте со вторичными приборами дифференциальные манометры (дифманометры) по ГОСТ 18140-77 с верхними пределами измерений не более 6,3 кгс/смг (0.03 МПа) и не менее 10 кге/м*. (100 Па), применяемые в системе контроля и управления производственными процессами в качестве дифманометров-расходомеров и днфманометров-перепа-домеров.

Стандарт устанавливает методы н средства первичной и периодической новерок днфманометроа, а также встроенных в них интеграторов.

Стандарт полностью соответствует СТ СЭВ 4382—83. (Измененная редакция, Изм. № 1).

1. ОПЕРАЦИИ ПОВЕРКИ

1.1. При проведении поверки должны выполняться следующие операции:

внешний осмотр (п. 4.1); опробование (п. 4.2);

определенно метрологических параметров (п. 4.3); определение скорости перемещения диаграммы (п. 4.4); проверка самопишущего устройства (п. 4.5); определение погрешности интегратора (п. 4.G).

1

Переиздание (октябрь 1984 г.) с Изменением М /, утвержденным в июне 1984 г. (НУС 9—84).

Издательство стандартов, 1985

Стр. 2 ГОСТ 8.146-75

2. СРЕДСТВА ПОВЕРКИ

2.1.    При проведении поверки должны применяться следующие сродства поверки:

грузопоршневой манометр МП-2,5 и МП-6 по ГОСТ 8291-83; образцовый пружинный манометр МО по ГОСТ 6521-72; грузопоршневой мановакуумметр МВП-2,5 класса точности 0,05;

пределы измерений—1,0—0—2,5 кгс/см* (—0,10—0—0,25 МПа); автоматический задатчик давления ЛЗД-2.5 класса точности 0,05;

пределы измерений 0,1—1,0; 0,1- 1,6; 0,2—2,5 кгс/см2 (0,01 — 0,1; 0,01—0.16; 0,02—0,25 МПа);

жидкостный компенсационный микроманометр с койцевммн мерами длины МКМ по ГОСТ 11161-84;

жидкостный компенсационный микроманометр с микрометрическим винтом МКВ по ГОСТ 11161-84;

жидкостный многопредельный микроманометр с наклонной трубкой ММИ класса точности 0.6 по ГОСТ 11161-84;

весовой колокольный микроманометр МВК по ГОСТ 11161-84; секундомер класса 1 по ГОСТ 5072-79.

2.2.    Допускается применение находящихся в эксплуатации (приложение 1) средств поверки, прошедших метрологическую аттестацию в органах государственной метрологической службы и удовлетворяющих по точности требованиям п. 4.4.2.

3. УСЛОВИЯ ПОВЕРКИ И ПОДГОТОВКА к НЕЙ

3.1.    При проведении поверки должны соблюдаться следующие условия и выполняться следующие подготовительные работы.

3.2.    Изменение давления должно соответствовать требованиям ГОСТ 18140-77 без перехода за поверяемое значение. Среда, передающая давление,— воздух или нейтральный газ.

3.3.    Образцовые пружинные манометры МО. предназначенные для установки с их помощью заданных расчетных перепадов давления, должны быть предварительно поверены при расчетных значениях давления.

3.4.    При использовании грузопоршневого манометра МП-6 между ним и поверяемым днфманометром должно быть установлено- разделительное устройство, предохраняющее поверяемый прибор от попадания в него масла. Уровень жидкости в разделительном устройстве должен находиться в плоскости торна поршня. Значения высоты столба ртути и воды жидкостных образцовых манометров, соответствующих давлению 1 кгс/см? (0.1 МПа) приводятся о приложении 2.

ГОСТ 8.146-75 Стр. 3

3.5.    Допускается проводить поверку днфманометров по условной шкале (диаграмме); но специальным отметкам, нанесенным предприятием-изготовителем на циферблате; допускается проводить поверку самопишущих дифманометров при неподвижной диаграмме.

3.6.    Дифманометр перед проведением поверки должен быть выдержан в нерабочем состоянии в соответствии с требованиями ГОСТ 18140-77.

3.7.    Герметичность системы, состоящей из соединительных линий и образцовых приборов, проверяется давлением, равным верхнему пределу измерений поверяемого днфманометра.

Система считается герметичной, если после выдержки в течение 3 мин падение давления не превысит 1% от верхнего предела измерений в минуту при рабочем давлении в течение последующих 2 мин.

(Измененная редакция, Изм. ЛЬ 1).

4. ПРОВЕДЕНИЕ ПОВЕРКИ

4.1.    Внешний осмотр

4.1.1.    При проведении внешнего осмотра должно быть установлено соответствие дифференциальных манометров следующим требованиям:

приборы не должны иметь повреждений и дефектов, при наличии которых не может быть допущено их применение;

маркировка приборов должна соответствовать требованиям ГОСТ 18140-77.

Примечание. На приборах, выпущенных до введения ГОСТ 18140-72,

допускается иная маркировка.

4.2. Опробование

4.2.1.    Стрелку (перо) днфманометров. снабженных корректором нуля, перед началом поверкн при отсутствии перепада давления устанавливают на нулевую отметку шкалы (нулевую линию диаграмм).

4.2.2.    Стрелка (перо) днфманометров, не имеющих корректора нуля, при отсутствии перепада должна устанавливаться на ну4 левую отметку с отклонением, не превышающим установленного в ГОСТ 18140-77.

4.2.3.    Проверка герметичности между плюсовой и минусовой камерами измерительного блока производится до определения основной погрешности. При минусовой камере, сообщенной с атмосферой, в плюсовой камере днфманометра создается избыточное давление, равное предельному номинальному перепаду давления (при сумме абсолютных значений пределов измерений), и выдерживают прибор в течение 10 мим, поддерживая это давление. От-

Стр. А ГОСТ 8.146—7S

ключают прибор от устройства, создающего давление. Прибор считают герметичным, если в течение 15 мин изменение давления при изменении температуры окружающей среды не превышает значений, указанных в таблице.

4.3. Определение метрологических параметров 4,3.1. Основную погрешность определяют установкой стрелки (пера) дифмаиометра на поверяемую отметку (отсчетную линию диаграммы), соответствующую номинальному перепаду давления по образцовому прибору, или установкой по образцовому прибору действительного значения перепада давлений и отсчета показаний по шкале (диаграмме) поверяемого прибора.

Примечание. Определение основной погрешности установкой действительного значения перепада давления по образцовому прибору при отсчете поколений по шкале (диаграмме) поверяемого прибора’ производят только в том случае, когда отсчетнос устройство поверяемого дифмаиометра обеспечивает по-грешность отсчитыяания' не более Vs предела допускаемой основная погрешности.

Таблица

Верхней зредсл (ммсрсмия

Допуска* им Ш¥«-мгчи* температуры в вровссо» ГОИСрКИ. 'С

Долусм«им намерение

ПН¥вМ*ТИ<«<|<010 хла-

л*нкн в 4% от установленного значения

кгс.си’

(ПА)

кгс/см’

(МПг)

10(100)

16(160)

251250»

0.3

45

40(400)

63(С.30)

25

100(1000)

160(1600)

0.5

15

250(2500)

400(4000)

7

630(6300)

1000(100001

3

1600(16000»

2500(25000)

1.5

0,4(0,04)

1.0

0.63(0.063)

1.00(0.100)

1,60(0.160)

2.50(0.251))

4.00(0.400)

0.5

6,30(0.630)

1.0

Примечания:

!. Изменения температуры н давления должны иметь одинаковые знаки. 2. Прк изменении температуры менее указанного в таблице допускаемое изменение давления должно быть уменьшено в том же отношении.

ГОСТ $.146—Я Стр. 5

4.3.2.    При выборе образцовых средств для определения погрешности показаний поверяемого дифманометра должно соблюдаться следующее условие

Г„<сГ,    (I)

где Т и Тс — пределы допускаемой основной погрешности образцового и поверяемого приборов при давлении, соответствующем поверяемой отметке шкалы (от-счетной линии диаграммы), выраженные в одних и тех же единицах; с — коэффициент запаса точности, равный '/«.

Допускается с разрешения органов Госстандарта СССР применять с •»'/».

4.3.3.    Основную погрешность определяют сравнением действительного перепада давления, соответствующего поверяемой отметке, с показаниями поверяемого прибора.

4.3.4.    Расчетные значения перепада давления Лр для дифма-нометров-расходомеров со шкалой (диаграммой), равномерной по расходу, определяют по формуле

(2)

\ Л шик !

где hm,x— предельный перепад давления номинальный;"

Л'ш.* — верхний предел измерений дифманометра-расходо-мера;

„V— показание по шкале (диаграмме).

4.3.4.!.    Расчетные значения перепада давления    Па,    для

днфманометров-уровнемеров определяют по формуле

APp^Npg,

где .V— показание по шкале (диаграмме) дифманометра-уровне-мера, м;

р — плотность измеряемой среды, кг/м3; g — нормальное ускорение, м/с2.

(Введен дополнительно, Иэм. № 1).

4.3.5.    Определение основной погрешности днфманометров должно производиться не менее чем при пяти значениях нерапада давления, равномерно распределенных в диапазоне измерений, в том числе на отметках, соответствующих 30 н 100% предельного перепада давления. Поверку приборов производят вначале при плавно возрастающем, а затем при плавно убывающем перепаде давления.

Примечание. Поверку дифмаиомегров с верхним пределом измерений 6,3 кге/ем1 (0.63 МПа) допускается производить при перепаде давления 6 кгс/см* (0.6 МПа).

Стр. 6 ГОСТ 8.146-75

4.3.6.    Пределы допускаемой основной погрешности дифмано* метров должны соответствовать ГОСТ 18140-77.

Основная погрешность дифманометра не должна превышать при первичной поверке 0.8 К. при периодической поверке — 1 К, где К — класс точности прибора.

П р и м « ч а н и е. Для дмфмаиокетров-расходомеров при первичной поверке при значениях расхода 30 и 40% (или близких к ним) допускается основная по-грешность, не превышающая К.

4.3.7.    Вариация показаний, определяемая при каждом поверяемом значении перепада давления, кроме значений, соответствующих нулю и верхнему пределу измерений, не должна превышать значений, установленных ГОСТ 18140-77. Вариацию определяют в соответствии с требованиями ГОСТ 18140-77.

Невозвращение после поверки стрелки (пера) к нулевой отметке (отсчетиой линии) не должно превышать значений, установленных ГОСТ 18140-77.

4.3.8.    У многострелочных (многозаписных) дифманометров погрешность и вариацию определяют отдельно по каждой стрелке (перу) прибора.

4.3.9.    При поперке дифманометра установкой стрелки (пера) на поверяемую отметку (отсчетную линию диаграммы), соответствующую номинальному значению перепзда давления по образцовому прибору для дифмаиометров-расходомсров с именованной и условной шкалой (диаграммой) при линейной зависимости между расходом и показаниями днфманомстров-расходомеров с неравномерными шкалами (диаграммами) и дифманометров перепадо-меров основную погрешность Y в % определяют в соответствии с требованиями ГОСТ 18140-77.

Примечание.    В    справочном приложении 3    приводится    упрощенная формула для определения допускаемых отклонений от    расчетного    значения перепада

давления.

4.3.10.    При поверке дифманометра установкой по образцовому прибору действительного значения перепада давления и отсчета показаний по шкале (диаграмме) поверяемого прибора основную погрешность У в % определяют по формулам

для днфманометров-расходомеров с именованными шкалами

Г=^Р^-Ю0;    (3)

iVft; *Х

для дифманомстров-перепадомеров с именованными шкалами Т=4^'.100;    (4)

'fmnac

для днфманометров-расходомеров и дифманометров-перепадо-меров с условной (100%-ной) шкалой

ГОСТ 8.146—7S Стр. 7

r=N-N'.    (5)

где ,V' — поверяемая отметка шкалы (диаграммы).

4.4. Определение погрешности скорости перемещения диаграммы

4.4.1.    Погрешность скорости перемещения диаграммы с приводом от часового механизма и с пневматическим приводом определяют по секундомеру, с приводом от синхронного двигателя — по электрическим часам, работающим синхронно с частотой тока п сети.

4.4.2.    Погрешность скорости перемещения диаграмм не должна превышать значений, указанных в ГОСТ 18140-77.

4.4.3.    Погрешность определяют следующим образом. Включают привод диаграммы. В момент нахождения пера на линии времени наносят пером отметку на диаграмму н отсчитывают показания секундомера (электрических часов). В момент нахождения пера на линии времени, отстоящей от первой отмеченной линии на интервал времени т, наносят пером вторую отметку и второй раз отсчитывают показания секундомера (электрических часов). На дисковой диаграмме отметки наносят на отсчеткой линии верхнего предела измерений. Расчетный интервал времени т в часах принимают равным

где Дх — интервал времени, равный 0,2 цены деления линии времени диаграммного диска или диаграммной ленты, ч;

6 — предел допускаемой погрешности скорости перемещения диаграммы, %.

4.4.4. Погрешность скорости перемещения диаграммной ленты или диска 6' определяют по формуле

ув *=11.100,    (7)

где тд — интервал времени по секундомеру (электрическим часам).

4.5. Проверка самопишущего устройства

4.5.1.    Для проверки самопишущего устройства в приборе отключают от привода механизм для передвижения диаграммы.

4.5.2.    Линин записи на неподвижной диаграмме при изменении перепада давления от нуля до верхнего предела измерений и от верхнего предела измерений до нуля должны совпадать с «тсчет-ными линиями времени диаграммы, отклонение от отсчетион линии не должно превышать значений, установленных ГОСТ 18140-77. Правильность линии записи проверяют измерением расстояния между каждым концом линии, прочерченной пером

Стр 8 ГОСТ 8.14»— 71

при изменении перепада давления и нанесенной на диаграмму линией времени.

4.5.3.    Линии записи, нанесенные неподвижным пером по движущейся диаграмме, должны совпадать с отсчетной линией измеряемой величины (расход, перепад давления), отклонение записи от отсчетной линии не должно превышать значений, установленных ГОСТ 18140-77.

Совпадение линий записи на движущейся диаграмме проверяют при трех значениях измеряемой величины, соответствующих нулевому значению, половине верхнего предела измерения н верхнему пределу измерений или близким к ним, передвигая диаграмму при кзждом значении измеряемой величины; при этом дисковая диаграмма должна совершать полный оборот, а ленточная — перемещаться не менее чем на 200 мм.

4.5.4.    Линии записи должны быть сплошными, толщиной не более 0.6 мм.

4.55. У многозаписных днфманометров с одним полем для записи показаний перья должны отстоять друг от друга на расстоянии. установленном ГОСТ 18140-77.

4.6. Определение погрешности показаний интегратора

4.6.1.    Показания интегратора при его поверке отсчитывают по отсчетному устройству и дополнительному устройству для отсчета дробных значений. Погрешность должна соответствовать требованиям ГОСТ 18140-77.

4.6.2.    При поверке интегратора стрелка (перо) устанавливается в соответствии с требованиями ГОСТ 18140-77. При поверке интеграторов с приводом от синхронного двигателя применяются элсктросекундомеры, работающие с частотой тока в сети; при поверке интеграторов с приводом от часового или пневматического механизма — секундомеры.

При поверке интеграторов дискретного действия после установки стрелки (пера) на поверяемую отметку механизм интегратора устанавливают в положение начала цикла интегрирования.

Допускается показания интегратора отсчитывать без его выключения.

4.6.3.    Минимальную продолжительность работы интегратора при поверке tmm в минутах, обусловленную погрешность отсчета, при поверяемом значении расхода N вычисляют по формуле

1    50000п    /о\

где л — погрешность отсчитывапня по дополнительному устройству. равная цене деления, если длина деления не менее 1 мм, и 0,5 пены деления, если длина деления равна нлп более 1 мм;

ГОСТ 8.146-75 Cip. 9

М'тяж — расчетная разность показаний интегратора за час, соот-

ветствующая верхнему пределу измерений и установленная для данного типа интеграторов.

4.6.4.    Требуемая минимальная продолжительность работы интегратора, обусловленная его конструктивными особенностями, выбирается кратной периоду минимально необходимого числа оборотов элементов кинематической цепи механизма интегратора, при котором происходит компенсация кинематических погрешностей.

4.6.5.    Погрешность интегратора определяют при значениях расхода, составляющих 30, 50, 75 и 100% верхнего предела измерений или близких к ним при возрастающем и убывающем значениях перепада. Основная погрешность интеграторов должна соответствовать ГОСТ 18140--77.

4.6.6.    При определении действительной разности показаний, соответствующей заданной продолжительности интегратора при поверяемом значении расхода, погрешность показаний интегратора Тк вычисляют по формуле

(9)

При определении действительной продолжительности работы интегратора, необходимой для достижения расчетной разности, соответствующей поверяемому значению расхода, погрешность показаний интегратора Тм вычисляют по формуле

Tn= ~~г~~ ’    '    1®0,    (10)

I    Лоц

где Мmax” ~~ед —расчетная разность показаний интегратора за заданную продолжительность вре

(Ю)

мени работы;

t — заданная продолжительность работы интегратора (время поверки), мин;

?—действительная продолжительность работы интегратора, мин.

Расчетную разность показаний интегратора вычисляют по формуле

Л1Р= M'm„t .

(п>

S. ОФОРМЛЕНИЕ РЕЗУЛЬТАТОВ ПОВЕРКИ

5.1. При положительных результатах первичной поверки в паспорте (или документе, его заменяющем) производится запись о

Стр. 10 ГОСТ 8.14«—75

годности днфманометра к применению с указанием даты поверки, которая заверяется в установленном порядке.

5.2.    При положительных результатах периодической поверки в эксплуатационном паспорте (или документе, его заменяющем) производят запись о годности днфманометра с указанием даты поверки, заверяют ее подписью поверителя и оттиском поверх-тельного клейма.

5.3.    Запись в эксплуатационном паспорте (или документе, его заменяющем) результатов ведомственной поверки заверяют в порядке, установленном органом ведомственной метрологической службы.

5.4.    Дифманометры, не удовлетворяющие требованиям настоящего стандарта, не допускаются к выпуску из производства и ремонта и к применению.

Примечание. В справочном приложении 4 приводятся формы протокола для записи результатов поверки.

ПРИЛОЖЕНИЕ I

СРЕДСТВА ПОВЕРКИ. НАХОДЯЩИЕСЯ В ЭКСПЛУАТАЦИИ И ДОПУСКАЕМЫЕ К ПРИМЕНЕНИЮ

Жидкостный манометр с оптическим отсчетом и pryinwv заполнением типа ОМО-1, классы точиости 0.15. 0.30, пределы измерений <>—SIX) мм пт. ет. (0—0.107 МПа);

переносные приборы для поверки днфманомегров-раеходомеров: ПИР-1, класс точности 0,3. пределы измерений ичбмточиого давления 0.1000 мм вод. ст. (0-0.01 МПа) 0-1000 мм рт. ст. (0-0.135 МПа). ПИР-2М, класс точности 0.3, пределы измерений избыточного давления 0—1000 мм вод, ст. (0—01 МПа), 0—1000 мм рт. ет. (0—0.135 МПа), вакууммстричссхого давления 7G0 мм рт. ст. (0.102 МПа):

контрольный ртутный манометр с дистанционных отсчетом МКД. классы точности 0,1; 0,2, пределы измерений 0—1,0; 0—1,6 кгс/см* (0—0,1; 0- 0,16 МПа);

автоматический конгполышй задатчик AK3-J, класс точиости 0.1, пределы измерений 0.1 — I.G кгс/см5 (0.01—0,16 МПа);

контрольный цифровой манометр КМЦ-1,6. класс точности 0,1, пределы измерений 0—1,6 кгс/см2 (0—0,1G МПа);

гоузоенльфокный дифференциально-трансформаторный манометр контрольный МКБ. классы точности 0,10; 0,16; 0,25, пределы измерений от 0—0.25 до О-й.З кгСсм’ (от 0-0.025 до 0-0.63 .МПа) по ряду R5 ГОСТ 8032—S4;

электромеханический прецизионный манометр Г1М, классы точности 0,10, 0.16; 0.25. пределы измерений 0—1,0; 0.2—1.0 кгс/см* (0-0,1; 0.02 0.10 МПа); электрический секундомер типа П-ЗОМ;

электрические часы, работающие синхронно с частотой тока питания.

ГОСТ 8.146-75 Cip. 11

ПРИЛОЖЕНИЕ 2 Справочное

ЗНАЧЕНИЕ ВЫСОТЫ СТОЛБА РТУТИ И ВОДЫ ЖИДКОСТНЫХ ОБРАЗЦОВЫХ МАНОМЕТРОВ, СООТВЕТСТВУЮЩЕЙ ДАВЛЕНИЮ 1 кгс/см- (0.1 МПа]

При использовании жидкостных образцовых манометров давление, равное 1 кгс/см* (0,1 МПа), создается столбом ртути высотой 738,2 мм или столбом лоды высотой 1001В мм при нормальном ускорении свободного падения тела, рзвном 9.80GG м/с1, при нормальной температуре 2(fC.

Указанным значением высоты столба ртутя пли поды допускается пользоваться в диапазонах ускорений свободного падения тел 9.797(1—9.8255 м/с’ для приборов классов точности 0„5 н 1,0 при температуре 20±2“С, для приборов классов точности 1.5 и 2.5 при температуре 20±5°С.

При ускорении свободного падения тела, отличном от нормального, значение высоты столба ртути или воды определяют из равенства

k«R»-lh8*.

где Ли — высота столба жидкости при g9. мм;

Лр — расчетное значение высоты столба жидкости, мм;

g„— нормальное ускорение свободного падения тела, м/с1; ускорение свободного падения тела в месте, поверки.

ПРИЛОЖЕНИЕ 3 Справочное

ОПРЕДЕЛЕНИЕ ДОПУСТИМЫХ ОТКЛОНЕНИЙ ОТ РАСЧЕТНЫХ ЗНАЧЕНИИ ПЕРЕПАДА ДАВЛЕНИЯ ДЛЯ ДИФМАНОМЕТРОВ-РАСХОДОМЕРОВ ПРИ ЛИНЕЙНОЙ ЗАВИСИМОСТИ МЕЖДУ РАСХОДОМ И ПОКАЗАНИЯМИ

Допустимые отклонения Д/i от расчетного значения перепада давления определяются но формуле

Sh— ±0.02Aaj*v v •

И »э »

Стр. 12 ГОСТ 8.144—7S


ПРИЛОЖЕНИЕ 4 Справочное


19.


поверки


(наичсномине дифианометра!


принадлежащего

Тип.


(пииисноваимс предприятия, оргамн.ыции, учреждения) _Xv_


Пределы измерений Образцовые приборы


.Класс точности

. перхння Предел кие реихП)


(тип,


{КЛАСС ТОЧНОСТИ)


Таблица I


Определение основной погрешности и вариации


Поминальное

.шаченми

величины

РаСЧвТИС*

значение

перепада

давления

Дсйстахтелькэс анате-яи* перепада давления или по-клиник 00 икялс поверяемого прибора

Прямая код

Обратима хаз

Погрешность яоа«р*о»ог« | ирхборЯ П Просалит*К ОТ пор-кируюшлго >Н*ЧС1ШЯ или единицах измерения

Пр*мсД ход


Обрати urt ход


а *


Предел допускаемой основной погрешности_


Наибольшая погрешность дифмаиометра _


Невозвращение стрелки (пера) к нулю _


Таблица 2

Определение погрешности б скорости перемещения диаграммы


Промежуток времени по секундомеру (электрическим ЧДСЙМ)

V 4


Расчетный промежуток времени по диаграмме Т. ч


Погрешность скорости пезе-мешенжя диаграммы Д. ‘л


ГОСТ 8.146—7S Стр. 15

Предел допускаемой погрешности скорости перемещения диаграммы_

Таблица 3

Определение погрешности интегратора Гх

Псэви* отсчет

Второ*

отсчет

IlOl^pflCNOC

Погмишдеть

лсачсккс

по секу идо*

во с<*укдо-

р*сходи

со счетчику

меру

по считчику

ч<ру

Предел допускаемой основной

Наибольшая

погрешности__ погрешность

Дифманомстр годен, забракован (указать причины) _

Подпись лица, выполнявшего поверку

Редактор В. С. Бабкина Технический редактор Э. D. Митяй Корректор С. И. Ксоалсоа

Сдано н яоб. 01.03.85 Подг. в ЦОМВ 1.0 п. я. J.0 уел. вр.-сггг. 0.87 уч. и»д. я.

Гирам tfCrtO Цсид Г» жоп.

Ордена «Зинк Почмл* Шдатсяьспю егдидортоо, 12ЭД40. Москва. ГСП. ПоиоирссасисккЯ пер . а. 3.

B*aviK>ct!W* ittiioiyifrii* 1Ьдит«д«**д стандарта. ул Mu^yro. I2,'i4. Зак. I3XJ

Сохраните страницу в соцсетях:
Другие документы раздела "Прочие"