デジタル計器の確度(誤差)


アナログ計器は前回「アナログ計器の誤差階級」で書いたがデジタルテスタ等の確度(誤差)はどうなっているのだろう?。たとえば取扱説明書に 確度:±1.5%rdg.±4dgt.となっている場合。

最初のrdgはreadingの略で、指示値、表示値、読み値をいい、メータが現在測定中の値そのものを指す。

次のdgt.はdigitの略で、数字、分解能をいい、デジタル計器における最小表示単位すなわちデジタル表示器の最小桁の1の数字を指すが、実際にはフルスケール誤差をdgt.値に換算したものを加えてdgt.誤差としている。1~2桁の数字となる。

たとえば日置のデジタルテスタ3256-01でAC電圧を560.0Vのレンジで測定したら100.0Ⅴを表示したとすれば、確度:±1.5%rdg.±4dgt. であるので、

rdg誤差 100.0×0.015=1.5V
dgt誤差 最小桁の4dgt=0.4V
rdg誤差+dgt誤差の合計=1.9Vなので±1.9Vが上記条件での誤差範囲となる。つまり、誤差範囲としてはAC98.1V~AC101.9Vとなる。

同様にこのレンジで500.0Ⅴの表示であれば、

rdg誤差 500.0×0.015=7.5V
dgt誤差 最小桁の4dgt=0.4V
rdg誤差+dgt誤差の合計=7.9Vなので±7.9Vが上記条件での誤差範囲となる。つまり、誤差範囲としてはAC492.1V~AC507.9Vとなる。

このほかにdgt誤差をレンジ(rng)誤差、または、フルスケール(fs)誤差としているものもある。この場合は、

確度:±1.5%rdg.±0.15%rng(fs)のテスタでAC電圧を560.0Ⅴのレンジで測定したら100.0Ⅴを表示したとすれば、

rdg誤差 100.0×0.015=1.5V
rng(fs)誤差 560×0.0015=0.84V
rdg誤差+rng(fs)誤差の合計=2.34Vなので±2.34Vが上記条件での誤差範囲となる。つまり、誤差範囲としてはAC97.66V~AC102.34Vとなる。

アナログの場合は最大目盛で決められているので、例えば560.0Ⅴレンジで±1.5%であれば、全範囲において560.0×0.015=8.4Vまで許容される事になる。つまり、小さい値ほど誤差率が大きくなる。

 デジタルはアナログよりも確度はかなり高いが、私のような昔人間はデジタルよりもアナログのほうが使いやすい、デジタルは数字を直読すればよいが下から1~2桁が常にフラフラするので使いにくい。アナログも目を凝らしてみればふらついているが一寸見には判らない。ホルドの機能もあるがどうもなじめない。