编码器的分辨率,是指编码器可读取并输出的最小角度变化,对应的参数有:
每转刻线数(line)、每转脉冲数(PPR)、最小步距(Step)、位(Bit)等。
编码器的精度,是指编码器输出的信号数据对测量的真实角度的准确度,对应的参数是角分(′)、角秒(″)。
分辨率:线(line),就是编码器的码盘的光学刻线,如果编码器是直接方波输出的,它就是每转脉冲数(PPR),
但如果是正余弦(sin/cos)信号输出的,是可以通过信号模拟量变化电子细分,获得更多的方波脉冲PPR输出,
编码器的方波输出有A相与B相,A相与B相差1/4个脉冲周期,通过上升沿与下降沿的判断,
就可以获得1/4脉冲周期的变化步距(4倍频),这就是最小测量步距(Step)了,
所以,严格地讲,最小测量步距就是编码器的分辨率。 光看分辨率不行的,如果分辨出的位数似乎很多但都不准,那这样的分辨率意义不大。
前些年有人用两片8位AD拼成16位AD,表面上分辨率提高了一倍,但精度并未增加,如果这么简单就达到精度的提高,那AD公司光用AD0808就行了也就不必花大力气研发16位以至更高位AD了
分辨率就是你能看出A和B身高差多少,精度就是A和B身高分别是多少。分辨率是对数据的测量的精细程度,精度是准不准。
比如你用数字游标卡尺量一个10厘米的模型,显示结果为 50.1276厘米。可以看出分辨率挺高,精度不咋地。
分辨率简单的说就是小数点后面的位数,比如4.201V的分辨率比4.20V高 但是分辨率高不代表精度高
如果这个电压本来是4.203V,高分辨率测出来是4.223V,低分辨率测出来是4.20V,那么低分辨率的精度高
“分辨率”和“精确度”——即Resolution和Accuracy。ADC分辨率由数字化输入信号时所使用的比特数决定。
而精确度是指对于给定模拟输入,实际数字输出与理论预期数字输出之间的接近度。
换而言之,转换器的精确度决定了数字输出代码中有多少个比特表示有关输入信号的有用信息。
分辨力也称为分辨率,是指指示装置有效地辨别紧密相邻值的能力。
一般认为数字装置的分辨力就是最后一位数字,模拟装置分辨力为指示标尺分度值的一半。
测量精度是泛指测量结果的可信度,但不是规范用语。
用2.000V量程的三位半数字电压表举例来说,它的分辨力是0.001V,假设其精度是0.8%±3个字。
假如现在有三个个电压的真实值是x=1.6780V,y=1.6785V,z=1.6790V。
分辨率就是,它能判别出电压x与z之间相差0.001V,即测量z显示的数字肯定比x大0.001;
但是它无法判别x与y之间和y与z之间的区别,即测量y时可能显示的与x一样,也可能显示的与z一样,是不确定的。
精度大概的意思就是测量值与真实值之间的最大差距。
比如,这个表测量x电压,它可能显示的是1.688,也可能显示的是1.665,
也可能是别的什么数,但是范围不超过2.000x0.8%±3个字=±0.019V。
也就是说这个表测量x电压时显示1.659V-1.697V之间都算没问题。
简单点,做一个电压表,10位AD测10V电压,基本上每一格就是
10V/2^10=10/1024=0.01V,这是分辨率,表示它的分辨能力是每格就是0.01V,
但是由于积分电容不好,电阻温飘大,外部干扰,AD本身非线性等,
一个真正精确的10V电压你测出来是9.51V(分辨率决定了你最后一位小数的位置--十分位,还是百分位等),
这时你的分辨率是够高了,0.01V分辨率啊,但精度呢?差了0.5/10V=5%!
总之,分辨率可以上得很高,大不了增加AD位数,你分辨率小数点后位数再多,但受其它因素影响,但精度却不能提高。