S-metern eller dB-instrumentet visar "rätt" under ideala förhållanden.
Realiseringen i SP-600 avviker lite från den gängse, eftersom den mäter
MF-spänningen vid sista MF-steget.
Det som kommer ut där är grovt räknat proportionellt mot någon logaritmisk funktion av HF-spänningen i antennkontakten.
Problemet är då att både basen till logaritmfunktionen och proportionalitetskonstanten beror på arbetsfrekvensen, rörens kondition, trimningen och omgivningstemperaturen. Man kan inte dra speciellt höga växlar på visningen när en eller ett par nålsbredder motsvarar flera dB.
I princip samma frågeställning finns när S-metern mäter AGC-spänningen. Även den är grovt proportionell mot logaritmen av ingångsspänningen, och samma felkällor finns där.
Det enda riktigt exakta sättet att göra signalstyrkemätningar är att använda någon form av digital avläsning. En SDR har en intern representation av signalnivån som kan göras om till en mycket exakt visning.
I en analog mottagare får man använda "styckvis linjär approximation", där man först delat in mätområdet i mindre segment med stegdämpare, ofta 10 eller 20 dB, och sedan mäter nivån inom ett av segmenten. Ett tidigt exempel är R&S ESU där man fick göra grovinställningen manuellt
Senare kom ESH3 och ESVP när nivån etableras automatiskt genom att variera en stegdämpare, och sedan linjärt mäta upp hur stor signalen är efter dämpningen.
Det är mycket enklare att mäta noga inom ett 10 eller 20 dB intervall än ett 120 dB.
"
Bör ej saknas i något hem..."