Det kan vara på plats att titta lite på vad som egentligen avses med
"upplösning" och "noggrannhet".
Upplösningen på en konventionell räknare bestäms entydigt av 1/gatetiden i sekunder. En gate-tid av 1 sekund ger en upplösning på 1 Hz. Upplösningen kan i princip göras hur stor som helst. En gate-tid på 100s ger en sista siffra av 0,01 Hz.
Sedan är räknare behäftade med en fundamental osäkerhet av +/- en enhet i sista siffran. Detta kommer dock att medelvärdesbildas bort när man gör många mätningar.
Dock blir aldrig absolutnoggrannheten bättre än vad tidbasen eller referensoscillatorn medger. Det är därför fel att tro att bara för att displayen visar 7 eller 8 siffror, alla är signifikanta.
Man kan aldrig få fler signifikanta siffror än 10-logaritmen av 1/tidbasnoggrannheten, så om den är 2*10^-6 eller 2 ppm
blir detta avrundat nedåt 5 siffror.
Detta illustreras i diagrammet ovan, som kommer ur en HP-katalog från forntiden.
Vid noggranna mätningar brukar man sträva efter att ha en tidbasnoggrannhet som ger minst en signifikant siffra utöver vad man behöver i sina avläsningar. Säg att man mäter en frekvens av 10 MHz och önskar få 7 signifikanta siffror, då behöver tidbasen vara bättre än 10^-8. Detta är inget som billiga kristaller klarar av, och är en av orsakerna till att bra räknare är dyra.