La precisione di un valore numerico descrive il numero di cifre che vengono utilizzate per mostrare quel valore. In un'impostazione scientifica, questo sarebbe il numero totale di cifre (a volte chiamate cifre significative o cifre significative) o, meno comunemente, il numero di cifre frazionarie o cifre decimali (il numero di cifre che seguono la virgola decimale). Questa seconda definizione è utile nelle applicazioni finanziarie e ingegneristiche dove il conteggio delle cifre nella parte frazionaria ha una particolare importanza.

In entrambi i casi, il termine "precisione" può essere usato per descrivere la posizione in cui un risultato inesatto sarà arrotondato. Ad esempio, nell'aritmetica a virgola mobile, un risultato viene arrotondato ad una precisione data o fissa, che è la lunghezza del significante risultante. Nei calcoli finanziari, un numero è spesso arrotondato ad un dato numero di posizioni (per esempio, a due posizioni dopo il separatore decimale per molte valute mondiali).

A titolo di esempio, la quantità decimale 12.345 può essere espressa con vari numeri di cifre significative o cifre decimali. Se non è disponibile una precisione sufficiente, il numero viene arrotondato in qualche modo per adattarsi alla precisione disponibile. La seguente tabella mostra i risultati per le varie precisioni totali e le cifre decimali arrotondate al valore più vicino utilizzando il metodo dell'arrotondamento per eccesso o per difetto.

Si noti che spesso non è appropriato visualizzare una cifra con più cifre di quella che può essere misurata. Ad esempio, se un dispositivo misura al grammo più vicino e dà una lettura di 12,345 kg, si creerebbe una falsa precisione se la misura fosse espressa "12,34500 kg" con 2 zeri extra ("00") alla fine.

La rappresentazione di un numero positivo x con una precisione di p cifre significative ha un valore numerico che è dato dalla formula

rotondo(10-n-x)-10n, dove n = piano(log10 x) + 1 - p.

Per un numero negativo, il valore numerico è meno quello del valore assoluto. Il numero 0, con qualsiasi precisione, può essere assunto come 0.