Ciao a tutti,
ho notato un problema con dei valori double in c#
double primo = 0.3;
double secondo = 0.3;
double terzo = 0.3;
double quarto = 0.1;
double totale = primo + secondo + terzo + quarto;
eseguendo questo pezzo di codice il valore di totale non è 1 ma 0.999999999989
la cosa non succede se le variabili sono di tipo decimal, chi mi spiega come mai?
Grazie :)