Во время разговора по IRC кто-то указал на следующее:
decimal.Parse("1.0000").ToString() // 1.0000
decimal.Parse("1.00").ToString() // 1.00
Как / почему десятичный тип
сохраняет точность (или, скорее, значащие числа), как это? У меня создалось впечатление, что эти два значения равны, а не различны.
Это также вызывает дополнительные вопросы: