Из того, что я прочитал, значение типа данных double имеет приблизительную точность 15 знаков после запятой. Однако, когда я использую число, десятичное представление которого повторяется, например 1,0/7,0, я обнаруживаю, что переменная содержит значение 0,14285714285714285, что составляет 17 разрядов (через отладчик).
Я хотел бы знать, почему внутри он представлен как 17 разрядов, и почему точность 15 всегда записывается как ~15?