Я пытаюсь полностью понять точное поведение DecimalFormat. В настоящее время я провожу несколько тестов с возможностями научного обозначения этого класса. И я столкнулся с проблемой настройки точного количества значащих цифр в научном представлении. Согласно Javadoc Java 7:
Количество значащих цифр в мантиссе - это сумма минимальное целое число и максимальное количество цифр дробной части, и на него не влияют максимальное количество целых цифр. Например, 12345 отформатирован как «## 0. ## E0». это «12.3E3». Чтобы отобразить все цифры, установите количество значащих цифр на нуль. Количество значащих цифр не влияет на синтаксический анализ.
Следовательно, я тестирую его:
DecimalFormat formatone = new DecimalFormat("##0.##E0");
System.out.println(formatone.format(toF));
И получаю следующий результат:
12,345E3
Согласно отрывку из Javadoc, который я только что показал, я подумал, что должен получить
12.3E3
Я делаю что-то не так ? Я что-то не так понял?
Заранее спасибо за все ваши разъяснения: -)