Почему numpy.linalg.solve () предлагает более точные инверсии матриц, чем numpy.linalg.inv ()?

Вы просто видите разные представления одних и тех же данных.

Из System.Decimal :

Точность decimal будет масштабироваться так, чтобы она была (по причине)

Десятичное число - это значение с плавающей запятой, которое состоит из знака, числового значения, где каждая цифра в значении находится в диапазоне от 0 до 9, и коэффициент масштабирования, который указывает положение плавающей десятичной точки, которая разделяет интегральную и дробную части числового значения.

Двоичное представление десятичного значения состоит из 1-битового знака, 96-битного целочисленного числа и коэффициента масштабирования, используемого для разделите 96-битное целое число и укажите, какая часть его является десятичной дробью. Коэффициент масштабирования неявно равен числу 10, поднятому до экспоненты в диапазоне от 0 до 28. Следовательно, двоичное представление десятичного значения имеет вид ((от -296 до 296) / 10 (от 0 до 28)), где -296-1 равно MinValue, а 296-1 равно MaxValue.

Масштабный коэффициент также сохраняет любые конечные нули в десятичном числе. Конечные нули не влияют на значение десятичного числа в арифметических или сравнительных операциях. Однако конечные нули могут быть обнаружены методом ToString, если применяется соответствующая строка формата.

blockquote>

23
задан ali_m 7 July 2015 в 00:34
поделиться