Я много читал о числах с плавающей запятой и компьютерных операциях с плавающей запятой. Самый большой вопрос, который я вижу, когда читаю о них, — почему они настолько неточны? Я понимаю, что это связано с тем, что двоичный код не может точно представлять все действительные числа, поэтому числа округляются до «наилучшего» приближения.
Мой вопрос: зная это, почему мы до сих пор используем двоичный код в качестве основы для компьютерных операций? Конечно, использование большего базового числа, чем 2, повысит точность операций с плавающей запятой в геометрической прогрессии, не так ли?
Каковы преимущества использования двоичной системы счисления для компьютеров по сравнению с другой системой счисления, и пробовали ли когда-нибудь использовать другую систему счисления? Или это вообще возможно?