Мне нужно манипулировать большими числами в Python, которые умещаются в 64 бита. В настоящее время мой код работает на 64-битной платформе, но есть небольшая, но явная вероятность, что его придется запускать на 32-битной платформе. Следовательно, я бы предпочел использовать тип long
для представления чисел. Я понимаю, что использование long
вместо int
влияет на производительность. Насколько это плохо? Я буду выполнять много делений и умножений, но все результаты должны помещаться в 64 бита.