Меня немного смущает, как долго работают в C.
Если я прошу максимальное значение long в Java, я получаю число в квинтиллионах. Если я попрошу его на C, подписанный или неподписанный, он исчисляется миллиардами.
Java построена на C ... так в чем разница?
Я также пробовал представлять литералы с длинными длинными значениями, беззнаковыми / знаковыми длинными значениями и длинными значениями int. Похоже, что никто из них не может обрабатывать числа, превышающие средние миллиарды. Почему? Я делаю ошибку?