Я работаю с очень длинным временным рядом - сотнями миллионов точек данных в одном ряду - и рассматриваю Cassandra как хранилище данных. В этом вопросе один из разработчиков Cassandra (über полезный jbellis) говорит, что строки Cassandra могут быть очень большими, и что операции разрезания столбца быстрее, чем части строки, следовательно мой вопрос: размер строки все еще ограничен доступной памятью?
Да, размер строки по-прежнему ограничен доступной памятью. Это связано с тем, что сегодня алгоритм уплотнения десериализует всю строку в памяти перед записью сжатой таблицы SSTable.
Сейчас это планируется исправить в версии 0.7. См. CASSANDRA-16 для получения информации.
Еще одна интересная ссылка: CassandraLimitations