Какая база данных для краулера/парсера?

В настоящее время я изучаю, какую базу данных использовать для проекта, над которым я работаю. Надеюсь, вы, ребята, можете дать мне несколько советов.

Проект представляет собой автоматизированный веб-краулер, который проверяет веб-сайты по запросу пользователя, очищает данные при определенных обстоятельствах и создает файлы журналов того, что было сделано.

Требования:

  • Всего несколько таблиц с несколькими столбцами; предопределение столбцов не проблема
  • Никаких слишком сложных ассоциаций между моделями
  • Огромное количество запросов на основе даты и времени
  • Из-за ведения журнала база данных будет быстро расти и занимать много места
  • . Должна быть возможность масштабирования на несколько серверов
  • Поля содержат в основном идентификаторы (int ), строки (около 200 -максимум 500 символов )и временные метки unix
  • Два разных типа серверов будут одновременно читать/записывать данные напрямую на него/из него:
    • Одно (или более позднее )приложение rails, которое принимает вводимые пользователем данные и отображает результаты по запросу
    • Один (или более поздний )сервер Node.js, который функционирует как выполняющийся сканер/скрапер. У него будет достаточно нагрузки, чтобы работать непрерывно и делать десятки запросов к базе данных каждую секунду.

Я предполагаю, что это не будет ни графовая база данных (, ни сложные ассоциации ), ни хранилище ключей/значений на основе памяти (, слишком много данных для хранения в кэше ). Я все еще не могу найти любой другой тип базы данных, который я мог найти, у каждого, кажется, есть свои достоинства.

Итак, какие советы от профи, как я должен решить?

Спасибо.

8
задан KonstantinK 12 August 2012 в 07:45
поделиться