Сколько строк данных слишком много строк данных?

Вы должны использовать accept = "video / mp4, video / x-m4v, video / *"

MIMEType webkit

15
задан Brian Tompsett - 汤莱恩 23 September 2016 в 20:32
поделиться

9 ответов

У меня лично были таблицы в производстве с 50 миллионами строк, и это является маленьким по сравнению с, я услышал. Вы, возможно, должны были бы оптимизировать свою структуру с разделением, но пока Вы не тестируете свою систему в Вашей среде, Вы не должны напрасно тратить время, делая это. То, что Вы описали, является довольно маленьким, по моему скромному мнению

, я должен добавить, что использовал SQL Server 2000 & 2005, каждый DBMS имеет свои собственные ограничения калибровки.

10
ответ дан 1 December 2019 в 01:00
поделиться

100 (курсы) * 1000 (пользователи) * 10 (записи) только миллион. Это - нижний уровень, но достойная база данных должна обработать его хорошо.

, Какими сомнительными звуками являются Пары имя/значение. Это ограничит Вашу способность правильно индексировать вещи, которые будут очень важны для хорошей производительности.

6
ответ дан 1 December 2019 в 01:00
поделиться

Магическое число является миллиардами. Пока Вы не добираетесь до миллиардов строк данных, Вы не говорите об особых данных вообще.

Делают математику.

4-12 строк на пользователя на курс... сотни курсов и тысячи пользователей?

400 000 - 1 200 000 строк. Давайте примем 1 000 байтов за строку.

Это составляет 400 МБ к 1.2 ГБ данных. Можно купить диски на 100 ГБ за 299$ в Apple Store. Можно легко потратить больше чем 299$ оплачиваемого времени, потея по деталям, которые не очень больше имеют значение.

, Пока Вы не добираетесь до 1 ТБ данных (1 000 Гбит), Вы не говорите о большом количестве данных вообще.

12
ответ дан 1 December 2019 в 01:00
поделиться

Нет жесткого и быстрого правила, но есть сложный и быстрый способ получить число.

Написать программа для заполнения вашей таблицы фиктивными данными, приблизительно аппроксимирующими ожидаемую форму фактических данных (например, схожую регулярность, символы, шаблоны и т. д.). Запускайте для этого тесты производительности, используя реальные запросы с фиктивными данными, постепенно увеличивая количество строк в таблицы, возможно, с шагом 1000 или 10000 строк.

На пороге, когда производительность запросов (например, количество запросов в секунду) становится неприемлемой, у вас будет «слишком большое» количество строк.

4
ответ дан 1 December 2019 в 01:00
поделиться

Я когда-то работал над системой веб-формы с более чем 300 миллионами строк в их таблице пары имя/значение. Многие формы имели более чем 300 строк на представление формы. Производительность не была слишком плоха на самом деле, но это был общий ЛАВАШ для запросов от! Мой sql запись способности, определенно улучшенной по жизни этого концерта.

, Но по моему скромному мнению, если Вы высказываетесь, избавляются от него в пользу стандартной нормализованной таблицы.

3
ответ дан 1 December 2019 в 01:00
поделиться

Едва ли. Все это зависит от Ваших бизнес-потребностей, и необходимо будет купить продукт, который поддерживает предполагаемое количество строки.

2
ответ дан 1 December 2019 в 01:00
поделиться

Нет, нет действительно никакого твердого правила о том, сколько строк Вы можете иметь в таблице, оно во многом зависит от сколько данных, там находится в строках, и как хорошо данные могут быть индексированы.

А быстрая оценка на числах, что Вы заявили, дает что-то как десятки миллионов строк. Это, конечно, не слишком много, но это достаточно, что это могла быть проблема, если Вы не немного осторожны.

, Возможно, таблица могла быть нормализована? Те же имена происходят много, так, чтобы Вы могли поставить имена в отдельной таблице и использовать идентификатор в таблице?

2
ответ дан 1 December 2019 в 01:00
поделиться

Я не думаю, что существует действительно предел здесь, но дисковое пространство. НО добавьте хорошие индексы, в то время как ее маленькое, becuase, когда таблица является огромными индексами, возьмет намного дольше для добавления. Плюс то, если у Вас будут плохие индексные запросы, то замедлится, когда это растет, и люди будут жаловаться, когда не будет действительно ничего неправильно, но дрянного ни к какому индексу.

1
ответ дан 1 December 2019 в 01:00
поделиться

Я работал над базами данных, где мы пытались составить таблицы с 2B строки данных - который не работает, мы добрались до 500M и перепроектировали. Один из самых больших глюков работы с такой большой таблицей был временем, потраченным, чтобы сделать удаления - я часто вижу подход, где старые записи заархивированы и затем удалены из основной таблицы. Если таблица является достаточно большой, который удаление выполнит в течение многих часов, поскольку индексы восстановлены.

Не уверенный то, где сокращение прочь является всего лишь шестым чувством, указывает на таблицу> 10M, строки являются, вероятно, слишком большими. Наш подход должен был разделить данные по дате, таким образом, мы заканчивали с таблицей в течение недели данных, и другой сводной таблицей в течение многих месяцев и другой сводкой в течение многих лет - очень распространенный в DataWarehousing. BTW это было на SQL 7.0, заинтересовал знать, лучше ли DB в этом типе материала уже?

0
ответ дан 1 December 2019 в 01:00
поделиться
Другие вопросы по тегам:

Похожие вопросы: