http keep-alive в современную эпоху

Итак, по словам автора haproxy, который кое-что знает о http: использование на серверах при 100 ЦП раз медленнее. Но что не сказано что постоянные соединения потребляют много памяти, когда она не используется кем угодно, кроме клиента, который открыл их. Сегодня в 2009 году процессоры очень дешево и память все еще ограничена до нескольких гигабайт по архитектуре или цена. Если сайту нужен keep-alive, это реальная проблема. Очень загруженные сайты часто отключают сохранить жизнь, чтобы поддерживать максимум количество одновременных клиентов. В реальный недостаток отсутствия keep-alive немного увеличенная задержка до получать объекты. Браузеры удваивают количество одновременных подключений на сайты без поддержки активности, чтобы компенсировать это.

(из http://haproxy.1wt.eu/ )

Соответствует ли это опыту других людей? то есть без keep-alive - едва ли заметен результат? (вероятно, стоит отметить, что с веб-сокетами и т. д. - соединение остается «открытым» независимо от статуса keep-alive - для очень отзывчивых приложений). Будет ли эффект больше для людей, удаленных от сервера, или если при загрузке страницы необходимо загрузить много артефактов с одного и того же хоста? (Я думаю, что такие вещи, как CSS, изображения и JS, все чаще поступают из CDN, дружественных к кешу).

Мысли?

(не уверен, что это связано с serverfault.com, но я не буду отправлять сообщения, пока кто-нибудь не скажет мне переместить его туда).

92
задан Jonas 20 July 2012 в 10:47
поделиться