В нашем приложении мы работаем на двойном сервере Xeon с локальным объемом памяти 12 ГБ для каждого процессора и шиной памяти, соединяющей два процессора Xeon. По соображениям производительности мы хотим контролировать, где мы выделяем большой (> 6 ГБ) блок памяти. Ниже приведен упрощенный код -
DWORD processorNumber = GetCurrentProcessorNumber();
UCHAR nodeNumber = 255;
GetNumaProcessorNode((UCHAR)processorNumber, &nodeNumber );
// get amount of physical memory available of node.
ULONGLONG availableMemory = MAXLONGLONG;
GetNumaAvailableMemoryNode(nodeNumber, &availableMemory )
// make sure that we don't request too much. Initial limit will be 75% of available memory
_allocateAmt = qMin(requestedMemory, availableMemory * 3 / 4);
// allocate the cached memory region now.
HANDLE handle = (HANDLE)GetCurrentProcess ();
cacheObject = (char*) VirtualAllocExNuma (handle, 0, _allocateAmt,
MEM_COMMIT | MEM_RESERVE ,
PAGE_READWRITE| PAGE_NOCACHE , nodeNumber);
Код как есть, правильно работает с VS2008 на Win 7/64.
В нашем приложении этот блок памяти функционирует как хранилище кеша для статических объектов (1-2 МБ), которые обычно хранятся на жестком диске. Моя проблема в том, что когда мы переносим данные в область кэша с помощью memcpy, это занимает в 10 раз больше времени, чем если бы мы выделяли память с помощью new char [xxxx]
. И никаких других изменений кода.
Мы не можем понять, почему это происходит. Есть предложения относительно того, где искать?