Почему нет ускорения при использовании многопроцессорной обработки pythons для неприятно параллельной задачи в цикле for с общими данными numpy?

Я хочу ускорить решение досадно параллельной задачи, связанной с байесовским выводом. Цель состоит в том, чтобы вывести коэффициенты u для набора изображений x с учетом матрицы A, такой что X = A * U. X имеет размеры mxn, A mxp и U pxn. Для каждого столбца X нужно вывести оптимальный соответствующий столбец коэффициентов U. В конце концов, эта информация используется для обновления A. Я использую m = 3000, p = 1500 и n = 100. Итак, поскольку это линейная модель, вывод матрицы коэффициентов u состоит из n независимых вычислений. Таким образом, я попытался работать с модулем многопроцессорности Python, но нет ускорения.

Вот что я сделал:

Основная структура без распараллеливания:

import numpy as np
from convex import Crwlasso_cd

S = np.empty((m, batch_size))

for t in xrange(start_iter, niter):

    ## Begin Warm Start ##
    # Take 5 gradient steps w/ this batch using last coef. to warm start inf.
    for ws in range(5):
        # Initialize the coefficients
        if ws:
            theta = U
        else:
            theta = np.dot(A.T, X)

        # Infer the Coefficients for the given data batch X of size mxn (n=batch_size)
        # Crwlasso_cd is the function that does the inference per data sample
        # It's basically a C-inline code
        for k in range(batch_size):
            U[:,k] = Crwlasso_cd(X[:, k].copy(), A, theta=theta[:,k].copy())

        # Given the inferred coefficients, update and renormalize
        # the basis functions A 
        dA1 = np.dot(X - np.dot(A, U), U.T) # Gaussian data likelihood
        A += (eta / batch_size) * dA1
        A = np.dot(A, np.diag(1/np.sqrt((A**2).sum(axis=0))))

Реализация многопроцессорности:

] Я пробовал реализовать многопроцессорность. У меня есть 8-ядерная машина, которую я могу использовать.

  1. Есть 3 цикла for. Единственный, который кажется "распараллеливаемым", - это третий, где вычисляются коэффициенты:
    • Сгенерируйте Очередь и сложите итерационные номера от 0 до batch_size-1 в Очередь
    • Сгенерируйте 8 процессов и позвольте им работать через Очередь
  2. Совместно используйте данные U, используя multiprocessing.Array

Итак , Я заменил этот третий цикл следующим:

from multiprocessing import Process, Queue
import multiprocessing as mp
from Queue import Empty

num_cpu = mp.cpu_count()
work_queue = Queue()

# Generate the empty ndarray U and a multiprocessing.Array-Wrapper U_mp around U
# The class Wrap_mp is attached. Basically, U_mp.asarray() gives the corresponding
# ndarray
U = np.empty((p, batch_size))
U_mp = Wrap_mp(U)

...

        # Within the for-loops:
        for p in xrange(batch_size):
        work_queue.put(p)

        processes = [Process(target=infer_coefficients_mp, args=(work_queue,U_mp,A,X)) for p in range(num_cpu)]

        for p in processes:
            p.start()
            print p.pid
        for p in processes:
            p.join()

Вот класс Wrap_mp:

class Wrap_mp(object):
""" Wrapper around multiprocessing.Array to share an array across
    processes. Store the array as a multiprocessing.Array, but compute with it
as a numpy.ndarray
"""

    def __init__(self, arr):
        """ Initialize a shared array from a numpy array.

            The data is copied.
        """
        self.data = ndarray_to_shmem(arr)
        self.dtype = arr.dtype
        self.shape = arr.shape

    def __array__(self):
        """ Implement the array protocole.
        """
        arr = shmem_as_ndarray(self.data, dtype=self.dtype)
        arr.shape = self.shape
        return arr

    def asarray(self):
        return self.__array__()

А вот функция infer_coefficients_mp:

def infer_feature_coefficients_mp(work_queue,U_mp,A,X):

    while True:
        try:
            index = work_queue.get(block=False)
            x = X[:,index]
            U = U_mp.asarray()
            theta = np.dot(phit,x)

            # Infer the coefficients of the column index
            U[:,index] = Crwlasso_cd(x.copy(), A, theta=theta.copy())

         except Empty:
            break

Теперь проблема заключается в следующем:

  1. Многопроцессорная версия не быстрее, чем однопоточная версия для заданных размеров данных.
  2. Идентификатор процесса увеличивается с каждой итерацией. Означает ли это, что постоянно возникает новый процесс? Не Это создает огромные накладные расходы? Как мне этого избежать? Есть ли возможность создать в рамках всего цикла for 8 различных процессов и просто обновить их данными?
  3. Замедляет ли способ, которым я делюсь коэффициентами U между процессами, вычисления? Есть ли другой, лучший способ сделать это?
  4. Может быть, лучше использовать пул процессов?

Я очень благодарен за любую помощь! Я начал работать с Python месяц назад и сейчас довольно растерян.

Энгин

15
задан Engin Bumbacher 7 December 2010 в 03:29
поделиться