segfault при использовании lapack_lite от numpy с многопроцессорной обработкой на OSX, а не на linux

Следующий тестовый код segfaults для меня на OSX 10.7.3, но не на других машинах:

from __future__ import print_function

import numpy as np
import multiprocessing as mp
import scipy.linalg

def f(a):
    print("about to call")

    ### these all cause crashes
    sign, x = np.linalg.slogdet(a)
    #x = np.linalg.det(a)
    #x = np.linalg.inv(a).sum()

    ### these are all fine
    #x = scipy.linalg.expm3(a).sum()
    #x = np.dot(a, a.T).sum()

    print("result:", x)
    return x

def call_proc(a):
    print("\ncalling with multiprocessing")
    p = mp.Process(target=f, args=(a,))
    p.start()
    p.join()


if __name__ == '__main__':
    import sys
    n = int(sys.argv[1]) if len(sys.argv) > 1 else 50

    a = np.random.normal(0, 2, (n, n))
    f(a)

    call_proc(a)
    call_proc(a)

Пример вывода для одного из segfaulty:

$ python2.7 test.py
about to call
result: -4.96797718087

calling with multiprocessing
about to call

calling with multiprocessing
about to call

with всплывающий «отчет о проблеме» OSX с жалобой на segfault, например KERN_INVALID_ADDRESS по адресу 0x0000000000000108; вот полная.

Если я запускаю его с n , он работает нормально; для любого n >= 33происходит сбой.

Если я закомментирую вызов f(a), сделанный в исходном процессе, оба вызова call_procбудут в порядке.Это все еще segfaults, если я вызываю fдля другого большого массива; если я вызываю его для другого небольшого массива или если я вызываю f(large_array), а затем передаю f(small_array)другому процессу, все работает нормально. На самом деле они не должны быть одной и той же функцией; np.inv(large_array)с последующей передачей в np.linalg.slogdet(other_large_array)также segfaults.

Все закомментированные np.linalgвещи в fвызывают сбои; np.dot(self.a, self.a.T).sum()и scipy.linalg.exp3mработают нормально. Насколько я могу судить, разница в том, что первые используют lapack_lite от numpy, а вторые — нет.


Это происходит для меня на моем рабочем столе с

  • python 2.6.7, numpy 1.5.1
  • python 2.7.1, numpy 1.5.1, scipy 0.10.0
  • python 3.2.2, numpy 1.6 .1, scipy 0.10.1

Я думаю, что 2.6 и 2.7 устанавливаются системой по умолчанию; Я установил версии 3.2 вручную из архивов с исходным кодом. Все эти numpy связаны с системой Accelerate framework:

$ otool -L `python3.2 -c 'from numpy.core import _dotblas; print(_dotblas.__file__)'`
/Library/Frameworks/Python.framework/Versions/3.2/lib/python3.2/site-packages/numpy/core/_dotblas.so:
    /System/Library/Frameworks/Accelerate.framework/Versions/A/Accelerate (compatibility version 1.0.0, current version 4.0.0)
    /usr/lib/libSystem.B.dylib (compatibility version 1.0.0, current version 125.2.1)

Я получаю такое же поведение на другом Mac с аналогичной настройкой.

Но все параметры для fработают на других машинах под управлением

  • OSX 10.6.8 с Python 2.6.1 и numpy 1.2.1, связанных с Accelerate 4 и vecLib 268 (за исключением того, что он не нет scipy или slogdet)
  • Debian 6 с Python 3.2.2, numpy 1.6.1 и scipy 0.10.1, связанных с системой ATLAS
  • Ubuntu 11.04 с Python 2.7.1, numpy 1.5.1 и scipy 0.8.0 связан с системой ATLAS

Я что-то не так делаю? Что может быть причиной этого? Я не понимаю, как запуск функции в массиве numpy, который подвергается маринованию и распаковыванию, может привести к тому, что он позже segfault в другом процессе.


Обновление: когда я делаю дамп ядра, обратная трассировка находится внутри dispatch_group_async_f, интерфейса Grand Central Dispatch. Предположительно, это ошибка взаимодействия между numpy/GCD и многопроцессорностью. Я сообщил об этом как пустая ошибка, но если у кого-то есть какие-либо идеи об обходных путях или, если на то пошло, о том, как решить эту ошибку, мы будем очень признательны. :)

12
задан Dougal 26 March 2012 в 21:40
поделиться