猿问

为什么在导入numpy后多处理只使用一个核心?

为什么在导入numpy后多处理只使用一个核心?

我不确定这是否更像是一个操作系统问题,但我想我会问这里,以防任何人从Python的结尾有一些见解。

我一直在尝试使用一个CPU密集型for循环joblib,但是我发现不是将每个工作进程分配给不同的核心,我最终将它们全部分配到同一个核心而没有性能提升。

这是一个非常简单的例子......

from joblib import Parallel,delayedimport numpy as npdef testfunc(data):
    # some very boneheaded CPU work
    for nn in xrange(1000):
        for ii in data[0,:]:
            for jj in data[1,:]:
                ii*jjdef run(niter=10):
    data = (np.random.randn(2,100) for ii in xrange(niter))
    pool = Parallel(n_jobs=-1,verbose=1,pre_dispatch='all')
    results = pool(delayed(testfunc)(dd) for dd in data)if __name__ == '__main__':
    run()

...这是我在htop脚本运行时看到的内容:

我在一台4核的笔记本电脑上运行Ubuntu 12.10(3.5.0-26)。显然joblib.Parallel是为不同的工作者生成单独的进程,但有没有办法让这些进程在不同的内核上执行?


largeQ
浏览 1112回答 3
3回答

弑天下

Python 3现在公开了直接设置关联的方法>>> import os>>> os.sched_getaffinity(0){0, 1, 2, 3}>>> os.sched_setaffinity(0, {1, 3})>>> os.sched_getaffinity(0){1, 3}>>> x = {i for i in range(10)}>>> x{0, 1, 2, 3, 4, 5, 6, 7, 8, 9}>>> os.sched_setaffinity(0, x)>>> os.sched_getaffinity(0){0, 1, 2, 3}

MM们

这似乎是Ubuntu上Python的常见问题,并不特定于joblib:从Ubuntu 10.10升级到12.04后,multiprocessing.map和joblib只使用1个cpuPython多处理仅使用一个核心multiprocessing.Pool进程锁定到单个核心我建议尝试使用CPU affinity(taskset)。
随时随地看视频慕课网APP
我要回答