社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  Python

大共享数据的Python多处理

ammcom • 6 年前 • 1660 次点击  

我正在使用python开发一个应用程序,使用 mutliprocessing 模块,代码如下所示:

import multiprocessing

globalData = loadData() #very large data 

def f(v):
    global globalData
    return someOperation(globalData,v)

if __name__ == '__main__':
    pool = multiprocessing.Pool()
    arr = loadArray() #some big list
    res = pool.map(f,arr)

问题是,所有子进程都需要相同的全局数据来处理该函数,因此它会加载该函数,并且需要很长时间。在所有子进程之间共享该数据的最佳解决方案是什么,因为它已经加载到父进程中了?

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/50992
文章 [ 2 ]  |  最新文章 6 年前