Erlo

从零开始的Python学习Episode 23——进程

2019-03-23 21:01:54 发布   281 浏览  
页面报错/反馈
收藏 点赞

---恢复内容开始---

进程

由于GIL的存在,python中的多线程其实并不是真正的多线程,如果想要充分地使用多核CPU的资源,在python中大部分情况需要使用多进程。Python提供了非常好用的多进程包multiprocessing,只需要定义一个函数,Python会完成其他所有事情。借助这个包,可以轻松完成从单进程到并发执行的转换。multiprocessing支持子进程、通信和共享数据、执行不同形式的同步,提供了Process、Queue、Pipe、Lock等组件。

  multiprocessing包是Python中的多进程管理包。与threading.Thread类似,它可以利用multiprocessing.Process对象来创建一个进程。该进程可以运行在Python程序内部编写的函数。该Process对象与Thread对象的用法相同,也有start(), run(), join()的方法。此外multiprocessing包中也有Lock/Event/Semaphore/Condition类 (这些对象可以像多线程那样,通过参数传递给各个进程),用以同步进程,其用法与threading包中的同名类一致。所以,multiprocessing的很大一部份与threading使用同一套API,只不过换到了多进程的情境。

 

创建进程的两种方法

调用内置的方法

from multiprocessing import Process
import time

def fun(name):
    print(name+' is running')
    time.sleep(2)
    print(name+' end')

if __name__ == '__main__':
    pro = Process(target=fun,args=('no1',))
    pro.start()

自定义类

from multiprocessing import Process
import os

class Myprocess(Process):
    def __init__(self,name):
        Process.__init__(self)
        self.name = name
    def run(self):
        print(os.getpid())
        print(self.name+' is running')
if __name__=='__main__':
    p1 = Myprocess('1')
    p2=Myprocess('2')
    p3=Myprocess('3')

    p1.start()
    p2.start()
    p3.start()

注意:在运行的时候要在main里面运行,因为子进程是通过导入模块的方式拿到父进程的代码,如果没有main会一直开启子进程,而子进程的申请是需要开辟内存以及申请pid等的。

 

 

进程间通讯

队列queue()

使用方法跟threading里的queue类似,但是不同进程间内存是不共享的,所以要用下面的方法

from multiprocessing import Process, Queue

def f(q,n):
    q.put('hello')

def f1(q):
    print(q.get())
if __name__ == '__main__':
    q = Queue()
    for i in range(2):
        p = Process(target=f, args=(q,i))
        p.start()
    tp1 = Process(target=f1,args=(q,))
    tp2 = Process(target=f1, args=(q,))
    tp3 = Process(target=f1, args=(q,))
    tp1.start()
    tp2.start()

要传入一个公共的queue来保证是同一个队列。

 

管道Pipes

Pipe()返回两个值(conn1,conn2),作为通讯的两个端。通过设置duplex参数来设置两个端口的功能,如果duplex参数为True(默认值),那么这个管道是全双工模式,也就是说conn1和conn2均可收发。duplex为False,conn1只负责接受消息,conn2只负责发送消息。

from multiprocessing import Process, Pipe


def s(conn):
    conn.send('hello, how do you do')
    conn.close()

def r(conn):
    print(conn.recv())


if __name__ == '__main__':
    conn1, conn2 = Pipe()
    p1 = Process(target=s, args=(conn1,))
    p2 = Process(target=r, args=(conn2,))
    p1.start()
    p2.start()

 

Managers实现进程之间的数据共享

manager支持 listdictNamespaceLockRLockSemaphoreBoundedSemaphoreConditionEventBarrierQueueValue,Array等类型的共享

from multiprocessing import Process, Manager

def f(d, l,n):
    d[n] = '1'
    d['2'] = 2
    d[0.25] = None
    l.append(n)
    print(l)

if __name__ == '__main__':
    with Manager() as manager:
        d = manager.dict()
        l = manager.list(range(5))
        p_list = []
        for i in range(10):
            p = Process(target=f, args=(d, l,i))
            p.start()
            p_list.append(p)
        for res in p_list:
            res.join()

        print(d)
        print(l)

待续

登录查看全部

参与评论

评论留言

还没有评论留言,赶紧来抢楼吧~~

手机查看

返回顶部

给这篇文章打个标签吧~

棒极了 糟糕透顶 好文章 PHP JAVA JS 小程序 Python SEO MySql 确认