python实现分布式_Python如何快速实现分布式任务
深⼊读了读python的官⽅⽂档,发觉Python⾃带的multiprocessing模块有很多预制的接⼝可以⽅便的实现多个主机之间的通讯,进⽽实现典型的⽣产者-消费者模式的分布式任务架构。
之前,为了在Python中实现⽣产者-消费者模式,往往就会选择⼀个额外的队列系统,⽐如rabbitMQ之类。此外,你有可能还要设计⼀套任务对象的序列化⽅式以便塞⼊队列。如果没有队列的⽀持,那不排除有些同学不得不从socket服务器做起,直接跟TCP/IP打起交道来。
其实multiprocessing.managers中有个BaseManager就为开发者提供了这样⼀个快速接⼝。
我们假定的场景是1个⽣产者(producer.py)+8个消费者(worker.py)的系统,还有⼀个中央节点负责协调(server.py)实现如下:
server.py
from multiprocessing.managers import BaseManager
import Queue
queue = Queue.Queue() #初始化⼀个Q,⽤于消息传递
class QueueManager(BaseManager):
pass
if __name__ == '__main__':
m = QueueManager(address=('10.239.85.193', 50000),authkey='abr' )
# 监听所有10.239.85.193的50000⼝
s = m.get_server()
s.serve_forever()
worker.py
from multiprocessing.managers import BaseManager
from multiprocessing import Pool
class QueueManager(BaseManager):
pass
def feb(i): #经典的'⼭⽺增殖'
if i < 2: return 1
if i < 5 : return feb(i-1) + feb(i-2)
return feb(i-1) + feb(i-2) - feb(i-5)
def worker(i):
m = QueueManager(address=('10.239.85.193', 50000), authkey='abr')
#连接server
while True:
queue = m.get_queue()
# 获取Q
c = ()
print feb(c)
if __name__ == '__main__':
p = Pool(8) # 分进程启动8个worker
p.map(worker, range(8))
producer.py
from multiprocessing.managers import BaseManager
class QueueManager(BaseManager):
pass
if __name__ == '__main__':
m = QueueManager(address=('10.239.85.193', 50000), authkey='abr')
i = 0
while True:
queue = m.get_queue()
queue.put(48)
i+=1
系统会直接将Queue() 对象中的数据直接封装后通过TCP 50000端⼝在主机之间传递。不过需要注意的是,由于authkey的缘故,各个节点要求python的版本⼀致。
您可能感兴趣的⽂章:在Python程序中实现分布式进程的教程⽤python + hadoop streaming 分布式编程(⼀) — 原理介绍,样例程序与本地调试win10下python3.5.2和tensorflow安装环境搭建教程Pipenv⼀键搭建python虚拟环境的⽅法Linux下搭建Spark 的 Python 编程环境的⽅法Python搭建Spark分布式集环境
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论