Python实现简单多线程任务队列
最近我在用梯度下降算法绘制神经网络的数据时,遇到了一些算法性能的问题。梯度下降算法的代码如下(伪代码):
defgradient_descent(): #thegradientdescentcode plotly.write(X,Y)
一般来说,当网络请求plot.ly绘图时会阻塞等待返回,于是也会影响到其他的梯度下降函数的执行速度。
一种解决办法是每调用一次plotly.write函数就开启一个新的线程,但是这种方法感觉不是很好。我不想用一个像cerely(一种分布式任务队列)一样大而全的任务队列框架,因为框架对于我的这点需求来说太重了,并且我的绘图也并不需要redis来持久化数据。
那用什么办法解决呢?我在python中写了一个很小的任务队列,它可以在一个单独的线程中调用plotly.write函数。下面是程序代码。
fromthreadingimportThread importQueue importtime classTaskQueue(Queue.Queue):
首先我们继承Queue.Queue类。从Queue.Queue类可以继承get和put方法,以及队列的行为。
def__init__(self,num_workers=1): Queue.Queue.__init__(self) self.num_workers=num_workers self.start_workers()
初始化的时候,我们可以不用考虑工作线程的数量。
defadd_task(self,task,*args,**kwargs): args=argsor() kwargs=kwargsor{} self.put((task,args,kwargs))
我们把task,args,kwargs以元组的形式存储在队列中。*args可以传递数量不等的参数,**kwargs可以传递命名参数。
defstart_workers(self): foriinrange(self.num_workers): t=Thread(target=self.worker) t.daemon=True t.start()
我们为每个worker创建一个线程,然后在后台删除。
下面是worker函数的代码:
defworker(self): whileTrue: tupl=self.get() item,args,kwargs=self.get() item(*args,**kwargs) self.task_done()
worker函数获取队列顶端的任务,并根据输入参数运行,除此之外,没有其他的功能。下面是队列的代码:
我们可以通过下面的代码测试:
defblokkah(*args,**kwargs): time.sleep(5) print“Blokkahmofo!” q=TaskQueue(num_workers=5) foriteminrange(1): q.add_task(blokkah) q.join()#waitforallthetaskstofinish. print“Alldone!”
Blokkah是我们要做的任务名称。队列已经缓存在内存中,并且没有执行很多任务。下面的步骤是把主队列当做单独的进程来运行,这样主程序退出以及执行数据库持久化时,队列任务不会停止运行。但是这个例子很好地展示了如何从一个很简单的小任务写成像工作队列这样复杂的程序。
defgradient_descent(): #thegradientdescentcode queue.add_task(plotly.write,x=X,y=Y)
修改之后,我的梯度下降算法工作效率似乎更高了。如果你很感兴趣的话,可以参考下面的代码。
fromthreadingimportThread importQueue importtime classTaskQueue(Queue.Queue): def__init__(self,num_workers=1): Queue.Queue.__init__(self) self.num_workers=num_workers self.start_workers() defadd_task(self,task,*args,**kwargs): args=argsor() kwargs=kwargsor{} self.put((task,args,kwargs)) defstart_workers(self): foriinrange(self.num_workers): t=Thread(target=self.worker) t.daemon=True t.start() defworker(self): whileTrue: tupl=self.get() item,args,kwargs=self.get() item(*args,**kwargs) self.task_done() deftests(): defblokkah(*args,**kwargs): time.sleep(5) print"Blokkahmofo!" q=TaskQueue(num_workers=5) foriteminrange(10): q.add_task(blokkah) q.join()#blockuntilalltasksaredone print"Alldone!" if__name__=="__main__": tests()