python之线程进程和协程.docx
《python之线程进程和协程.docx》由会员分享,可在线阅读,更多相关《python之线程进程和协程.docx(32页珍藏版)》请在冰点文库上搜索。
python之线程进程和协程
python之线程、进程和协程
引言
解释器环境:
python3.5.1
我们都知道python网络编程的两大必学模块socket和socketserver,其中的socketserver是一个支持IO多路复用和多线程、多进程的模块。
一般我们在socketserver服务端代码中都会写这么一句:
server=socketserver.ThreadingTCPServer(settings.IP_PORT,MyServer)
ThreadingTCPServer这个类是一个支持多线程和TCP协议的socketserver,它的继承关系是这样的:
classThreadingTCPServer(ThreadingMixIn,TCPServer):
pass
右边的TCPServer实际上是它主要的功能父类,而左边的ThreadingMixIn则是实现了多线程的类,它自己本身则没有任何代码。
MixIn在python的类命名中,很常见,一般被称为“混入”,戏称“乱入”,通常为了某种重要功能被子类继承。
classThreadingMixIn:
daemon_threads=False
defprocess_request_thread(self,request,client_address):
try:
self.finish_request(request,client_address)
self.shutdown_request(request)
except:
self.handle_error(request,client_address)
self.shutdown_request(request)
defprocess_request(self,request,client_address):
t=threading.Thread(target=self.process_request_thread,
args=(request,client_address))
t.daemon=self.daemon_threads
t.start()
在ThreadingMixIn类中,其实就定义了一个属性,两个方法。
在process_request方法中实际调用的正是python内置的多线程模块threading。
这个模块是python中所有多线程的基础,socketserver本质上也是利用了这个模块。
一、线程
线程,有时被称为轻量级进程(LightweightProcess,LWP),是程序执行流的最小单元。
一个标准的线程由线程ID,当前指令指针(PC),寄存器集合和堆栈组成。
另外,线程是进程中的一个实体,是被系统独立调度和分派的基本单位,线程自己不独立拥有系统资源,但它可与同属一个进程的其它线程共享该进程所拥有的全部资源。
一个线程可以创建和撤消另一个线程,同一进程中的多个线程之间可以并发执行。
由于线程之间的相互制约,致使线程在运行中呈现出间断性。
线程也有就绪、阻塞和运行三种基本状态。
就绪状态是指线程具备运行的所有条件,逻辑上可以运行,在等待处理机;运行状态是指线程占有处理机正在运行;阻塞状态是指线程在等待一个事件(如某个信号量),逻辑上不可执行。
每一个应用程序都至少有一个进程和一个线程。
线程是程序中一个单一的顺序控制流程。
在单个程序中同时运行多个线程完成不同的被划分成一块一块的工作,称为多线程。
以上那一段,可以不用看!
举个例子,厂家要生产某个产品,在它的生产基地建设了很多厂房,每个厂房内又有多条流水生产线。
所有厂房配合将整个产品生产出来,某个厂房内的所有流水线将这个厂房负责的产品部分生产出来。
每个厂房拥有自己的材料库,厂房内的生产线共享这些材料。
而每一个厂家要实现生产必须拥有至少一个厂房一条生产线。
那么这个厂家就是某个应用程序;每个厂房就是一个进程;每条生产线都是一个线程。
1.1普通的多线程
在python中,threading模块提供线程的功能。
通过它,我们可以轻易的在进程中创建多个线程。
下面是个例子:
importthreading
importtime
defshow(arg):
time.sleep
(1)
print('thread'+str(arg))
foriinrange(10):
t=threading.Thread(target=show,args=(i,))
t.start()
print('mainthreadstop')
上述代码创建了10个“前台”线程,然后控制器就交给了CPU,CPU根据指定算法进行调度,分片执行指令。
下面是Thread类的主要方法:
start线程准备就绪,等待CPU调度
setName为线程设置名称
getName获取线程名称
setDaemon设置为后台线程或前台线程(默认是False,前台线程)
如果是后台线程,主线程执行过程中,后台线程也在进行,主线程执行完毕后,后台线程不论成功与否,均停止。
如果是前台线程,主线程执行过程中,前台线程也在进行,主线程执行完毕后,等待前台线程也执行完成后,程序停止。
join该方法非常重要。
它的存在是告诉主线程,必须在这个位置等待子线程执行完毕后,才继续进行主线程的后面的代码。
但是当setDaemon为True时,join方法是无效的。
run线程被cpu调度后自动执行线程对象的run方法
1.2自定义线程类
对于threading模块中的Thread类,本质上是执行了它的run方法。
因此可以自定义线程类,让它继承Thread类,然后重写run方法。
importthreading
classMyThreading(threading.Thread):
def__init__(self,func,arg):
super(MyThreading,self).__init__()
self.func=func
self.arg=arg
defrun(self):
self.func(self.arg)
deff1(args):
print(args)
obj=MyThreading(f1,123)
obj.start()
1.3线程锁
CPU执行任务时,在线程之间是进行随机调度的,并且每个线程可能只执行n条代码后就转而执行另外一条线程。
由于在一个进程中的多个线程之间是共享资源和数据的,这就容易造成资源抢夺或脏数据,于是就有了锁的概念,限制某一时刻只有一个线程能访问某个指定的数据。
1.3.1未使用锁
#!
/usr/bin/envpython
#-*-coding:
utf-8-*-
importthreading
importtime
NUM=0
defshow():
globalNUM
NUM+=1
name=t.getName()
time.sleep
(1)#注意,这行语句的位置很重要,必须在NUM被修改后,否则观察不到脏数据的现象。
print(name,"执行完毕后,NUM的值为:
",NUM)
foriinrange(10):
t=threading.Thread(target=show)
t.start()
print('mainthreadstop')
上述代码运行后,结果如下:
mainthreadstop
Thread-1执行完毕后,NUM的值为:
10
Thread-2执行完毕后,NUM的值为:
10
Thread-4执行完毕后,NUM的值为:
10
Thread-9执行完毕后,NUM的值为:
10
Thread-3执行完毕后,NUM的值为:
10
Thread-6执行完毕后,NUM的值为:
10
Thread-8执行完毕后,NUM的值为:
10
Thread-7执行完毕后,NUM的值为:
10
Thread-5执行完毕后,NUM的值为:
10
Thread-10执行完毕后,NUM的值为:
10
由此可见,由于线程同时访问一个数据,产生了错误的结果。
为了解决这个问题,python在threading模块中定义了几种线程锁类,分别是:
Lock普通锁(不可嵌套)
RLock普通锁(可嵌套)常用
Semaphore信号量
event事件
condition条件
1.3.2普通锁Lock和RLock
类名:
Lock或RLock
普通锁,也叫互斥锁,是独占的,同一时刻只有一个线程被放行。
importtime
importthreading
NUM=10
deffunc(lock):
globalNUM
lock.acquire()#让锁开始起作用
NUM-=1
time.sleep
(1)
print(NUM)
lock.release()#释放锁
lock=threading.Lock()#实例化一个锁对象
foriinrange(10):
t=threading.Thread(target=func,args=(lock,))#记得把锁当作参数传递给func参数
t.start()
以上是threading模块的Lock类,它不支持嵌套锁。
RLcok类的用法和Lock一模一样,但它支持嵌套,因此我们一般直接使用RLcok类。
1.3.3信号量(Semaphore)
类名:
BoundedSemaphore
这种锁允许一定数量的线程同时更改数据,它不是互斥锁。
比如地铁安检,排队人很多,工作人员只允许一定数量的人进入安检区,其它的人继续排队。
#!
/usr/bin/envpython
#-*-coding:
utf-8-*-
importtime
importthreading
defrun(n):
semaphore.acquire()
print("runthethread:
%s"%n)
time.sleep
(1)
semaphore.release()
num=0
semaphore=threading.BoundedSemaphore(5)#最多允许5个线程同时运行
foriinrange(20):
t=threading.Thread(target=run,args=(i,))
t.start()
1.3.4事件(Event)
类名:
Event
事件主要提供了三个方法set、wait、clear。
事件机制:
全局定义了一个“Flag”,如果“Flag”的值为False,那么当程序执行wait方法时就会阻塞,如果“Flag”值为True,那么wait方法时便不再阻塞。
这种锁,类似交通红绿灯(默认是红灯),它属于在红灯的时候一次性阻挡所有线程,在绿灯的时候,一次性放行所有的排队中的线程。
clear:
将“Flag”设置为False
set:
将“Flag”设置为True
importthreading
deffunc(e,i):
print(i)
e.wait()#检测当前event是什么状态,如果是红灯,则阻塞,如果是绿灯则继续往下执行。
默认是红灯。
print(i+100)
event=threading.Event()
foriinrange(10):
t=threading.Thread(target=func,args=(event,i))
t.start()
event.clear()#主动将状态设置为红灯
inp=input(">>>")
ifinp=="1":
event.set()#主动将状态设置为绿灯
1.3.5条件(condition)
类名:
Condition
该机制会使得线程等待,只有满足某条件时,才释放n个线程。
importthreading
defcondition():
ret=False
r=input(">>>")
ifr=="yes":
ret=True
returnret
deffunc(conn,i):
print(i)
conn.acquire()
conn.wait_for(condition)#这个方法接受一个函数的返回值
print(i+100)
conn.release()
c=threading.Condition()
foriinrange(10):
t=threading.Thread(target=func,args=(c,i,))
t.start()
上面的例子,每输入一次“yes”放行了一个线程。
下面这个,可以选择一次放行几个线程。
#!
/usr/bin/envpython
#-*-coding:
utf-8-*-
importthreading
defrun(n):
con.acquire()
con.wait()
print("runthethread:
%s"%n)
con.release()
if__name__=='__main__':
con=threading.Condition()
foriinrange(10):
t=threading.Thread(target=run,args=(i,))
t.start()
whileTrue:
inp=input('>>>')
ifinp=="q":
break
#下面这三行是固定语法
con.acquire()
con.notify(int(inp))#这个方法接收一个整数,表示让多少个线程通过
con.release()
1.3全局解释器锁(GIL)
既然介绍了多线程和线程锁,那就不得不提及python的GIL,也就是全局解释器锁。
在编程语言的世界,python因为GIL的问题广受诟病,因为它在解释器的层面限制了程序在同一时间只有一个线程被CPU实际执行,而不管你的程序里实际开了多少条线程。
所以我们经常能发现,python中的多线程编程有时候效率还不如单线程,就是因为这个原因。
那么,对于这个GIL,一些普遍的问题如下:
每种编程语言都有GIL吗?
以python官方Cpython解释器为代表....其他语言好像未见。
为什么要有GIL?
作为解释型语言,Python的解释器必须做到既安全又高效。
我们都知道多线程编程会遇到的问题。
解释器要留意的是避免在不同的线程操作内部共享的数据。
同时它还要保证在管理用户线程时总是有最大化的计算资源。
那么,不同线程同时访问时,数据的保护机制是怎样的呢?
答案是解释器全局锁GIL。
GIL对诸如当前线程状态和为垃圾回收而用的堆分配对象这样的东西的访问提供着保护。
为什么不能去掉GIL?
首先,在早期的python解释器依赖较多的全局状态,传承下来,使得想要移除当今的GIL变得更加困难。
其次,对于程序员而言,仅仅是想要理解它的实现就需要对操作系统设计、多线程编程、C语言、解释器设计和CPython解释器的实现有着非常彻底的理解。
在1999年,针对Python1.5,一个“freethreading”补丁已经尝试移除GIL,用细粒度的锁来代替。
然而,GIL的移除给单线程程序的执行速度带来了一定的负面影响。
当用单线程执行时,速度大约降低了40%。
虽然使用两个线程时在速度上得到了提高,但这个提高并没有随着核数的增加而线性增长。
因此这个补丁没有被采纳。
另外,在python的不同解释器实现中,如PyPy就移除了GIL,其执行速度更快(不单单是去除GIL的原因)。
然而,我们通常使用的CPython占有着统治地位的使用量,所以,你懂的。
在Python3.2中实现了一个新的GIL,并且带着一些积极的结果。
这是自1992年以来,GIL的一次最主要改变。
旧的GIL通过对Python指令进行计数来确定何时放弃GIL。
在新的GIL实现中,用一个固定的超时时间来指示当前的线程以放弃这个锁。
在当前线程保持这个锁,且当第二个线程请求这个锁的时候,当前线程就会在5ms后被强制释放掉这个锁(这就是说,当前线程每5ms就要检查其是否需要释放这个锁)。
当任务是可行的时候,这会使得线程间的切换更加可预测。
GIL对我们有什么影响?
最大的影响是我们不能随意使用多线程。
要区分任务场景。
在单核cpu情况下对性能的影响可以忽略不计,多线程多进程都差不多。
在多核CPU时,多线程效率较低。
GIL对单进程和多进程没有影响。
在实际使用中有什么好的建议?
建议在IO密集型任务中使用多线程,在计算密集型任务中使用多进程。
深入研究python的协程机制,你会有惊喜的。
更多的详细介绍和说明请参考下面的文献:
原文:
Python'sHardestProblem
译文:
Python最难的问题
1.4定时器(Timer)
定时器,指定n秒后执行某操作。
很简单但很使用的东西。
fromthreadingimportTimer
defhello():
print("hello,world")
t=Timer(1,hello)#表示1秒后执行hello函数
t.start()
1.5队列
通常而言,队列是一种先进先出的数据结构,与之对应的是堆栈这种后进先出的结构。
但是在python中,它内置了一个queue模块,它不但提供普通的队列,还提供一些特殊的队列。
具体如下:
queue.Queue:
先进先出队列
queue.LifoQueue:
后进先出队列
queue.PriorityQueue:
优先级队列
queue.deque:
双向队列
1.5.1Queue:
先进先出队列
这是最常用也是最普遍的队列,先看一个例子。
importqueue
q=queue.Queue(5)
q.put(11)
q.put(22)
q.put(33)
print(q.get())
print(q.get())
print(q.get())
Queue类的参数和方法:
maxsize队列的最大元素个数,也就是queue.Queue(5)中的5。
当队列内的元素达到这个值时,后来的元素默认会阻塞,等待队列腾出位置。
def__init__(self,maxsize=0):
self.maxsize=maxsize
self._init(maxsize)
qsize()获取当前队列中元素的个数,也就是队列的大小
empty()判断当前队列是否为空,返回True或者False
full()判断当前队列是否已满,返回True或者False
put(self,block=True,timeout=None)
往队列里放一个元素,默认是阻塞和无时间限制的。
如果,block设置为False,则不阻塞,这时,如果队列是满的,放不进去,就会弹出异常。
如果timeout设置为n秒,则会等待这个秒数后才put,如果put不进去则弹出异常。
get(self,block=True,timeout=None)
从队列里获取一个元素。
参数和put是一样的意思。
join()阻塞进程,直到所有任务完成,需要配合另一个方法task_done。
defjoin(self):
withself.all_tasks_done:
whileself.unfinished_tasks:
self.all_tasks_done.wait()
task_done()表示某个任务完成。
每一条get语句后需要一条task_done。
importqueue
q=queue.Queue(5)
q.put(11)
q.put(22)
print(q.get())
q.task_done()
print(q.get())
q.task_done()
q.join()
1.5.2LifoQueue:
后进先出队列
类似于“堆栈”,后进先出。
也较常用。
importqueue
q=queue.LifoQueue()
q.put(123)
q.put(456)
print(q.get())
上述代码运行结果是:
456
1.5.3PriorityQueue:
优先级队列
带有权重的队列,每个元素都是一个元组,前面的数字表示它的优先级,数字越小优先级越高,同样的优先级先进先出
q=queue.PriorityQueue()
q.put((1,"alex1"))
q.put((1,"alex2"))
q.put((1,"alex3"))
q.put((3,"alex3"))
print(q.get())
1.5.4deque:
双向队列
Queue和LifoQueue的“综合体”,双向进出。
方法较多,使用复杂,慎用!
q=queue.deque()
q.append(123)
q.append(333)
q.appendleft(456)
q.pop()
q.popleft()
1.6生产者消费者模型
利用多线程和队列可以搭建一个生产者消费者模型,用于处理大并发的服务。
在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。
该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。
为什么要使用生产者和消费者模式
在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。
在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。
同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。
为了解决这个问题于是引入了生产者和消费者模式。
什么是生产者消费者模式
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。
生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。
这个阻塞队列就是用来给生产者和消费者解耦的。
纵观大多数设计模式,都会找一个第三者出来进行解耦,如工厂模式的第三者是工厂类,模板模式的第三者是模板类。
在学习一些设计模式的过程中,如果先找到这个模式的第三者,能帮助我们快速熟悉一个设计模式。
以上摘自方腾飞的《聊聊并发——生产者消费者模式》
下面是一个简单的厨师做包子,顾客吃包子的例子。
#!
/usr/bin/envpython
#-*-coding:
utf-8-*-
#Author:
LiuJiang
importtime
importqueue
importthreading
q=queue.Queue(10)
defproductor(i):
whileTrue:
q.put("厨师%s做的包子!
"%i)
time.sleep
(2)
defconsumer(k):
whileT