写点什么

Python 并发总结:多线程、多进程与异步编程

  • 2025-04-08
    福建
  • 本文字数:4221 字

    阅读完需:约 14 分钟

随着多核的发展,Python中并发编程也变得越来越广泛且发展很快。


一方面,Python提供了多种并发编程工具。


比如,传统的多线程,通过threading模块方便地创建和管理线程,可用于 I/O 密集型任务;


多进程,利用multiprocessing模块充分利用多核 CPU 优势,适合 CPU 密集型任务。


另一方面,随着异步编程的兴起。asyncio库也让开发者能够编写高效的异步代码,提升程序性能,尤其在处理大量并发 I/O 操作场景表现出色。


不过,Python中全局解释器锁(GIL)为并发编程带来了不小的挑战,目前社区正在积极探索绕过GIL的方法和优化策略,推动Python并发编程持续进步。


本篇打算一一介绍如何Python中使用多线程、多进程或异步的方式来编写程序。


1. 多线程


Python中多线程的模块是threading,早在Python 1.5 版本时就加入到标准库中了。


threading一直在发展,特别是进入Python3.x之后,从Python3.3~Python3.13,几乎每次Python的升级都伴随着threading的变化。


所以,使用时务必根据自己Python版本来正确使用threading的接口。


1.1. 使用场景和局限


Python的多线程广泛用于 I/O 密集型的任务场景中,如网络请求、文件读写等,让程序在等待 I/O 操作时切换执行其他线程,从而提升整体效率。


随着应用场景拓展,多线程局限性也逐渐凸显。


最主要的是全局解释器锁GIL),这是 Python 解释器的一个特性,同一时刻只有一个线程能执行 Python 字节码。


这导致在 CPU 密集型任务中,多线程无法充分利用多核 CPU 优势,性能提升不明显甚至可能降低。


不过,尽管存在局限,多线程在 Python 生态中仍有重要地位。


开发者不断探索优化方法,如使用threading结合multiprocessing等其他并发模块,扬长避短。同时,新的 Python 版本也在尝试改进 GIL 机制,为多线程发展提供更多可能 。


1.2. 使用方式


在实际开发中,使用多线程主要有 3 种方式:


第一种方式是直接使用threading.Thread类创建线程,这是最基本的方式,直接实例化 threading.Thread 类并传入目标函数及参数。


import threading

def worker(): print('线程正在执行')

# 创建线程t = threading.Thread(target=worker)# 启动线程t.start()# 等待线程执行完毕t.join()
复制代码


第二种方式通过继承threading.Thread类创建线程类,并重写run方法来定义线程执行的任务。


import threading

class MyThread(threading.Thread): def run(self): print(f'{self.name} 线程正在执行')

# 创建线程实例my_thread = MyThread()# 启动线程my_thread.start()# 等待线程执行完毕my_thread.join()
复制代码


最后一种方式是使用threading.ThreadPool实现线程池,在 Python 3 中,建议使用concurrent.futures模块中的ThreadPoolExecutor来实现线程池功能。


threading.ThreadPool已经标记过时,不建议在新的项目中再使用。


线程池的好处是可以管理一组线程,重用线程资源,减少线程创建和销毁的开销。


import concurrent.futures

def task(num): print(f"执行任务 {num}") return num * 2

# 创建线程池,最大线程数为3with concurrent.futures.ThreadPoolExecutor(max_workers=3) as executor: # 提交任务 future_to_num = {executor.submit(task, num): num for num in range(5)} for future in concurrent.futures.as_completed(future_to_num): num = future_to_num[future] try: result = future.result() except Exception as e: print(f"任务 {num} 执行失败: {e}") else: print(f"任务 {num} 结果: {result}")
复制代码


执行结果:


$  python.exe .\thread.py执行任务 0执行任务 1执行任务 2执行任务 3任务 1 结果: 2执行任务 4任务 2 结果: 4任务 0 结果: 0任务 3 结果: 6任务 4 结果: 8
复制代码


2. 多进程


多线程模块multiprocessing自 Python 2.6 版本引入,随后在 Python 3.x 中持续发展。


在发展过程中,multiprocessing不断完善。它提供了简洁且强大的接口,让开发者能轻松创建和管理多个进程,充分利用多核 CPU的优势,大幅提升 CPU 密集型任务的处理效率。


它支持多种进程间通信方式,如队列、管道等,方便进程间的数据共享与同步。


2.1. 使用场景和局限


multiprocessing适用于CPU 密集型计算,如科学计算、数据分析、图像处理等需要大量计算资源的任务。


当有多个独立任务需要同时执行时,也可以使用multiprocessing,例如批量文件处理、任务队列处理等。可以为每个任务分配一个进程,提高任务执行效率。


此外,在一些服务器应用中,也可以使用多进程让主进程处理请求的同时,其他进程负责后台任务,如数据缓存更新、日志记录等,从而避免阻塞主线程,提升应用的响应速度 。


不过,multiprocessing也存在一些局限性。


由于每个进程都有独立的内存空间,进程间数据共享和通信相对复杂,需要额外的机制和同步操作,可能带来性能损耗。


并且,创建和销毁进程的开销较大,频繁地创建和销毁进程会影响程序的整体性能。


此外,它的使用场景相对受限,不适用于简单的并发任务,相比多线程,在 I/O 密集型任务中优势不明显,因为多线程在 I/O 等待时能切换执行其他任务,多进程则会耗费更多资源。


2.2. 使用方式


这里也介绍使用multiprocessing的 3 种常用的方式:


第一种是直接使用 Process 类,通过实例化multiprocessing.Process类并传入目标函数及参数来创建进程。


import multiprocessing

def worker(): print('进程正在执行')

if __name__ == '__main__': # 创建进程 p = multiprocessing.Process(target=worker) # 启动进程 p.start() # 等待进程执行完毕 p.join()
复制代码


第二种方式是通过继承multiprocessing.Process类,并重写run方法来定义进程执行的任务。


import multiprocessing

class MyProcess(multiprocessing.Process): def run(self): print(f'{self.name} 进程正在执行')

if __name__ == '__main__': # 创建进程实例 my_process = MyProcess() # 启动进程 my_process.start() # 等待进程执行完毕 my_process.join()
复制代码


最后一种方式是通过multiprocessing.Pool类创建一个进程池,自动分配任务给进程,提高资源利用率。


import multiprocessing

def task(num): return num * 2

if __name__ == '__main__': # 创建进程池,最大进程数为3 with multiprocessing.Pool(processes=3) as pool: # 使用map方法并行执行任务 results = pool.map(task, range(5)) print(results)
复制代码


这三种使用方式看起来和上一节中的threading都差不多,不过,它们底层的处理是完全不一样的,

multiprocessing会为每个任务单独创建一个进程去执行;而threading中的所有任务都是在同一个进程中执行的。


3. 异步


异步模块asyncio的历史比上面的两个模块要迟很多,它在Python 3.4 版本中被首次引入。


Python 3.5时, 引入了asyncawait关键字,让异步代码的编写更加简洁、易读,大大提升了异步编程的体验,推动了 asyncio 的广泛应用。


3.1. 使用场景和局限


asyncio适用于下面几种对并发处理要求高的场景:


  • 网络爬虫:在爬取多个网页时,asyncio能在等待响应的同时,继续发送其他请求,大大提高爬取效率,缩短获取大量数据的时间。

  • 网络服务端开发:处理高并发的客户端连接,如构建聊天服务器、实时数据推送服务等。它能异步处理每个客户端请求,避免阻塞,确保服务器高效运行。

  • I/O 密集型任务:如文件读写、数据库操作等。asyncio可在等待I/O操作完成时执行其他任务,减少整体等待时间,提升程序性能。


当然,asyncio的优势明显,但也存在一些局限性。


一方面,由于它基于单线程,在处理 CPU 密集型任务时性能欠佳,无法充分利用多核 CPU 的优势。


另一方面,异步编程模型相对复杂,代码调试和维护难度较高,需要开发者对异步概念有深入理解,否则容易出现逻辑错误。


此外,asyncio与一些传统的同步库可能存在兼容性问题,在集成现有代码时可能会遇到困难。


3.2. 使用方式


asyncio是比较新的模块,它的使用方式主要有:


1、定义一个协程函数,使用async def关键字声明,在函数内部使用await关键字暂停协程执行,等待其他异步操作完成。


import asyncio

async def coroutine(): print('开始执行协程函数') await asyncio.sleep(1) print('协程函数执行结束')

if __name__ == '__main__': asyncio.run(coroutine())
复制代码


asyncio.run()用于运行最高层级的协程。


2、使用asyncio.gather()函数可以同时运行多个协程。


import asyncio

async def coroutine1(): await asyncio.sleep(1) print('协程1执行完毕')

async def coroutine2(): await asyncio.sleep(2) print('协程2执行完毕')

if __name__ == "__main__": try: loop = asyncio.get_running_loop() except RuntimeError: loop = asyncio.new_event_loop() asyncio.set_event_loop(loop) try: loop.run_until_complete(asyncio.gather(coroutine1(), coroutine2())) finally: loop.close()
复制代码


3、使用async for对异步可迭代对象进行迭代。


import asyncio

async def async_generator(): for i in range(3): await asyncio.sleep(1) yield i

async def main(): async for num in async_generator(): print(num)

if __name__ == "__main__": asyncio.run(main())
复制代码


这种方式适用于处理异步产生的数据序列。


4. 总结


总的来看,多线程是在一个进程里创建多个线程,共享资源,线程切换开销小,适合 I/O密集型任务,像网络请求、文件读写。


它编程简单,能提高程序响应性,但因全局解释器锁,在 CPU 密集型任务中无法发挥多核优势,还存在线程安全问题。


多进程中每个进程有独立内存和资源,适合 CPU 密集型任务,能充分利用多核 CPU,稳定性高。


不过,进程创建和销毁开销大,进程间通信和数据共享复杂。


异步编程基于事件循环和协程,在单线程内实现异步。


它并发性能高,代码简洁,适合大量 I/O 密集型任务。但不适合 CPU 密集型任务,编程模型复杂,调试维护难。


简单来说,在开发时,I/O 密集型任务少用多线程,任务多用异步;CPU 密集型任务就选多进程;混合任务则按需组合。


文章转载自:wang_yb

原文链接:https://www.cnblogs.com/wang_yb/p/18643761

体验地址:http://www.jnpfsoft.com/?from=001YH

用户头像

还未添加个人签名 2023-06-19 加入

还未添加个人简介

评论

发布
暂无评论
Python并发总结:多线程、多进程与异步编程_Python_不在线第一只蜗牛_InfoQ写作社区