boxmoe_header_banner_img

Hello! 欢迎来到悠悠畅享网!

文章导读

Python函数怎样写一个生成器函数实现迭代 Python函数生成器创建与使用的简单教程​


avatar
站长 2025年8月15日 1

生成器函数的核心是使用yield关键字,它使函数在每次遇到yield时暂停并返回值,保持状态以便后续恢复;2. 与普通函数一次性返回所有结果不同,生成器采用惰性计算,按需生成数据,显著降低内存占用;3. 生成器对象只能迭代一次,耗尽后需重新创建;4. 常见应用场景包括处理大文件、构建数据流管道和实现无限序列;5. 性能上生成器内存效率高,但小数据集可能因上下文开销略慢于列表;6. 使用yield from可优雅地委托子生成器,提升代码简洁性和健壮性。

Python函数怎样写一个生成器函数实现迭代 Python函数生成器创建与使用的简单教程​

Python中,要写一个生成器函数来实现迭代,核心在于使用

yield

关键字。它不像普通函数那样用

return

一次性返回所有结果,而是每次遇到

yield

就“暂停”执行,并返回一个值,然后记住当前执行状态,等待下一次被请求时再从上次暂停的地方继续。这样,我们就能得到一个可迭代的对象,但它并不会一次性生成所有数据并存储在内存里,而是按需生成,这对于处理大量数据或无限序列非常有用。

解决方案

编写一个生成器函数非常直观,你只需要在函数体内部使用

yield

语句来产生序列中的每个元素。当你调用这个函数时,它不会立即执行函数体内的代码,而是返回一个生成器对象(一个迭代器)。只有当你开始迭代这个生成器对象(比如通过

for

循环,或者手动调用

next()

)时,函数体内的代码才会开始执行,直到遇到第一个

yield

语句,返回一个值,然后暂停。下一次迭代请求时,它会从上次暂停的地方继续执行,直到遇到下一个

yield

,或者函数执行完毕。

def simple_generator():     print("开始生成...")     yield 1     print("生成了1,继续...")     yield 2     print("生成了2,快结束了...")     yield 3     print("生成完毕!")  # 创建生成器对象 gen = simple_generator()  # 迭代生成器 print("--- 第一次迭代 ---") for value in gen:     print(f"获取到值: {value}")  # 尝试再次迭代同一个生成器(会发现它已经耗尽) print("n--- 尝试第二次迭代同一个生成器 ---") for value in gen:     print(f"再次获取到值: {value}") # 这行不会被执行,因为生成器已经空了  # 如果想再次迭代,需要重新创建一个生成器对象 print("n--- 重新创建生成器并迭代 ---") new_gen = simple_generator() print(next(new_gen)) # 手动获取下一个值 print(next(new_gen)) print(next(new_gen)) try:     print(next(new_gen)) # 尝试获取第四个值,会抛出StopIteration except StopIteration:     print("生成器已耗尽,无法再获取值。") 

从上面的例子可以看出,生成器对象一旦被遍历完,就“空”了,不能再用来生成值。如果你需要再次遍历,就得重新调用生成器函数,创建一个新的生成器对象。这和列表这样的数据结构完全不同,列表可以反复遍历。

立即学习Python免费学习笔记(深入)”;

生成器函数与普通函数:它们在内存使用和性能上有何差异?

我个人觉得,理解生成器函数和普通函数的根本区别,是掌握其精髓的关键。普通函数在执行时,通常会一次性完成所有计算,并返回一个最终结果(比如一个列表、一个字典)。如果这个结果集很大,那么在函数返回之前,所有数据都得老老实实地待在内存里。这对于处理几十万、上百万甚至更多条记录的情况,简直是内存杀手。我以前就遇到过因为一次性加载一个巨大CSV文件到内存,导致程序直接崩溃的窘境。

而生成器函数则完全不同,它采用的是“惰性计算”或者说“按需生成”的策略。当你调用生成器函数时,它并不会立即执行函数体内的所有代码,而是返回一个生成器对象。这个对象就像一个“承诺”,它承诺在你需要的时候,会给你下一个值。只有当你明确地请求(比如在

for

循环中,或者调用

next()

)时,生成器函数才会执行一小段代码,生成一个值,然后暂停,释放掉当前不需要的资源。下一个值?等你需要的时候再说。

这种机制带来的最大好处就是内存效率。你不需要一次性把所有数据都加载到内存中,这对于处理大文件、无限序列(比如斐波那契数列,你可以生成到任意大,而不用担心内存溢出)或者实时数据流(比如日志分析、网络数据包处理)来说,简直是救星。它不是为了追求纯粹的CPU执行速度,而是为了在资源受限的环境下,更优雅、更高效地处理数据。当然,由于每次

yield

next

调用之间存在一些上下文切换的开销,对于非常小的数据集,生成器可能比直接构建列表略慢,但这种差异通常可以忽略不计,而且内存优势往往更重要。

在实际开发中,生成器函数有哪些常见的应用场景?

生成器函数在实际开发中的应用场景非常广泛,尤其是在需要处理大量数据、数据流或者实现自定义迭代逻辑时。

一个非常经典的例子就是读取大型文件。想象一下,你有一个几十GB的日志文件,如果试图用

readlines()

一次性读入内存,你的程序很可能直接崩溃。但如果用生成器:

def read_large_file(filepath):     with open(filepath, 'r', encoding='utf-8') as f:         for line in f:             yield line.strip() # 逐行返回,并去除空白字符  # 使用生成器处理文件 # 假设有一个很大的'access.log'文件 # for log_entry in read_large_file('access.log'): #     # 处理每一行日志,例如解析、过滤等 #     if "ERROR" in log_entry: #         print(f"发现错误日志: {log_entry}") #     # 内存占用始终保持在较低水平

这样,每次

for

循环只处理一行,内存占用极低。

另一个我经常用的场景是数据流处理管道。你可以把一系列数据处理步骤串联起来,每一步都是一个生成器,前一个生成器的输出是后一个生成器的输入。例如,从文件读取数据,然后过滤,再转换:

def get_numbers(filepath):     with open(filepath, 'r') as f:         for line in f:             try:                 yield int(line.strip())             except ValueError:                 continue # 忽略非数字行  def filter_even(numbers_gen):     for num in numbers_gen:         if num % 2 == 0:             yield num  def square_numbers(even_numbers_gen):     for num in even_numbers_gen:         yield num * num  # 假设'data.txt'包含多行数字和一些文本 # 例如: # 1 # 2 # hello # 3 # 4 # 5  # data.txt 内容: # 1 # 2 # hello # 3 # 4 # 5  # 运行管道 # for squared_even in square_numbers(filter_even(get_numbers('data.txt'))): #     print(squared_even) # 输出: # 4 # 16

这种链式调用,每个环节都是惰性求值,数据在管道中流动,不会在任何一个中间步骤积累大量内存。

此外,自定义迭代器也是一个重要应用。当你需要实现一个自定义的复杂数据结构或者算法,并希望它能够像内置的列表、元组一样被

for

循环遍历时,生成器函数是实现

__iter__

方法的绝佳选择。比如,实现一个无限斐波那契数列生成器:

def fibonacci_sequence():     a, b = 0, 1     while True: # 无限序列         yield a         a, b = b, a + b  # for i, num in enumerate(fibonacci_sequence()): #     if i > 10: #         break #     print(num) # 输出: # 0 # 1 # 1 # 2 # 3 # 5 # 8 # 13 # 21 # 34 # 55

你甚至可以利用生成器实现一些简单的协程行为,虽然现在有了

async/await

,但生成器的

send()

throw()

close()

方法依然为一些高级并发模式提供了基础。

编写生成器函数时,有哪些常见的陷阱或性能考量?

编写生成器函数时,有一些细节确实需要留意,否则可能会遇到一些意想不到的行为。

一个最常见的“陷阱”就是生成器只能被迭代一次。这跟列表、元组这种数据结构不一样。当你把一个生成器对象传给一个函数,那个函数遍历了一遍,那么这个生成器就“用完了”。如果你想再次遍历,或者把它传给另一个函数,那个函数会发现它已经空了。我第一次遇到这个问题时,还以为是代码哪里写错了,后来才明白这是生成器的设计特性。

def my_numbers():     yield 1     yield 2     yield 3  gen_obj = my_numbers() list_one = list(gen_obj) # 第一次迭代,gen_obj被耗尽 print(f"第一次转换成列表: {list_one}") # 输出: [1, 2, 3]  list_two = list(gen_obj) # 第二次尝试转换,gen_obj已经空了 print(f"第二次转换成列表: {list_two}") # 输出: []  # 解决办法:每次需要迭代时,重新调用生成器函数创建新的生成器对象 gen_obj_new = my_numbers() list_three = list(gen_obj_new) print(f"重新创建后转换成列表: {list_three}") # 输出: [1, 2, 3]

所以,如果你在一个地方使用了生成器,并且知道后面可能还需要它,要记得重新创建它,或者一开始就考虑是否真的需要一个生成器,还是一个列表更合适。

性能考量方面,虽然生成器在内存效率上表现出色,但它并非总是比列表推导式或一次性构建列表更快。每次

yield

next()

的调用,都会涉及一些内部的上下文切换和状态保存,这会带来微小的开销。对于非常小的数据集(比如只有几十个元素),这种开销可能会使得生成器在纯粹的CPU执行时间上略逊于直接构建列表。例如:

import time  def generate_small_list():     return [i for i in range(1000)]  def generate_small_generator():     for i in range(1000):         yield i  start = time.perf_counter() _ = generate_small_list() end = time.perf_counter() print(f"列表推导式耗时: {(end - start) * 1000:.2f} ms")  start = time.perf_counter() _ = list(generate_small_generator()) # 强制迭代生成器 end = time.perf_counter() print(f"生成器耗时: {(end - start) * 1000:.2f} ms")

你会发现,对于小规模数据,列表推导式可能更快。但请记住,生成器的核心优势是内存,而不是绝对速度。当数据量变得庞大时,内存优势会迅速抵消掉这点微小的速度劣势,并成为决定性的因素。

另一个需要注意的,是当你在生成器内部调用另一个生成器时,可以使用

yield from

。它能更优雅地处理子生成器的委托,避免了手动循环

next()

的繁琐。

def sub_generator():     yield 'a'     yield 'b'  def main_generator_manual():     yield 1     for item in sub_generator(): # 手动迭代子生成器         yield item     yield 2  def main_generator_yield_from():     yield 1     yield from sub_generator() # 使用yield from委托     yield 2  print(list(main_generator_manual()))     # 输出: [1, 'a', 'b', 2] print(list(main_generator_yield_from())) # 输出: [1, 'a', 'b', 2]
yield from

不仅代码更简洁,在处理异常和关闭子生成器时也更健壮。理解这些细节,能帮助我们更高效、更稳定地利用生成器。



评论(已关闭)

评论已关闭