摘要:生成器生成器是迭代器,但是只能迭代一次,生成器不会将所有值存储在内存中,而是实时的生成这些值看上去除了用替换了原来的外,它们没什么不同。
这是stackoverflow上一个关于python中yield用法的帖子,这里翻译自投票最高的一个回答,原文链接 here
问题Python中yield关键字的用途是什么?它有什么作用?
例如,我试图理解以下代码 ¹:
def _get_child_candidates(self, distance, min_dist, max_dist): if self._leftchild and distance - max_dist < self._median: yield self._leftchild if self._rightchild and distance + max_dist >= self._median: yield self._rightchild
这是调用者(caller):
result, candidates = [], [self] while candidates: node = candidates.pop() distance = node._get_dist(obj) if distance <= max_dist and distance >= min_dist: result.extend(node._values) candidates.extend(node._get_child_candidates(distance, min_dist, max_dist)) return result
当调用方法_get_child_candidates时会发生什么?返回了一个列表(list)?还是返回了一个元素?然后被重复调用了吗?调用何时结束?
¹ :代码来自 Jochen Schulz (jrschulz), who made a great Python library for metric spaces. 这是完整源代码的链接:Module mspace.
回答要想理解yield的作用,你必须了解什么是生成器(generators),在这之前,我们先来看可迭代对象(iterables)。
可迭代对象 (iterables)当你创建了一个列表,你可以遍历这个列表读取它的每一个元素,逐个读取列表元素称为迭代(iteration)。
>>> mylist = [1, 2, 3] >>> for i in mylist: ... print(i) 1 2 3
mylist就是一个可迭代对象(iterable)。当你使用列表生成式(list comprehension)创建一个列表(list),即创建了一个可迭代对象。
>>> mylist = [x*x for x in range(3)] >>> for i in mylist: ... print(i) 0 1 4
可以使用for... in...的所有对象都是可迭代对象:列表(lists)、字符串、文件...
这些可迭代对象使用很方便,因为你可以根据需要如你所愿的读取其中的元素。但是,当你有大量数据时把所有值都存储在内存中,这样往往不是你想要的( but you store all the values in memory and this is not always what you want when you have a lot of values.)。
生成器是迭代器(iterators),但是只能迭代一次,生成器不会将所有值存储在内存中,而是实时的生成这些值:
>>> mygenerator = (x*x for x in range(3)) >>> for i in mygenerator: ... print(i) 0 1 4
看上去除了用()替换了原来的[]外,它们没什么不同。但是,你不可以再次使用for i in mygenerator ,因为生成器只能被迭代一次:计算出0,然后并不保存结果和状态继续计算出1,最后计算出4,逐一生成。
yieldyield 是一个类似 return 的关键字,不同的是这个函数将返回一个生成器。
>>> def createGenerator(): ... mylist = range(3) ... for i in mylist: ... yield i*i ... >>> mygenerator = createGenerator() # create a generator >>> print(mygenerator) # mygenerator is an object!>>> for i in mygenerator: ... print(i) 0 1 4
这个例子没有什么实际作用。但是当你知道你的函数将返回大量你只需要读取一次的值时,使用生成器是一个有效的做法。
要掌握 yeild,你必须要知道当你调用这个函数时,你在函数体中编写的代码并没有立马执行。
该函数仅仅返回一个生成器对象,这有点棘手 :-)
然后,你的代码将从for循环每次使用生成器停止的位置继续执行。
现在到了关键部分:
for第一次调用从函数创建的生成器对象,函数将从头开始执行直到遇到yeild,然后返回yield后的值作为第一次迭代的返回值。接下来每次调用都会再次执行你在函数中定义的循环,并返回(return)下一个值,直到没有值可以返回(return)。
当循环结束,或者不满足if/else条件,导致函数运行但不会执行(not hit)yeild,此时生成器被认为是空的。
问题代码的解释 (Your code explained)生成器 (Generator):
# Here you create the method of the node object that will return the generator def _get_child_candidates(self, distance, min_dist, max_dist): # Here is the code that will be called each time you use the generator object: # If there is still a child of the node object on its left # AND if distance is ok, return the next child if self._leftchild and distance - max_dist < self._median: yield self._leftchild # If there is still a child of the node object on its right # AND if distance is ok, return the next child if self._rightchild and distance + max_dist >= self._median: yield self._rightchild # If the function arrives here, the generator will be considered empty # there is no more than two values: the left and the right children
调用者 (Caller):
# Create an empty list and a list with the current object reference result, candidates = list(), [self] # Loop on candidates (they contain only one element at the beginning) while candidates: # Get the last candidate and remove it from the list node = candidates.pop() # Get the distance between obj and the candidate distance = node._get_dist(obj) # If distance is ok, then you can fill the result if distance <= max_dist and distance >= min_dist: result.extend(node._values) # Add the children of the candidate in the candidates list # so the loop will keep running until it will have looked # at all the children of the children of the children, etc. of the candidate candidates.extend(node._get_child_candidates(distance, min_dist, max_dist)) return result
这段代码包含几个高明的部分:
这个循环对列表进行迭代,但是迭代中列表还在不断扩展 :-) 这是一种遍历嵌套数据的简明方法,即使这样有些危险,因为你可能会陷入死循环中。在这个例子中,candidates.extend(node._get_child_candidates(distance, min_dist, max_dist))穷尽了生成器产生的所有值,但while不断的创建新的生成器对象加入到列表,因为每个对象作用在不同节点上,所以每个生成器都将生成不同的值。
extend()是一个列表(list)对象的方法,作用于可迭代对象(iterable),并将其值添加到列表里。
通常,通常我们将列表作为参数传递给它:
>>> a = [1, 2] >>> b = [3, 4] >>> a.extend(b) >>> print(a) [1, 2, 3, 4]
但是在你的代码里它接收到的是一个生成器(generator),这很好,因为:
你不必重复读取这些值
你可以有很多子对象,但不需要将它们都存储在内存里。
它很有效,因为Python不关心一个方法的参数是否是列表,Python只希望他是一个可迭代对象,所以这个参数可以是列表,元组,字符串和生成器!这就是所谓的duck typing ,这也是Python为何如此酷的原因之一,但这已经是另外一个问题了......
你可以在这里停下,来看一些生成器的高级用法:
控制生成器的穷尽 (Controlling a generator exhaustion)>>> class Bank(): # Let"s create a bank, building ATMs ... crisis = False ... def create_atm(self): ... while not self.crisis: ... yield "$100" >>> hsbc = Bank() # When everything"s ok the ATM gives you as much as you want >>> corner_street_atm = hsbc.create_atm() >>> print(corner_street_atm.next()) $100 >>> print(corner_street_atm.next()) $100 >>> print([corner_street_atm.next() for cash in range(5)]) ["$100", "$100", "$100", "$100", "$100"] >>> hsbc.crisis = True # Crisis is coming, no more money! >>> print(corner_street_atm.next())>>> wall_street_atm = hsbc.create_atm() # It"s even true for new ATMs >>> print(wall_street_atm.next()) >>> hsbc.crisis = False # The trouble is, even post-crisis the ATM remains empty >>> print(corner_street_atm.next()) >>> brand_new_atm = hsbc.create_atm() # Build a new one to get back in business >>> for cash in brand_new_atm: ... print cash $100 $100 $100 $100 $100 $100 $100 $100 $100 ...
注意,对于Python 3,请使用 print(corner_street_atm.__next__()) 或者 print(next(corner_street_atm))
这在很多场景都非常有用,例如控制资源的获取。
Itertools,你最好的朋友 (Itertools, your best friend)itertools模块包含很多处理可迭代对象的特殊方法。曾经想要复制一个生成器吗?连接两个生成器?用一行代码将嵌套列表中的值进行分组?不创建另一个列表进行Map/Zip?
只需要import itertools
需要一个例子?让我们来看看4匹马赛跑到达终点先后顺序的所有可能情况:
>>> horses = [1, 2, 3, 4] >>> races = itertools.permutations(horses) >>> print(races)了解迭代的内部机制 (Understanding the inner mechanisms of iteration)>>> print(list(itertools.permutations(horses))) [(1, 2, 3, 4), (1, 2, 4, 3), (1, 3, 2, 4), (1, 3, 4, 2), (1, 4, 2, 3), (1, 4, 3, 2), (2, 1, 3, 4), (2, 1, 4, 3), (2, 3, 1, 4), (2, 3, 4, 1), (2, 4, 1, 3), (2, 4, 3, 1), (3, 1, 2, 4), (3, 1, 4, 2), (3, 2, 1, 4), (3, 2, 4, 1), (3, 4, 1, 2), (3, 4, 2, 1), (4, 1, 2, 3), (4, 1, 3, 2), (4, 2, 1, 3), (4, 2, 3, 1), (4, 3, 1, 2), (4, 3, 2, 1)]
迭代是一个实现可迭代对象(实现的是 __iter__() 方法)和迭代器(实现的是 __next__() 方法)的过程。你可以获取一个迭代器的任何对象都是可迭代对象,迭代器可以让你迭代遍历一个可迭代对象(Iterators are objects that let you iterate on iterables.) .
在这篇文章中有关于for循环如何工作的更多信息:here
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/42825.html
摘要:在上一篇如何给列表降维函数的妙用中,我们介绍了这个用法,还对函数做了扩展的学习。是的,函数做列表降维有奇效,但它性能堪忧,并不是最好的选择。这正是函数出于一致性考虑,而舍弃掉的实现方案。 showImg(https://segmentfault.com/img/remote/1460000019004608?w=5184&h=2916); 本文原创并首发于公众号【Python猫】,未经...
摘要:当运行到时,不会暂停,而是直接跳进函数执行函数内的代码。由于函数中没有,因此会一直执行完函数中的代码,并返回至函数中执行后面的代码。 本系列旨在通过对co,koa等库源码的研究,进而理解generator在异步编程中的重大作用(ps:所有代码请在node --harmony或者iojs环境中运行) koa中间件的形式 相信用过koa的小伙伴一定很熟悉下面这段代码 var app ...
摘要:搞这么神秘其实就是个迭代器的核心实际上就是一个,通过关键字能够把函数体拆成完全可控执行片段,在函数体外部通过来对这些执行片段进行遍历这和遍历这些数据结构是一个道理只不过用来遍历函数片段,而用来遍历元素对生成器执行操作,进行生成器的入口开始执 Generator 搞这么神秘 其实就是个迭代器 Generator的核心实际上就是一个Iterator,通过yield关键字能够把函数体拆成完全...
摘要:搞这么神秘其实就是个迭代器的核心实际上就是一个,通过关键字能够把函数体拆成完全可控执行片段,在函数体外部通过来对这些执行片段进行遍历这和遍历这些数据结构是一个道理只不过用来遍历函数片段,而用来遍历元素对生成器执行操作,进行生成器的入口开始执 Generator 搞这么神秘 其实就是个迭代器 Generator的核心实际上就是一个Iterator,通过yield关键字能够把函数体拆成完全...
阅读 1817·2021-11-19 09:40
阅读 2087·2021-10-09 09:43
阅读 3146·2021-09-06 15:00
阅读 2784·2019-08-29 13:04
阅读 2728·2019-08-26 11:53
阅读 3444·2019-08-26 11:46
阅读 2290·2019-08-26 11:38
阅读 360·2019-08-26 11:27