一个简单Python合并字典问题引发的思考,如何优化我们的代码?

网友投稿 851 2022-05-30

关注公众号《云爬虫技术研究笔记》,获取更多干货~

号主介绍

多年反爬虫破解经验,AKA“逆向小学生”,沉迷数据分析和黑客增长不能自拔,虚名有CSDN博客专家和华为云享专家。

今天我们的题目是《由一个简单的Python合并字典问题引发的思考,如何优化我们的代码?》,为什么会有这个话题呢?起因是今天和一位刚刚面试完Python开发岗位的朋友交流,这个问题也是他在面试中遇到的问题:

怎么用一个简单的表达式合并Python中的两个Dict?

这个问题虽然是一道很简单的问题,并且解题的思路也有很多种。不过问题虽小,但是我们也借此分析一下更深层次的东西,关于代码如何优化,优化思路等等。

由一个简单的Python合并字典问题引发的思考,如何优化我们的代码?

首先我们简单的思考一下,Python中合并两个Dict有哪些方法?我们分别举Python3和Python2的例子。

假设我们现在有DictXX和DictYY,我们想要合并它们得到新的DictZZ,我们会这么做:

在Python 3.5或更高版本中:

z = {**x, **y}

在Python 2(或3.4或更低版本)中,编写一个函数:

def merge_two_dicts(x, y):     z = x.copy()   # start with x's keys and values     z.update(y)    # modifies z with y's keys and values & returns None     return z z = merge_two_dicts(x, y)

假设我们有两个字典,并且想要将它们合并为新字典而不更改原始字典:

x = {'a': 1, 'b': 2} y = {'b': 3, 'c': 4}

理想的结果是获得一个z是合并后的新字典,第二个Dict的值覆盖第一个字典Dict的值。

>>> z {'a': 1, 'b': 3, 'c': 4}

在PEP 448中提出并从Python 3.5开始可用的新语法是:

z = {**x, **y}

它只需要一个非常简洁的表达式就可以完成,另外,我们也可以使用解包来进行操作:

z = {**x, 'foo': 1, 'bar': 2, **y}

结果如下:

>>> z {'a': 1, 'b': 3, 'foo': 1, 'bar': 2, 'c': 4}

它现在正式的在3.5的发布时间表中实现,PEP 478,并且已进入Python 3.5的新功能文档。

我们大致看一下这个新功能的使用方式

这个功能允许我们在同一个表达式中使用多个解包表达式,能够很方便的合并迭代器和普通的列表,而不需要将迭代器先转化成列表再进行合并。

但是,由于许多组织仍在使用Python 2,因此我们可能希望以向后兼容的方式进行操作。在Python 2和Python 3.0-3.4中可用的经典Pythonic方法是分两个步骤完成的:

z = x.copy() z.update(y) # which returns None since it mutates z

这种方法中,我们拷贝x生成新的对象z,再使用dict的update的方法合并两个dict。

如果我们尚未使用Python 3.5,或者需要编写向后兼容的代码,并且希望在单个表达式中使用它,则最有效的方法是将其放入函数中:

def merge_two_dicts(x, y):     """Given two dicts, merge them into a new dict as a shallow copy."""     z = x.copy()     z.update(y)    return z

然后我们需要这样使用函数:

z = merge_two_dicts(x, y)

您还可以创建一个合并多个dict的函数,并且我们可以指定任意数量的dict:

def merge_dicts(*dict_args):     """     Given any number of dicts, shallow copy and merge into a new dict,     precedence goes to key value pairs in latter dicts.     """     result = {}    for dictionary in dict_args:         result.update(dictionary)    return result

此函数将在Python 2和3中适用于所有字典。我们可以这样使用:

z = merge_dicts(a, b, c, d, e, f, g)

不过注意的是:越往后的dict的键值优先度越高,会覆盖前面的键值。

在Python 2中,我们还可以这么操作:

z = dict(x.items() + y.items())

在Python 2中,我们使用.items()会得到list,也就是我们将会在内存中创建两个列表,然后在内存中创建第三个列表,其长度等于前两个字典的长度,最后丢弃所有三个列表以创建字典,就是我们需要的Dict。

但是注意,我们决不能在Python 3中这么使用,在Python 3中,这会失败失败是因为我们是将两个dict_items对象而不是两个列表加在一起。

>>> c = dict(a.items() + b.items()) Traceback (most recent call last):   File "", line 1, in TypeError: unsupported operand type(s) for +: 'dict_items' and 'dict_items'

当然,我们真的想要实现的话,我们也可以强制转换,将它们明确创建为列表,例如z = dict(list(x.items()) + list(y.items())),但是这反而浪费了资源和计算能力。

类似地,当值是不可散列的对象(例如列表)时,items()在Python 3(viewitems()在Python 2.7中)进行联合也将失败。即使您的值是可哈希的,由于集合在语义上是无序的,因此关于优先级的行为是不确定的。所以不要这样做:

>>> c = dict(a.items() | b.items())

我们演示一下值不可散列时会发生的情况:

>>> x = {'a': []}>>> y = {'b': []}>>> dict(x.items() | y.items()) Traceback (most recent call last):   File "", line 1, in  TypeError: unhashable type: 'list'

这是一个示例,其中y应该优先,但是由于集合的任意顺序,保留了x的值:

>>> x = {'a': 2}>>> y = {'a': 1}>>> x.items() | y.items() {('a', 1), ('a', 2)} >>> dict(x.items() | y.items()) {'a': 2}

另外一种我们不应该使用的另一种技巧:

z = dict(x, **y)

这使用了dict构造函数,并且非常快速且具有内存效率(甚至比我们的两步过程略高),但是除非我们确切地知道里面正在发生什么(也就是说,第二个dict作为关键字参数传递给dict,构造函数)我们才能使用,要不然这个表达式很难阅读,有时我们并不能很快的理解这算什么用法,因此不算Pythonic。

由于这种情况的存在,我们看看在django中修复的用法示例。

字典旨在获取可散列的键(例如,frozenset或tuple),但是当键不是字符串时,此方法在Python 3中失败。

>>> c = dict(a, **b) Traceback (most recent call last):   File "", line 1, in TypeError: keyword arguments must be strings

在邮件列表中,大佬Guido van Rossum写道:

我宣布dict({},** {1:3})是非法的使用方式,因为这是对**机制的滥用。 显然dict(x,** y)和直接调用x.update(y)并返回x这种“酷”的操作很类似。 但是我个人觉得它比“酷”的操作更低俗。

不过根据我的理解(以及对大佬的话的理解),dict(**y)命令的预期用途是为了创建可读性强的字典,例如:

dict(a=1, b=10, c=11)

用来代替

{'a': 1, 'b': 10, 'c': 11}

在这个地方使用**运算符也不会滥用该机制,我们使用**正是为了将dict作为关键字传递而设计的。

这些方法的性能较差,但是它们将提供正确的行为。它们的性能将不及copy和update或新的解包方式,因为它们在更高的抽象级别上遍历每个键值对,但它们确实遵循优先级的顺序(后者决定了优先级)

我们可以在使用生成式来做:

{k: v for d in dicts for k, v in d.items()} # iteritems in Python 2.7

或在python 2.6中(也许在引入生成器表达式时早在2.4中):

dict((k, v) for d in dicts for k, v in d.items())

itertools.chain 迭代器的骚操作:

import itertools z = dict(itertools.chain(x.iteritems(), y.iteritems()))

ChainMap的骚操作:

>>> from collections import ChainMap>>> x = {'a':1, 'b': 2}>>> y = {'b':10, 'c': 11}>>> z = ChainMap({}, y, x)>>> for k, v in z.items():         print(k, '-->', v) a --> 1b --> 10c --> 11

我将仅对已知行为正确的用法进行性能分析。

import timeit

在Ubuntu 18上完成以下操作

在Python 2.7(系统Python)中:

>>> min(timeit.repeat(lambda: merge_two_dicts(x, y))) 0.5726828575134277>>> min(timeit.repeat(lambda: {k: v for d in (x, y) for k, v in d.items()} )) 1.163769006729126>>> min(timeit.repeat(lambda: dict(itertools.chain(x.iteritems(), y.iteritems())))) 1.1614501476287842>>> min(timeit.repeat(lambda: dict((k, v) for d in (x, y) for k, v in d.items()))) 2.2345519065856934

在Python 3.5中:

>>> min(timeit.repeat(lambda: {**x, **y}))0.4094954460160807>>> min(timeit.repeat(lambda: merge_two_dicts(x, y)))0.7881555100320838>>> min(timeit.repeat(lambda: {k: v for d in (x, y) for k, v in d.items()} ))1.4525277839857154>>> min(timeit.repeat(lambda: dict(itertools.chain(x.items(), y.items()))))2.3143140770262107>>> min(timeit.repeat(lambda: dict((k, v) for d in (x, y) for k, v in d.items())))3.2069112799945287

经过我们之前的一系列分析和实验,我们可以得到这个问题的结论

Python 2中我们就采用copy加上update的方案

Python 3中我们就采用多重解包的方案

不过对比以上两种,显然多重解包更快而且更简洁,针对大家不熟悉Python 3可以参考我之前的一篇文章Python2寿命只剩一个月啦!还不快赶紧学起Python3酷炫到爆的新特性!,可以帮助大家快速的切换成Python 3开发,不过注意的是Python 3高版本和Python 2.7差别也是比较大,因此大家要是涉及线上业务的切换,请谨慎注意!

最后我们来谈谈优化代码的问题,从这个问题入手,我们可以总结出优化代码的思路:

我们分析出有哪些解决方案?

哪些解决方案是有效的?

这些有效的方案怎么做对比?

最佳的方案需要我们做出哪些牺牲?

python

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:YIQI-EVB-01 开发板(裸系统)低功耗演示(2019年1月5日更新)
下一篇:AM335x评估板快速测试(2)
相关文章