资讯专栏INFORMATION COLUMN

Python 代码优化技巧(一)

Yumenokanata / 2407人阅读

摘要:代码优化分享最近看到的关于代码优化的一些技巧。运行结果合并字符串合并字符串比循环使用来合并要快。语句的开销语句有时候为了限制它们的作用范围或者节省初始化时间,被卸载函数内部,虽然的解释器不会重复同一个模块不会出错,但重复导入会影响部分性能。

代码优化Part1

分享最近看到的关于代码优化的一些技巧。

if 判断的短路特性

对于and,应该把满足条件少的放在前面,这样当对于大量判断时, 满足条件少的情况直接回导致其后其他表达式不会计算从而节约时间(因为 False and True 还是 False)

import timeit

s1 = """
a = range(2000)
[i for i in a if i % 2 ==0 and i > 1900]
"""

s2 = """
a = range(2000)
[i for i in a if  i > 1900 and i % 2 ==0]
"""

print timeit.timeit(stmt=s1, number=1000)
print timeit.timeit(stmt=s2, number=1000)

运行结果如下:

➜  python test6.py
0.248532056808
0.195827960968

# 可以看到s2 表达式计算更快, 因为大部分情况都不满足 i>1900, 所以这些情况下, i % 2 == 0 也没有计算,从而节约了时间

同理对于or,把满足条件多的放在前面。

import timeit

s1 = """
a = range(2000)
[i for i in a if 10 < i <20 or 1000 < i < 2000]
"""

s2 = """
a = range(2000)
[i for i in a if 1000 < i < 2000 or 10 < i <20]
"""

print timeit.timeit(stmt=s1, number=1000)
print timeit.timeit(stmt=s2, number=1000)

运行结果:

0.253124952316
0.202992200851
join 合并字符串

join 合并字符串比循环使用 + 来合并要快。

import timeit

s1 = """
a = [str(x) for x in range(2000)]
s = ""
for i in a:
    s += i
"""

s2 = """
a = [str(x) for x in range(2000)]
s = "".join(a)
"""

print timeit.timeit(stmt=s1, number=1000)
print timeit.timeit(stmt=s2, number=1000)

运行结果如下:

python test6.py

0.558945894241
0.422435998917
while 1 和 while True

在python2.x里, True 和 False 不是保留的关键字,是一个全局变量,这意味着你可以这样

>>> True = 0
>>> True
0
>>> if not True:
...   print "1"
...
1

所以下面这两种情况:

import timeit

s1 = """
n = 1000000
while 1:
    n -= 1
    if n <= 0: break
"""

s2 = """
n = 1000000
while True:
    n -= 1
    if n <= 0: break
"""

print timeit.timeit(stmt=s1, number=100)
print timeit.timeit(stmt=s2, number=100)

运行结果如下:

➜  python test6.py
5.18007302284
6.84624099731

因为每次判断 while True 的时候, 先要去找到True的值。

在python3.x里, True 变成了关键字参数,所以上述两种情况就一样了。

cProfile, cStringIO 和 cPickle

使用C语言的版本写的扩展要比原生的要快。cPickle vs pickle 如下:

import timeit

s1 = """
import cPickle
import pickle
n = range(10000)
cPickle.dumps(n)
"""

s2 = """
import cPickle
import pickle
n = range(10000)
pickle.dumps(n)
"""

print timeit.timeit(stmt=s1, number=100)
print timeit.timeit(stmt=s2, number=100)

运行结果如下:

➜ python test6.py
0.182178974152
1.70917797089
合理使用生成器 区别

使用()得到的是一个generator对象,所需要的内存空间与列表的大小无关,所以效率会高一些。

import timeit

s1 = """
[i for i in range (100000)]
"""

s2 = """
(i for i in range(100000))
"""

print timeit.timeit(stmt=s1, number=1000)
print timeit.timeit(stmt=s2, number=1000)

结果:

➜  python test6.py
5.44327497482
0.923446893692

但是对于需要循环遍历的情况:使用迭代器效率反而不高,如下:

import timeit

s1 = """
ls = range(1000000)
def yield_func(ls):
    for i in ls:
        yield i+1
for x in yield_func(ls):
    pass
"""

s2 = """
ls = range(1000000)
def not_yield_func(ls):
    return [i+1 for i in ls]
for x in not_yield_func(ls):
    pass
"""

print timeit.timeit(stmt=s1, number=10)
print timeit.timeit(stmt=s2, number=10)

结果如下:

➜  python test6.py
1.03186702728
1.01472687721

所以使用生成器是一个权衡的结果,对于内存、速度综合考虑的结果。

xrange

在python2.x里xrange 是纯C实现的生成器,相对于range来说,它不会一次性计算出所有值在内存中。但它的限制是只能和整型一起工作:你不能使用long或者float。

import 语句的开销

import语句有时候为了限制它们的作用范围或者节省初始化时间,被卸载函数内部,虽然python的解释器不会重复import同一个模块不会出错,但重复导入会影响部分性能。
有时候为了实现懒加载(即使用的时候再加载一个开销很大的模块),可以这么做:

email = None

def parse_email():
    global email
    if email is None:
        import email
    ...

# 这样一来email模块仅会被引入一次,在parse_email()被第一次调用的时候。
参考资源:

https://wiki.python.org/moin/...

http://blog.csdn.net/zhoudaxi...

https://www.ibm.com/developer...

NEXT ctypes

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/44282.html

相关文章

  • 6个Python性能优化技巧

    摘要:的批评者声称性能低效执行缓慢,但实际上并非如此尝试以下个小技巧,可以加快应用程序。使用或者机器语言扩展包来执行关键任务能极大改善性能。但是如果你把求值的结果放入一个变量中,就能提高程序的性能。 Python是一门非常酷的语言,因为很少的Python代码可以在短时间内做很多事情,并且,Python很容易就能支持多任务和多重处理。 Python的批评者声称Python性能低效、执行缓慢,...

    RobinQu 评论0 收藏0
  • ❤️导图整理大厂面试高频数组8: 移除元素的双指针优化, 力扣27❤️

    此专栏文章是对力扣上算法题目各种方法的总结和归纳, 整理出最重要的思路和知识重点并以思维导图形式呈现, 当然也会加上我对导图的详解. 目的是为了更方便快捷的记忆和回忆算法重点(不用每次都重复看题解), 毕竟算法不是做了一遍就能完全记住的. 所以本文适合已经知道解题思路和方法, 想进一步加强理解和记忆的朋友, 并不适合第一次接触此题的朋友(可以根据题号先去力扣看看官方题解, 然后再看本文内容). 关...

    zhangyucha0 评论0 收藏0
  • 利用 NGINX 最大化 Python 性能,第二部分:负载均衡和监控

    摘要:现有的服务器和应用程序服务器相结合并在一个冒泡中运行,无法直接接触网络流量,由反向代理服务器提出填鸭式请求。赋予高可用性让你的反向代理服务器镜像到在线备份,同时拥有备用的应用程序服务器,让你的站点高度可用。 【编者按】本文主要介绍 NGINX 的主要功能以及如何通过 Nginx 优化 Python 应用性能。本文系国内 ITOM 管理平台 OneAPM 编译呈现。 本文上一篇系: 利用...

    zhangrxiang 评论0 收藏0
  • 利用 NGINX 最大化 Python 性能,第二部分:负载均衡和监控

    摘要:现有的服务器和应用程序服务器相结合并在一个冒泡中运行,无法直接接触网络流量,由反向代理服务器提出填鸭式请求。赋予高可用性让你的反向代理服务器镜像到在线备份,同时拥有备用的应用程序服务器,让你的站点高度可用。 【编者按】本文主要介绍 NGINX 的主要功能以及如何通过 Nginx 优化 Python 应用性能。本文系国内 ITOM 管理平台 OneAPM 编译呈现。 本文上一篇系: 利用...

    Snailclimb 评论0 收藏0
  • 提高 Python 运行效率的六个窍门

    摘要:使用或机器语言的外部功能包处理时间敏感任务,可以有效提高应用的运行效率。关键在于,优化循环方案是提高应用程序运行速度的上佳选择。此外,关于交叉编译是否为提高运行效率的最佳方法还存在讨论的空间。在使用交叉编译器时,记得确保它支持你所用的版本。 Python 是一门优秀的语言,它能让你在短时间内通过极少量代码就能完成许多操作。不仅如此,它还轻松支持多任务处理,比如多进程。 不喜欢 Pyt...

    huhud 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<