附录: Python 教程 21 — 算法分析

本附录摘自 Allen B. Downey 的 Think Complexity 一书 , 也由 O’Reilly Media (2011)出版。 当你读完本书后,也许你可以接着读读那本书。

算法分析 (Analysis of algorithms) 是计算机科学的一个分支, 着重研究算法的性能, 特别是它们的运行时间和资源开销。见 http://en.wikipedia.org/wiki/Analysis_of_algorithms 。

算法分析的实际目的是预测不同算法的性能,用于指导设计决策。

2008年美国总统大选期间,当候选人奥巴马(Barack Obama)访问Google时, 他被要求进行即时分析。首席执行官 Eric Schmidt 开玩笑地问他“对一百万个32位整数排序的最有效的方法”。 显然有人暗中通知了奥巴马,因为他很快回答,“我认为不应该采用冒泡排序法”。 详见 http://www.youtube.com/watch?v=k4RRi_ntQc8 。

是真的:冒泡排序概念上很简单,但是对于大数据集来说速度非常慢。Schmidt所提问题的答案可能是 “基数排序 (http://en.wikipedia.org/wiki/Radix_sort)” [1]

算法分析的目的是在不同算法间进行有意义的比较, 但是有一些问题:

  • 算法的相对性能依赖于硬件的特性,因此一个算法可能在机器A上比较快, 另一个算法则在机器B上比较快。 对此问题一般的解决办法是指定一个 机器模型 (machine model) 并且分析一个算法在一个给定模型下所需的步骤或运算的数目。
  • 相对性能可能依赖于数据集的细节。 例如, 如果数据已经部分排好序, 一些排序算法可能更快; 此时其它算法运行的比较慢。 避免该问题的一般方法是分析 最坏情况。 有时分析平均情况性能也可, 但那通常更难,而且可能不容易弄清该对哪些数据集合进行平均。
  • 相对性能也依赖于问题的规模。一个对于小列表很快的排序算法可能对于长列表很慢。 此问题通常的解决方法是将运行时间(或者运算的次数)表示成问题规模的函数, 并且根据各自随着问题规模的增长而增加的速度,将函数分成不同的类别。

此类比较的好处是有助于对算法进行简单的分类。 例如,如果我知道算法A的运行时间与输入的规模 nn 成正比, 算法 B 与 n2n2 成正比,那么我可以认为 A 比 B 快,至少对于很大的 nn 值来说。

这类分析也有一些问题,我们后面会提到。

1.增长量级 #

假设你已经分析了两个算法,并能用输入计算量的规模表示它们的运行时间: 若算法 A 用 100n+1100n+1 步解决一个规模为 nn 的问题;而算法 B 用 n2+n+1n2+n+1 步。

下表列出了这些算法对于不同问题规模的运行时间:

InputRun time ofRun time of
sizeAlgorithm AAlgorithm B
101 001111
10010 00110 101
1 000100 0011 001 001
10 0001 000 001>1010>1010

当 n=10n=10 时,算法 A 看上去很糟糕,它用了 10 倍于算法 B 所需的时间。 但当 n=100n=100 时 ,它们性能几乎相同, 而 nn 取更大值时,算法 A 要好得多。

根本原因是对于较大的 nn 值,任何包含 n2n2 项的函数都比首项为 nn 的函数增长要快。 首项 (leading term) 是指具有最高指数的项。

对于算法A,首项有一个较大的系数 100,这是为什么对于小 nn ,B比A好。但是不考虑该系数,总有一些 nn 值使得 an2>bnan2>bn,aa 和 bb 可取任意值。

同样推论也适用于非首项。 即使算法 A 的运行时间为 n+1000000n+1000000 ,对于足够大的 nn ,它仍然比算法 B 好。

一般来讲,我们认为具备较小首项的算法对于规模大的问题是一个好算法,但是对于规模小的问题,可能存在有一个 交叉点 (crossover point),在此规模以下,另一个算法更好。 交叉点的位置取决于算法的细节、输入以及硬件,因此在进行算法分析时它通常被忽略。 但是这不意味着你可以忘记它。

如果两个算法有相同的首项,很难说哪个更好;答案还是取决于细节。 所以对于算法分析来说,具有相同首项的函数被认为是相当的,即使它们具有不同的系数。

增长量级(order of growth)是一个函数集合,集合中函数的增长行为被认为是相当的。 例如2n2n、100n100n和n+1n+1属于相同的增长量级,可用 大O符号(Big-Oh notation) 写成O(n)O(n), 而且常被称作 线性级 (linear),因为集合中的每个函数随着nn线性增长。

首项为 n2n2 的函数属于 O(n2)O(n2);它们被称为 二次方级 (quadratic)。

下表列出了算法分析中最通常的一些增长量级,按照运行效率从高到低排列 [2]

Order of GrowthName 
O(1)O(1)constant 
O(logbn)O(logb⁡n)logarithmic 
O(n)O(n)linear 
O(nlogbn)O(nlogb⁡n)linearithmic 
O(n2)O(n2)quadratic 
O(n3)O(n3)cubic 
O(cn)O(cn)exponential 

对于对数级,对数的基数并不影响增长量级。 改变基数等价于乘以一个常数,其不改变增长量级。相应的,所有的指数级数都属于相同的增长量级,而无需考虑指数的基数大小。指数函数增长量级增长的非常快,因此指数级算法只用于小规模问题。

习题21-1 #

访问 http://en.wikipedia.org/wiki/Big_O_notation ,阅读维基百科关于大O符号的介绍,并回答以下问题:

  1. n3+n2n3+n2的增长量级是多少?1000000n3+n21000000n3+n2 和 n3+1000000n2n3+1000000n2 的增长量级又是多少?
  2. (n2+n)⋅(n+1)(n2+n)⋅(n+1)的增长量级是多少?在开始计算之前,记住你只需要考虑首项即可。
  3. 如果 ff 的增长量级为 O(g)O(g) ,那么对于未指定的函数 gg ,我们可以如何描述 af+baf+b ?
  4. 如果 f1f1 和 f2f2 的增长量级为 O(g)O(g),那么 f1+f2f1+f2 的增长量级又是多少?
  5. 如果 f1f1 的增长量级为 O(g)O(g) ,f2f2 的增长量级为 O(h)O(h),那么 f1+f2f1+f2 的增长量级是多少?
  6. 如果 f1f1 的增长量级为 O(g)O(g) ,f2f2 的增长量级为 O(h)O(h),那么 f1⋅f2f1⋅f2 的增长量级是多少?

关注性能的程序员经常发现这种分析很难忍受。他们的观点有一定道理:有时系数和非首项会产生巨大的影响。 有时,硬件的细节、编程语言以及输入的特性会造成很大的影响。对于小问题,渐近的行为没有什么影响。

但是,如果你牢记这些注意事项,算法分析就是一个有用的工具。 至少对于大问题,“更好的” 算法通常更好,并且有时要好的多。 相同增长量级的两个算法之间的不同通常是一个常数因子,但是一个好算法和一个坏算法之间的不同是无限的!

2.Python基本运算操作分析 #

在 Python 中,大部分算术运算的开销是常数级的;乘法会比加减法用更长的时间,除法更长, 但是这些运算时间不依赖被运算数的数量级。非常大的整数却是个例外;在这种情况下,运行时间随着位数的增加而增加。

索引操作 — 在序列或字典中读写元素 — 的增长量级也是常数级的,和数据结构的大小无关。

一个遍历序列或字典的 for 循环通常是线性的,只要循环体内的运算是常数时间。 例如,累加一个列表的元素是线性的:

total = 0
for x in t:
    total += x

内建函数 sum 也是线性的,因为它做的是相同的事情,但是它要更快一些,因为它是一个更有效的实现;从算法分析角度讲,它具有更小的首项系数。

根据经验,如果循环体内的增长量级是 O(na)O(na),则整个循环的增长量级是O(na+1)O(na+1)。如果这个循环在执行一定数目循环后退出则是例外。 无论 nn 取值多少,如果循环仅执行 kk 次, 整个循环的增长量级是O(na)O(na),即便 kk 值比较大。

乘上 kk 并不会改变增长量级,除法也是。 因此,如果循环体的增长量级是 O(na)O(na),而且循环执行 n/kn/k 次,那么整个循环的增长量级就是 O(na+1)O(na+1) , 即使 kk 值很大。

大部分字符串和元组运算是线性的,除了索引和 len ,它们是常数时间。 内建函数 min 和 max 是线性的。切片运算与输出的长度成正比,但是和输入的大小无关。

字符串拼接是线性的;它的运算时间取决于运算对象的总长度。

所有字符串方法都是线性的,但是如果字符串的长度受限于一个常数 — 例如,在单个字符上的运算 — 它们被认为是常数时间。字符串方法 join 也是线性的;它的运算时间取决于字符串的总长度。

大部分的列表方法是线性的,但是有一些例外:

  • 平均来讲,在列表结尾增加一个元素是常数时间。 当它超出了所占用空间时,它偶尔被拷贝到一个更大的地方,但是对于 nn 个运算的整体时间仍为 O(n)O(n) , 所以我每个运算的平均时间是 O(1)O(1) 。
  • 从一个列表结尾删除一个元素是常数时间。
  • 排序是 O(nlogn)O(nlog⁡n) 。

大部分的字典运算和方法是常数时间,但有些例外:

  • update 的运行时间与作为形参被传递的字典(不是被更新的字典)的大小成正比。
  • keysvalues 和 items 是常数时间,因为它们返回迭代器。 但是如果你对迭代器进行循环,循环将是线性的。

字典的性能是计算机科学的一个小奇迹之一。在哈希表一节中,我们将介绍它们是如何工作的。

习题21-2 #

访问 http://en.wikipedia.org/wiki/Sorting_algorithm ,阅读维基百科上对排序算法的介绍,并回答下面的问题:

  1. 什么是“比较排序”?比较排序在最差情况下的最好增长量级是多少?别的排序算法在最差情况下的最优增长量级又是多少?
  2. 冒泡排序法的增长量级是多少?为什么奥巴马认为是“不应采用的方法”
  3. 基数排序(radix sort)的增长量级是多少?我们使用它之前需要具备的前提条件有哪些?
  4. 排序算法的稳定性是指什么?为什么它在实际操作中很重要?
  5. 最差的排序算法是哪一个(有名称的)?
  6. C 语言使用哪种排序算法?Python使用哪种排序算法?这些算法稳定吗?你可能需要谷歌一下,才能找到这些答案。
  7. 大多数非比较算法是线性的,因此为什 Python 使用一个 增长量级为 O(nlogn)O(nlog⁡n) 的比较排序?

3.搜索算法分析 #

搜索 (search)算法,接受一个集合以及一个目标项,并判断该目标项是否在集合中,通常返回目标的索引值。

最简单的搜素算法是“线性搜索”,其按顺序遍历集合中的项,如果找到目标则停止。 最坏的情况下, 它不得不遍历全部集合,所以运行时间是线性的。

序列的 in 操作符使用线性搜索;字符串方法 find 和 count 也使用线性搜索。

如果元素在序列中是排序好的,你可以用 二分搜素 (bisection search) ,它的增长量级是 O(logn)O(log⁡n) 。 二分搜索和你在字典中查找一个单词的算法类似(这里是指真正的字典,不是数据结构)。 你不会从头开始并按顺序检查每个项,而是从中间的项开始并检查你要查找的单词在前面还是后面。 如果它出现在前面,那么你搜索序列的前半部分。否则你搜索后一半。如论如何,你将剩余的项数分为一半。

如果序列有 1,000,000 项,它将花 20 步找到该单词或判断出其不在序列中。因此它比线性搜索快大概 50,000 倍。

二分搜索比线性搜索快很多,但是它要求已排序的序列,因此使用时需要做额外的工作。

另一个检索速度更快的数据结构被称为 哈希表 (hashtable) — 它可以在常数时间内检索出结果 — 并且不依赖于序列是否已排序。 Python 中的字典就通过哈希表技术实现的,因此大多数的字典操作,包括 in 操作符,只花费常数时间就可完成。

4.哈希表 #

为了解释哈希表是如何工作以及为什么它的性能如此优秀, 我们从实现一个简单的映射(map)开始并逐步改进它,直到其成为一个哈希表。

我们使用 Python 来演示这些实现,但在现实生活中,你用不着用 Python 写这样的代码;你只需用内建的字典对象就可以了!因此在接下来的内容中,你就当字典对象并不存在,你希望自己实现一个将键映射到值的数据结构。你必须实现的操作包括:

add(k, v):增加一个新的项,其从键 k 映射到值 v 。 如果使用 Python 的字典d,该运算被写作 d[k] = v

get(k):查找并返回相应键的值。 如果使用 Python 的字典d,该运算被写作 d[k] 或 d.get(k) 。

现在,假设每个键只出现一次。该接口最简单的实现是使用一个元组列表,其中每个元组是一个键-值对。

class LinearMap:

    def __init__(self):
        self.items = []

    def add(self, k, v):
        self.items.append((k, v))

    def get(self, k):
        for key, val in self.items:
            if key == k:
                return val
        raise KeyError

add 向项列表追加一个键—值元组,其增长量级为常数时间。

get 使用 for 循环搜索该列表:如果它找到目标键,则返回相应的值;否则触发一个 KeyError。因此 get 是线性的。

另一个方案是保持列表按键排序。那么,get 可以使用二分搜索,其增长量级为 O(logn)O(log⁡n) 。 但是在列表中间插入一个新的项是线性的,因此这可能不是最好的选择。 有其它的数据结构能在对数级时间内实现 add 和 get ,但是这仍然不如常数时间好,那么我们继续。

另一种改良 LinearMap 的方法是将键-值对列表分成小列表。 下面是一个被称作 BetterMap 的实现,它是 100 个 LinearMap 组成的列表。 正如一会儿我们将看到的,get 的增长量级仍然是线性的, 但是 BetterMap 是迈向哈希表的一步。

class BetterMap:

    def __init__(self, n=100):
        self.maps = []
        for i in range(n):
            self.maps.append(LinearMap())

    def find_map(self, k):
        index = hash(k) % len(self.maps)
        return self.maps[index]

    def add(self, k, v):
        m = self.find_map(k)
        m.add(k, v)

    def get(self, k):
        m = self.find_map(k)
        return m.get(k)

__init__会生成一个由 n 个 LinearMap 组成的列表。

add和 get 使用 find_map 查找往哪一个列表中添加新项,或者对哪个列表进行检索。

find_map 使用了内建函数 hash,其接受几乎任何 Python 对象并返回一个整数。 这一实现的一个限制是它仅适用于可哈希的键。像列表和字典等可变类型是不能哈希的。

被认为是相等的可哈希对象返回相同的哈希值,但是反之不是必然成立:两个具备不同值的对象能够返回相同的哈希值。

find_map使用求余运算符将哈希值包在 0 到 len(self.maps) 之间, 因此结果是该列表的合法索引值。当然,这意味着许多不同的哈希值将被包成相同的索引值。 但是如果哈希函数散布相当均匀(这是哈希函数被设计的初衷), 那么我们预计每个 LinearMap 会有 n/100n/100 项。

由于 LinearMap.get 的运行时间与项数成正比,那么我们预计 BetterMap 比 LinearMap 快100倍。 增长量级仍然是线性的,但是首项系数变小了。这样很好,但是仍然不如哈希表好。

下面是使哈希表变快的关键:如果你能保证 LinearMap 的最大长度是有上限的,则 LinearMap.get 的增长量级是常数时间。你只需要跟踪项数并且当每个 LinearMap 的项数超过阈值时,通过增加更多的 LinearMap 调整哈希表的大小。

以下是哈希表的一个实现:

class HashMap:

    def __init__(self):
        self.maps = BetterMap(2)
        self.num = 0

    def get(self, k):
        return self.maps.get(k)

    def add(self, k, v):
        if self.num == len(self.maps.maps):
            self.resize()

        self.maps.add(k, v)
        self.num += 1

    def resize(self):
        new_maps = BetterMap(self.num * 2)

        for m in self.maps.maps:
            for k, v in m.items:
                new_maps.add(k, v)

        self.maps = new_maps

每个 HashMap 包含一个 BetterMap__init__ 开始仅有两个 LinearMap ,并且初始化 num,用于跟踪项的数量。

get仅仅用来调度 BetterMap。真正的操作发生于 add 内,其检查项的数量以及 BetterMap 的大小: 如果它们相同,每个 LinearMap 的平均项数为 1,因此它调用 resize

resize 生成一个新的 BetterMap,是之前那个的两倍大,然后将像从旧表“重新哈希”至到新的表。

重新哈希是必要的,因为改变 LinearMap 的数目也改变了 find_map 中求余运算的分母。 这意味着一些被包进相同的 LinearMap 的对象将被分离(这正是我们希望的,对吧?)。

重新哈希是线性的,因此 resize 是线性的,这可能看起来很糟糕,因为我保证 add 会是常数时间。 但是记住,我们不必每次都调整,因此 add 通常是常数时间,只是偶尔是线性的。 运行 add nn 次的整体操作量与 nn 成正比,因此 add 的平均运行时间是常数时间!

为了弄清这是如何工作的,考虑以一个空的 HashTable 开始并增加一系列项。 我们以两个 LinearMap 开始,因此前两个 add 操作很快(不需要调整大小)。 我们假设它们每个操作花费一个工作单元。下一个 add 需要进行一次大小调整, 因此我们必须重新哈希前两项(我们将其算成两个额外的工作单元),然后增加第3项(又一个工作单元)。 增加下一项的花费一个单元,所以目前为止添加四个项共需要 6 个单元。

下一个 add 花费 5 个单元,但是之后的3个操作每个只花费 1 个单元,所以前八个 add 总共需要 14 个单元。

下一个 add 花费 9 个单元,但是之后在下一次调整大小之前,可以再增加七个, 所以前 16 个 add 总共需要 30 个单元。

进行 32 次 add 之后,总共花费了 62 个单元,我希望你开始看到规律。 nn次 add 后,其中 nn 是 2 的倍数,总花费是 2n−22n−2 个单元, 所以平均每个 add 操作只花费了少于 2 个单元。当 nn 是 2 的倍数时,那是最好的情况。 对于其它的 nn 值,平均花费稍高一点,但是那并不重要。重要的是其增长量级为 O(1)O(1) 。

图21-1:哈希表中 add 操作的成本形象地说明了其工作原理。每个区块代表一个工作单元。 每列显示每个 add 所需的单元,按从左到右的顺序排列:前两个 add 花费 1 个单元,第三个花费 3 个单元,等等。

哈希表中 ``add`` 操作的成本

图21-1:哈希表中 add 操作的成本

重新哈希的额外工作,表现为一系列不断增高的高塔,各自之间的距离越来越大。 现在,如果你打翻这些塔,将大小调整的代价均摊到所有的 add 上,你会从图上看到 nn 次 add 的整个花费是 2n−22n−2 。

该算法一个重要的特征是,当我们调整 HashTable 的大小时,它呈几何级增长;也就是说,我们用常数乘以表的大小。 如果你按算术级增加大小 —— 每次增加固定的数目 —— 每个 add 的平均时间是线性的。

你可以从下方折叠框获取到 HashMap 的实现代码,你不必使用它;如果你想要一个映射数据结构,只要使用 Python 中的字典即可。

"""This module contains a code example related to
Think Python, 2nd Edition
by Allen Downey
http://thinkpython2.com
Copyright 2015 Allen Downey
License: http://creativecommons.org/licenses/by/4.0/
"""

from __future__ import print_function, division


class LinearMap:
    """A simple implementation of a map using a list of tuples
    where each tuple is a key-value pair."""

    def __init__(self):
        self.items = []

    def add(self, k, v):
        """Adds a new item that maps from key (k) to value (v).
        Assumes that they keys are unique."""
        self.items.append((k, v))

    def get(self, k):
        """Looks up the key (k) and returns the corresponding value,
        or raises KeyError if the key is not found."""
        for key, val in self.items:
            if key == k:
                return val
        raise KeyError


class BetterMap:
    """A faster implementation of a map using a list of LinearMaps
    and the built-in function hash() to determine which LinearMap
    to put each key into."""

    def __init__(self, n=100):
        """Appends (n) LinearMaps onto (self)."""
        self.maps = []
        for i in range(n):
            self.maps.append(LinearMap())

    def find_map(self, k):
        """Finds the right LinearMap for key (k)."""
        index = hash(k) % len(self.maps)
        return self.maps[index]

    def add(self, k, v):
        """Adds a new item to the appropriate LinearMap for key (k)."""
        m = self.find_map(k)
        m.add(k, v)

    def get(self, k):
        """Finds the right LinearMap for key (k) and looks up (k) in it."""
        m = self.find_map(k)
        return m.get(k)


class HashMap:
    """An implementation of a hashtable using a BetterMap
    that grows so that the number of items never exceeds the number
    of LinearMaps.
    The amortized cost of add should be O(1) provided that the
    implementation of sum in resize is linear."""

    def __init__(self):
        """Starts with 2 LinearMaps and 0 items."""
        self.maps = BetterMap(2)
        self.num = 0

    def get(self, k):
        """Looks up the key (k) and returns the corresponding value,
        or raises KeyError if the key is not found."""
        return self.maps.get(k)

    def add(self, k, v):
        """Resize the map if necessary and adds the new item."""
        if self.num == len(self.maps.maps):
            self.resize()

        self.maps.add(k, v)
        self.num += 1

    def resize(self):
        """Makes a new map, twice as big, and rehashes the items."""
        new_map = BetterMap(self.num * 2)

        for m in self.maps.maps:
            for k, v in m.items:
                new_map.add(k, v)

        self.maps = new_map


def main():
    import string

    m = HashMap()
    s = string.ascii_lowercase

    for k, v in enumerate(s):
        m.add(k, v)

    for k in range(len(s)):
        print(k, m.get(k))


if __name__ == '__main__':
    main()

5.术语表 #

算法分析(algorithm analysis):比较不同算法间运行时间和资源占用的分析方法。

机器模型(machine model):用于描述算法(性能)的简化计算机表示。

最坏情况(worst case):使得给定算法运行时间最长(或占用做多资源)的输入。首项(leading term):在多项式中,拥有指数最高的项。

交叉点(crossover point):使得两个算法需要相同运行时间或资源开销的问题大小。

增长量级(order of growth):一个函数集合,从算法分析的角度来看其中的函数的增长视为等价的。例如,线性递增的所有的函数都属于同一个增长量级。

大O记法(Big-Oh notation):代表一个增长量级的记法;例如,O(n)O(n) 代表线性增长的函数集合。

线性级(linear):算法的运行时间和所求解问题的规模成正比,至少对大的问题规模如此。

二次方级(quadratic)算法的运行时间和求解问题的规模的二次方(n2n2)成正比,nn用于描述问题的规模。

搜索(search):在一个集合(如列表或字典)中定位某个元素位置的问题,或者判断其不在集合中。

哈希表(hashtable):代表键-值对集合的一种数据结构,执行搜索操作只需常数时间。

贡献者 #

  1. 翻译:@SeikaScarlet
  2. 校对:@bingjin
  3. 参考:@carfly

推荐阅读 #

推荐一个非常优惠的QMT开户渠道 #
很多喜欢玩量化的同学都想要找一个靠谱且低费率能做自动化的券商。 我之前也推荐过一个渠道,但是因为他们公司内部问题,之前的那个开户渠道也遗憾下线了,今天给大家找到了一个新的渠道,费率如下: 有需要的可以直接联系我的微信: 83493903 (

有任何问题,可以在公众号后台回复:加群,回答相应验证信息,进入互助群询问。


​Python实用宝典 (pythondict.com)
关注公众号:Python实用宝典
更多精彩文章等你阅读

Powered by BetterDocs

评论(0)

提示:请文明发言

您的电子邮箱地址不会被公开。 必填项已用 * 标注