Python 搜索、排序、复杂度分析

算法是计算机程序的一个基本的构建模块。评价算法质量的最基本的标准是正确性,另一个重要的标准是运行时间性能。当在一台真实、资源有限的计算机上运行一个算法的时候,经济性的考虑就有了用武之地,这样一个过程会消耗两种资源:处理时间和空间或内存。

统计指令

用于估算算法性能的另一种技术是统计对不同的问题规模所要执行的指令的数目。不管算法在什么平台上运行,这个统计数字对于算法所要执行的抽象的工作量给出了一个很好的预计。然而要记住,当统计指令的时候,所统计的是用于编写算法的较高级代码中的指令数目,而不是执行机器语言的程序中的指令数目。

当以这种方式分析算法的时候,你需要区分两种指令:

  1. 不管问题规模多大,都执行相同次数的指令
  2. 根据问题的规模,执行不同次数的指令

现在,我们先忽略第一类指令,因为它们的影响并不显著,第二类指令通常在循环或递归函数中可以找到。

复杂度分析

复杂度的阶

大 O 表示法

一个算法几乎不太可能只是严格执行等于 n、n2 或 kn 的那么多次的操作,算法通常在循环体内、循环体之前或之后还要执行其他的工作。例如,我们说算法执行 2n + 3 或 2n2 操作,可能会更加精确。

一个算法的总工作量,通常是多项式中的数项之和,当用多项式来表示工作量的时候,有一个项是主项,随着n 变得越来越大,主项也变得很大,以至于你可以忽略其他的项所表示的工作量。例如,在多项式 (1/2) n2 - (1/2) n 中,我们主要关注平方项(1/2) n2,实际上忽略掉线性项 (1/2) n,还可以删除掉系数 1/2,因为 (1/2) n2 和 n2 之间的差别不会随着 n 的增加而改变。这种类型的分析有时候叫做渐进分析(asymptotic analysis)。

搜索算法

搜索最小值

Python 的 min 函数返回列表中的最小的项。为了研究这个算法的复杂度,我们开发了一个替代的版本,它返回了最小项的索引。这个算法假设列表不为空,并且其中的项的顺序是任意的,该算法首先将列表中的第 1 个位置当作最小项,然后,向右搜索以找到一个更小的项,如果找到了,将最小项的位置重新设置为当前位置,当这个算法到达列表末尾的时候,它就返回最小项的位置。

class indexOfMin():def indexOfMin(self,lyst):"""Return the index of the minmum item."""minIndex = 0currentIndex = 1while currentIndex < len(lyst):if lyst[currentIndex] < lyst[minIndex]:minIndex = currentIndexcurrentIndex += 1return minIndexif __name__ == "__main__":a = indexOfMin()lyst = [3,5,7,1,9,10]print(a.indexOfMin(lyst))

对于大小为 n 的列表,该算法必须进行 n - 1 次比较,因此,算法的复杂度为 O(n)。

顺序搜索一个列表

Python 的 in 运算符作为 list 类中名为 contains 的一个方法而实现。该方法在列表(任意排列的项)中搜索一个特定的项(叫做目标项)。在这样的一个列表中搜索一个目标项的唯一的方法是,从第 1 个位置的项开始,将其与目标项进行比较,如果这两个项相等,该方法返回一个 True。否则,该方法移动到下一个位置并且将其项与目标项进行比较。如果该方法到达了最后一个位置,却仍然没有找到目标项,它就返回 False。这种搜索叫做顺序搜索(sequential search)或线性搜索(linear search)。一个更为有用的顺序搜索函数,应该返回它所找到的目标项的索引,或者如果没有找到目标项的话,返回 -1。

class Search():def sequentialSearch(self,target,lyst):"""Returns the position of the target item if found, or -1 otherwise."""        position = 0while position < len(lyst):if target == lyst[position]:return positionposition += 1return -1if __name__ == '__main__':a = Search()target = 3lyst = [2,4,5,1,3,7]print(a.sequentialSearch(target,lyst))

最好情况、最坏情况和平均情况的性能

有些算法的性能取决于所处数据的放置方式。顺序搜索算法在查找一个目标项的时候,在列表的开头处所做的工作比在列表的末尾所做的工作要少。对于这样的算法,我们可以确定其最好情况的性能、最坏情况的性能和平均情况的性能。通常一般考虑的是最坏情况的性能和平均情况的性能。

顺序搜索的分析要考虑如下3种情况:

  1. 在最坏情况下,目标项位于列表的末尾,或者根本就不在列表之中。那么,算法必须访问每一个项,并且对大小为 n 的列表要执行 n
    次迭代。因此,顺序搜索的最坏情况的复杂度为 O(n)。
  2. 在最好的情况下,算法只进行了 1 次迭代就在第 1 个位置找到目标项,复杂度为 O(1)。
  3. 要确定平均情况,把在每一个可能的位置找到目标项所需的迭代次数相加,并且总和除以 n。因此,算法执行了 (n+1) / 2 次迭代,对于很大的 n,常数因子 2 的作用并不大,因此,平均情况下的复杂度仍然为 O(n)。

显然,顺序搜索的最好情况的性能是很少见的,而平均情况和最坏情况的性能则基本相同。

有序列表的二叉搜索

对于那些没有按照特定的顺序排列的数据,顺序搜索是必要的。当搜索经过排序的数据的时候,可以使用二叉搜索(又称为二分搜索)。

现在来考虑 Python 实现二叉搜索的一个示例。首先,假设列表中的项都是按照升序排列的,搜索算法直接找到列表的中间位置,并且将该位置的项和目标项进行比较。如果它们是一致的,算法返回该位置。否则,如果目标项小于当前项,算法搜索列表中间位置以前的部分。反之,搜索中间以后的部分。

def binarySearch(target, lyst, profiler):"""Returns the position of the target item if found,or -1 otherwise."""left = 0right = len(lyst) - 1while left <= right:profiler.comparison()midpoint = (left + right) // 2if target == lyst[midpoint]:return midpointelif target < lyst[midpoint]:right = midpoint - 1else:left = midpoint + 1return -1

在最坏的情况下,循环要运行列表的大小除以 2 直到得到的商为 1 的次数,对于大小为 n 的列表,实际上执行了 n / 2 / 2 … / 2的连续除法,直到结果为 1。假设 k 是用 n 除以 2 的次数,要求解 k,让 n / (2k) = 1就行了,那么 n = 2k, k = log2 n,因此,二叉搜索的最坏情况的复杂度为 O(log2n)。

比较数据项

二叉搜索和搜索最小项,都是假设列表中的项是可以相互比较的。在 Python 中,这意味着这些项具有相同的类型,并且它们都识别比较运算符 ==、< 和 >。几个内建的 Python 类型的对象,例如数字、字符串和列表,都可以使用这些运算符来比较。

为了允许算法对一个新对象的类使用比较运算符 ==、< 和 >,程序员应该在该类中定义 eqlt 和__gt__ 方法。lt 方法的方法头如下所示:

def __lt__(self,other):

如果 self 小于 other,该方法返回 True,否则,它返回 False。比较对象的标准,取决于它们内部的结构,以及应该以何种方式对其排序。

例如,SavingAccount 对象可能包含 3 个数据字段,一个用于名称,一个用于 PIN,还有一个用余额。假设账户应该按照名称的字母顺序来排序,那么,需要对 lt 方法按照如下的方式来实现:

class SavingAccount(object):"""This class represents a saving account with the owner's name, PIN, and balance."""def __init__(self,name,pin,balance = 0.0):self._name = nameself._pin = pinself._balance = balancedef __lt__(self,other):return self._name < other._name

注意:lt 方法对两个账户对象的 _name 字段调用了 < 运算符(名称是字符串),并且字符串类型已经包含了一个 lt 方法。当对字符串应用 < 运算符的时候,Python 自动运行 lt 方法。就像是在调用 str 函数时运行 str 方法一样。

基本排序算法

这里介绍的几个算法很容易编写,但是效率不高,下一节介绍的算法都很难编写,但是更为高效(这是一种常见的取舍)。每个 Python 排序函数都是在整数的一个列表上进行操作的,并且都会使用一个 swap 函数来交换列表中的两项的位置。

swap 函数的代码如下:

def swap(lyst,i,j):"""Exchanges the items at position i and j."""temp = lyst[i]lyst[i] = lyst[j]lyst[j] = temp

选择排序

最简单的策略就是搜索整个列表,找到最小项的位置。如果该位置不是列表的第 1 个位置,算法就会交换在这两个位置的项,然后,算法回到第 2 个位置并且重复这个过程,如果必要的话,将最小项和第 2 个位置的项进行交换。当算法到达整个过程的最后一个位置,列表就是排序好的了。这个算法叫做选择排序(selection sort)。

def selectionSort(lyst):i = 0while i < len(lyst) - 1:minIndex = 1j = i + 1while j < len(lyst):if lyst[j] < lyst[minIndex]:minIndex = jj += 1if minIndex != i:swap(lyst,minIndex,i)i += 1

这个函数包含了一个嵌套的循环。总的比较次数为 (1/2) (n2) - (1/2) n,对于较大的 n,我们可以选择影响很大的项,而忽略常数项。因此,选择排序在各种情况下的复杂度为 O(n2)。

冒泡排序

另一种排序方法相对容易理解和编码,它叫做冒泡排序(bubble sort)。其策略是从列表的开头处开始,并且比较一对数据项,直到移动到列表的末尾,每当成对的两项之间的顺序不正确的时候,算法就交换其位置。这个过程的效果就是将最大的项以冒泡的方法排到列表的末尾。然后,算法从列表开头到倒数第 2 个列表项重复这一个过程。依次类推,直到该算法从列表的最后一项开始执行。此时,列表是已经排序好的。

def bubbleSort(lyst):n = len(lyst)while n > 1:i = 1while i < n:if lyst[i] < lyst[i-1]:swap(lyst,i,i-1)i += 1n -= 1

和选择排序一样,冒泡排序也有一个嵌套的循环,对于大小为n的列表,内部的循环执行 (1/2) (n2) - (1/2) n次,因此,冒泡排序的复杂度是 O(n2)。

插入排序

  1. 在第 i 轮通过列表的时候(其中i的范围从 1 到 n-1),第 i 个项应该插入到列表的前 i 个项之中的正确位置。
  2. 在第 i 轮之后,前i个项应该是排好序的。
  3. 这个过程类似于人们排列手中的扑克牌的顺序,也就是说,如果你按照顺序放好了前 i - 1 张牌,抓取了第 i
    张牌,并且将其与手中的这些牌进行比较,直到找到其合适的位置。
  4. 插入排序包括两个循环。外围的循环遍历从 1 到 n - 1 的位置。对于这个循环中的每一个位置 i,我们都保存该项并且从位置 i - 1 开始内部循环。
def insertSort(lyst):i = 1while i < len(lyst):itemInsert = lyst[i]j = i - 1while j >= 1:if itemToInsert < lyst[j]:lyst[j + 1] = lyst[j]j -= 1else:breaklyst[j + 1] = itemToInserti += 1

插入排序的最坏情况下的复杂度是 O(n2)。列表中排好序的项越多,插入排序的效果越好。在最好情况下,列表本身是有序的,那么插入排序的复杂度是线性的。然而,在平均情况下,插入排序的复杂度仍然是二次方阶的。

更快的排序

到目前为止,我们介绍的 3 种排序算法都拥有 O(n2) 的运行时间。然而,我们可以利用一些复杂度为 O(n log n) 的更好的算法。这些更好的算法都采用了分而治之(divide-and-conquer)的策略,也就是说,每个算法都找到了一种方法,将列表分解为更小的子列表,随后,这些子列表再递归的排序。理想情况下,如果这些子列表的复杂度为 log(n),而重新排列每一个子列表中的数据所需的工作量为 n,那么,这样的排序算法总的复杂度就是 O(n log n)。

快速排序

快速排序所使用的策略可以概括如下:

  1. 首先,从列表的中点位置选取一项。这一项叫作基准点。
  2. 将列表中的项分区,以便小于基准点的所有项都移动到基准点的左边,而剩下的项都移动到基准点的右边。根据相关的实际项,基准点自身的最终位置也是变化的。但是,不管基准点最终位于何处,这个位置都是它在完全排序的列表中的最终位置。
  3. 分而治之。对于在基准点分割列表而形成的子列表,递归地重复应用该过程。一个子列表包含了基准点左边的所有的项(现在是较小的项),另一个子列表包含了基准点右边的所有的项(现在是较大的项)。
  4. 每次遇到小于 2 个项的一个子列表,就结束这个过程。

1、分割

从程序员的角度来看,该算法最复杂的部分就是对子列表中的项进行分割的操作。步骤如下:

  1. 将基准点和子列表中的最后一项交换。
  2. 在已知小于基准点的项和剩余的项之间建立一个边界。一开始,这个边界就放在第一项之前。
  3. 从子列表的第一项开始扫描整个子列表,每次遇到小于基准点的项,就将其与边界之后的第一项进行交换,并且边界向后移动。
  4. 将基准点和边界之后的第一项进行交换,从而完成这个过程。

例子:

2、快速排序的复杂度分析

在第 1 次分割操作中,从列表头部到其尾部扫描了所有的项。因此,这个操作过程的工作量和列表的长度 n 成正比。

在这次分割之后的工作量,和左边的子列表的长度加上右边的子列表的长度(加在一起是 n - 1)成正比。当再次分割这些子列表的时候,有了 4 个子列表,它们组合在一起的长度近似为 n,因此,组合的工作量还是和 n 成正比的。随着将列表分割为更多的子列表,总的工作量还是和 n 成正比。

然后我们需要确定对列表分割多少次。如果每一次新的子列表之间的分割线都尽可能地靠近当前子列表的中央,大概经过 log2n 步之后会得到一个单个的元素。因此,这个算法在最好的情况下的性能为 O(n log2n)。

对于最坏的情况,考虑一个列表已经排好序的情况。如果所选择的基准点元素是第 1 个元素,那么在第 1 次分割的时候,基准点的右边有 n - 1 个元素,在第 2 次分割的时候,基准点的右边有 n - 2 个元素,依次类推,因此,在最坏的情况下,快速排序算法的性能是 O(n2)。

如果将快速排序实现为一个递归算法,你的分析还必须考虑到调用栈所使用的内存。每一次递归调用都需要一个固定大小的内存用于栈,并且每一次分割之后有两次递归调用。因此,在最好的情况下,内存使用是O(log2 n),在最坏的情况下,内存使用是 O(n)。

3、快速排序的实现

快速排序使用递归算法更容易编码。

 def quicksort(lyst):quicksortHelper(lyst, 0, len(lyst) - 1)def quicksortHelper(lyst, left, right):if left < right:pivotLocation = partition(lyst, left, right)quicksortHelper(lyst, left, pivotLocation - 1)quicksortHelper(lyst, pivotLocation + 1, right)def partition(lyst, left, right):# Find the pivot and exchange it with the last itemmiddle = (left + right) // 2pivot = lyst[middle]lyst[middle] = lyst[right]lyst[right] = pivot# Set boundary point to first positionboundary = left# Move items less than pivot to the leftfor index in range(left, right):if lyst[index] < pivot:swap(lyst, index, boundary)boundary += 1# Exchange the pivot item and the boundary itemswap (lyst, right, boundary)return boundarydef swap(lyst, i, j):"""Exchanges the items at positions i and j."""# You could say lyst[i], lyst[j] = lyst[j], lyst[i]# but the following code shows what is really going ontemp = lyst[i]lyst[i] = lyst[j]lyst[j] = tempimport randomdef main(size = 20, sort = quicksort):lyst = []for count in range(size):lyst.append(random.randint(1, size + 1))print(lyst)sort(lyst)print(lyst)if __name__ == "__main__":main()

合并排序

另一种名为合并排序(merge sort,又称为归并排序)的算法利用了递归、分而治之的策略来突破 O(n2)的障碍。如下是该算法的一个非正式的概述:

  1. 计算一个列表的中间位置,并且递归地排序其左边和右边的子列表(分而治之)。
  2. 将两个排好序的子列表重新合并为单个的排好序的列表。
  3. 当子列表不再能够划分的时候,停止这个过程。

有 3 个 Python 函数在这个顶层的设计策略中协作:

  1. mergeSort——用户调用的函数。
  2. mergeSortHelper——一个辅助函数,它隐藏了递归调用所需要的额外参数。
  3. Merge——实现合并过程的一个函数。

1、实现合并过程

合并的过程使用了和列表相同大小的一个数组,这个数组名为 copyBuffer,为了避免每次调用 merge 的时候为 copyBuffer 分配和释放内存的开销,只在 mergeSort 中分配一次该缓冲区,并且在后续将其作为一个参数传递给 mergeSortHelper和merge,每次调用 mergeSortHelper 的时候,都需要知道它所操作的子列表的边界。这些边界通过另外的参数low和high来提供,如下是 mergeSort 的代码:

from arrays import Arraydef mergeSort(lyst):# lyst: list being sorted# copyBuffer: temporary space needed during mergecopyBuffer = Array(len(lyst))mergeSortHelper(lyst,copyBuffer,0,len(lyst)-1)

在检查到至少有两项的一个子列表已经传递给它之后,mergeSortHelper 函数计算了这个子列表的中点,递归地对中点以上和中点以下的部分进行排序,并且调用 merge 来合并结果。如下是 mergeSortHelper 的代码:

def mergeSortHelper(lyst,copyBuffer,low,high):# lyst: list being sorted# copyBuffer: temp space needed during merge# low,high : bounds of sublist# middle: midpoint of sublistif low < high:middle = (low+high)//2mergeSortHelper(lyst,copyBuffer,low,middle)mergeSortHelper(lyst,copyBuffer,middle+1,high)merge(lyst,copyBuffer,low,middle,high)

下图展示了在对拥有 8 项的一个列表开始递归调用 mergeSortHelper 的过程中所生成的子列表。注意,在这个例子中,子列表在每一个层级都是平均划分的,在第 k 层,有 2k 个子列表需要合并。如果最初列表的长度不是 2 的幂,那么,无法在每一个层级都做到完全平均的划分,并且最后的层级将不会拥有足够的子列表。


最后,下面是 merge 函数的代码:

def merge(lyst,copyBuffer,low,middle,high):# Initialize i1 and i2 to the first items in each sublisti1 = lowi2 = middle + 1# Interleave items from the sublists into the copyBuffer in such a way that order is maintained.for i in range(low,high+1):if i1 > middle:copyBuffer[i] = lyst[i2] # 列表1已经用完i2 += 1elif i2 > high:copyBuffer[i] = lyst[i1] # 列表2已经用完i1 += 1elif lyst[i1] < lyst[i2]:copyBuffer[i] = lyst[i1] # 将小的数放上去i1 += 1else:copyBuffer[i] = lyst[i2] # 将小的数放上去i2 += 1for i in range(low,high+1):lyst[i] = copyBuffer[i] # 排序完的copyBuffer返回给lyst

merge 函数将两个排好序的子列表合并到一个大的排好序的子列表中。第 1 个子列表在 low 和 middle 之间,第 2 个子列表在 middle + 1 和 high 之间,这个过程包含步骤:

  1. 将索引指针设置为每个子列表的第1项,这分别是 low 和 middle + 1 的位置。
  2. 从每个子列表的第1项开始,重复地比较各项。将较小的项从其子列表中复制到缓存中去,并且继续处理子列表中的下一项。重复这个过程,直到两个子列表中的所有项都已经复制过了。如果先到达了其中一个子列表的末尾,通过从另一个子列表复制剩余的项,从而结束这个过程。
  3. 将 copyBuffer 中 low 到 high 之间的部分,复制回 lyst 对应的位置。

2、合并排序的复杂度分析

合并排序的运行时间由两条 for 语句主导,其中每一条都循环 (high - low + 1)次,结果,该函数的运行时间是 O(high-low),在一个层的所有合并花费的时间是 O(n)。由于 mergeSortHelper 在每一层都是尽可能平均地分割子列表,层级数是 O(log n),并且在所有情况下,该函数的最大运行时间是 O(n log n)。
根据列表的大小,合并排序有两个空间需求,首先,在支持递归调用的调用栈上,需要 O(log n)的空间,其次,复制缓存需要使用 O(n) 的空间。

指数算法:递归式的 Fibonacci

递归实现

如果我们采用递归的 Fibonacci 函数来实现,调用的次数似乎比问题规模的平方增长的还要快,具体代码如下:

from counter import Counterdef fib(n, counter):"""Count the number of calls of the Fibonaccifunction."""counter.increment()if n < 3:return 1else:return fib(n - 1, counter) + fib(n - 2, counter)problemSize = 2
print("%12s%15s" % ("Problem Size", "Calls"))
for count in range(5):counter = Counter()# The start of the algorithmfib(problemSize, counter)# The end of the algorithmprint("%12d%15s" % (problemSize, counter))problemSize *= 2

counter函数如下:

class Counter(object):"""Models a counter."""# Class variableinstances = 0#Constructordef __init__(self):"""Sets up the counter."""Counter.instances += 1self.reset()# Mutator methodsdef reset(self):"""Sets the counter to 0."""self._value = 0def increment(self, amount = 1):"""Adds amount to the counter."""self._value += amountdef decrement(self, amount = 1):"""Subtracts amount from the counter."""self._value -= amount# Accessor methodsdef getValue(self):"""Returns the counter's value."""return self._valuedef __str__(self):"""Returns the string representation of the counter."""return str(self._value)def __eq__(self, other):"""Returns True if self equals otheror False otherwise."""if self is other: return Trueif type(self) != type(other): return Falsereturn self._value == other._value

结果如下:

Problem Size          Calls2              14              58             4116           197332        4356617

说明工作量的快速增长的另一种方式是显示该函数针对给定的问题规模的一个调用树,下图展示了当使用递归函数来计算第 6 个斐波那契数的时候所用到的调用。

注意:每个填满的层级上的调用综述,都是其上一个层级的调用总数的两倍。因此,完全平衡树的递归调用次数通常是 2(n+1) - 2,其中 n 是调用树的顶部或者根部的参数,这显然是一个指数级的 O(kn) 的算法。

指数算法通常只对较小的问题规模才切合实际。尽管递归的 Fibonacci 在设计上很优雅,但是和使用循环按照线性时间运行的较快版本相比,它还是差很多。

此外,使用相同参数重复调用的递归函数,例如 Fibonacci 函数,可以通过一种叫作记忆(memoization)的技术,来使得其更有效率,根据这个技术,程序维护一张记录了函数中所使用的每一个参数的值的表。在函数递归地计算一个给定参数的值之前,它会检查这张表,看看该参数是否已经有了一个值了。如果是的,就直接返回这个值。如果没有,继续计算过程,并且随后会将参数和值添加到这个表中。

Fibonacci函数转换为一个线性算法

这种算法可以将复杂度降低到线性时间阶。

class Counter(object):"""Tracks a count."""def __init__(self):self._number = 0def increment(self):self._number += 1def __str__(self):return str(self._number)def fib(n, counter):"""Count the number of iterations in the Fibonaccifunction."""sum = 1first = 1second = 1count = 3while count <= n:counter.increment()sum = first + secondfirst = secondsecond = sumcount += 1return sumproblemSize = 2
print("%12s%15s" % ("Problem Size", "Iterations"))
for count in range(5):counter = Counter()# The start of the algorithmfib(problemSize, counter)# The end of the algorithmprint("%12d%15s" % (problemSize, counter))problemSize *= 2

结果如下:

Problem Size     Iterations2              04              28              616             1432             30

这里可以看出,该函数的新版本的性能已经提升到了线性阶。

本文是数据结构(用Python实现)这本书的读书笔记!
转载:https://blog.csdn.net/dta0502/article/details/80872725

Python 搜索、排序、复杂度分析相关推荐

  1. python 文件相似度分析_使用Python做人群相似度分析

    在各个行业,尤其是电商行业当中,经常需要做各个人群之间的相似度分析,以便于找到品牌的核心用户,在拉新过程中,我们也需要用现有数据来挖掘潜在客户.下面为大家提供一个做人群相似度的思路. 1.数据准备 需 ...

  2. js排序的时间复杂度_经典排序方法的python实现和复杂度分析

    1.冒泡排序: 冒泡排序算法的运作如下: 比较相邻的元素.如果第一个比第二个大(升序),就交换他们两个. 对每一对相邻元素作同样的工作,从开始第一对到结尾的最后一对.这步做完后,最后的元素会是最大的数 ...

  3. arraylist从大到小排序_经典排序方法的python实现和复杂度分析

    1.冒泡排序: 冒泡排序算法的运作如下: 比较相邻的元素.如果第一个比第二个大(升序),就交换他们两个. 对每一对相邻元素作同样的工作,从开始第一对到结尾的最后一对.这步做完后,最后的元素会是最大的数 ...

  4. python实现堆排序用类的方法_GitHub - lil-q/sorting-algorithm-python: 十种排序算法的python实现及复杂度分析...

    排序 分类 评价排序算法的几个指标: 时间复杂度:包括平均时间复杂度.最坏时间复杂度和最好时间复杂度.一般而言,好的性能是$$O(nlog_2n)$$,坏的性能是$$O(n^2)$$.对于一个排序理想 ...

  5. python数据分析-文本相似度分析

    由于本文设计较多知识点,在编写代码之前需要搞清楚这些知识点的含义. 1.知识点解释 Gensim是一款开源的第三方Python工具包,用于从原始的非结构化的文本中,无监督地学习到文本隐层的主题向量表达 ...

  6. 宽度优先搜索的复杂度分析

    首先,我们假设搜索树的状态空间中每个状态都有b个后继. 时间复杂度分析 搜索树的根节点生成第一层的b个节点,每个子节点又生成b个子节点,第二层则有b平方个节点,依次类推.于是可以得到生成的节点总数为O ...

  7. python jieba 文本相似度_文本相似度分析(基于jieba和gensim)

    ##基础概念 本文在进行文本相似度分析过程分为以下几个部分进行, 文本分词 语料库制作 算法训练 结果预测 分析过程主要用两个包来实现jieba,gensim jieba:主要实现分词过程 gensi ...

  8. python文本相似度分析_文本相似度分析(基于jieba和gensim)

    ##基础概念 本文在进行文本相似度分析过程分为以下几个部分进行, 文本分词 语料库制作 算法训练 结果预测 分析过程主要用两个包来实现jieba,gensim jieba:主要实现分词过程 gensi ...

  9. [转载] 用Python进行简单的文本相似度分析

    参考链接: Python 3中的文本分析 学习目标: 利用gensim包分析文档相似度使用jieba进行中文分词了解TF-IDF模型 环境: Python 3.6.0 |Anaconda 4.3.1 ...

最新文章

  1. 北大港大,都将落地深圳!
  2. 静态联编与动态联编之virtual的作用
  3. php函数中首次出现,PHP开发之子串在字符串中首次出现、最后出现、出现次数函数相关总结...
  4. Misc杂项设备驱动框架
  5. linux技能点七 shell
  6. sublime text3 Package Control 插件安装及推荐(MAC)
  7. iOS之友盟简单分享(第三方)及sso授权问题
  8. Eureka的自我保护模式
  9. 计算机课程设计案例,计算机课程设计学生成绩管理系统
  10. java文件复制方法_Java复制文件–用Java复制文件的4种方法
  11. kinetis时钟模块MCG详解
  12. 《中國姓氏大全》【带拼音】
  13. 课设错误调试(一)No qualifying bean of type
  14. 单片机热敏电阻测温度c语言,单片机实现热热敏电阻测温电路
  15. 如何用Python写一个上课点名系统
  16. 学习编程需要了解什么基础知识
  17. cmd看excel有多少个子表_excel表格拆分成多个表格方法工具
  18. RGB TO ARGB
  19. 基于CNN的象棋棋子识别
  20. SEI(Supplemental Enhancement Information)

热门文章

  1. Vscode突然没法调试python2.7
  2. FPGA实验1:DDS IP 数字波形合成
  3. 使用自动编解码器网络实现图片噪音去除
  4. 优盘删除恢复,小牛数据恢复
  5. 数据存储---整形数据在内存中的存储
  6. mp4转换成avi,mp4转avi的方法
  7. “n词酷”输入法模式分析及展望
  8. 怪人猎人java_怪物猎人世界全场景怪物介绍 猎人世界怪物图鉴
  9. 【我的OpenGL学习进阶之旅】解决OpenGL绘制带透明通道的png纹理时出现黑边问题,并彻底了解其原理
  10. 3DMAX角色建模教程