摘要:开撕文件夹下的程序展示了怎么使用这个版本的。文件行数这句是重点摘要然后,我们知道重点函数是,我们再来看它是怎么工作的。再仔细阅读一遍,原来写这个库的大佬用种不同的方法实现了个函数,请收下我的膝盖。
作者:LogM
本文原载于 https://segmentfault.com/u/logm/articles ,不允许转载~
1. 源码来源TextRank4ZH 源码:https://github.com/letiantian/TextRank4ZH.git
本文对应的源码版本:committed on 3 Jul 2018, fb1339620818a0b0c16f5613ebf54153faa41636
TextRank 论文地址:https://www.aclweb.org/anthology/W04-3252
2. 概述letiantian 大佬的这个版本,应该是所有 TextRank 的 Python 版本中被点赞最多的。代码写的也非常的简单易懂。
3. 开撕example 文件夹下的程序展示了怎么使用这个版本的 TextRank。有关键词、关键短语、关键句抽取三种功能,我们这边只关注关键句的抽取。
应该很容易看懂吧,先实例化 TextRank4Sentence,然后使用 analyze 抽取。
# 文件:example/example1.py # 行数:28 tr4s = TextRank4Sentence() tr4s.analyze(text=text, lower=True, source = "all_filters") # 这句是重点 print() print( "摘要:" ) for item in tr4s.get_key_sentences(num=3): print(item.index, item.weight, item.sentence)
然后,我们知道重点函数是 analyze,我们再来看它是怎么工作的。
# 文件:textrank4zh/TextRank4Sentence.py # 行数:43 def analyze(self, text, lower = False, source = "no_stop_words", sim_func = util.get_similarity, pagerank_config = {"alpha": 0.85,}): """ Keyword arguments: text -- 文本内容,字符串。 lower -- 是否将文本转换为小写。默认为False。 source -- 选择使用words_no_filter, words_no_stop_words, words_all_filters中的哪一个来生成句子之间的相似度。 默认值为`"all_filters"`,可选值为`"no_filter", "no_stop_words", "all_filters"`。 sim_func -- 指定计算句子相似度的函数。 """ self.key_sentences = [] result = self.seg.segment(text=text, lower=lower) self.sentences = result.sentences self.words_no_filter = result.words_no_filter self.words_no_stop_words = result.words_no_stop_words self.words_all_filters = result.words_all_filters options = ["no_filter", "no_stop_words", "all_filters"] if source in options: _source = result["words_"+source] else: _source = result["words_no_stop_words"] # 这句是重点 self.key_sentences = util.sort_sentences( sentences = self.sentences, words = _source, sim_func = sim_func, pagerank_config = pagerank_config)
很容易发现,我们需要的内容在 util.sort_sentences 这个函数里。
# 文件:textrank4zh/util.py # 行数:169 def sort_sentences(sentences, words, sim_func = get_similarity, pagerank_config = {"alpha": 0.85,}): """将句子按照关键程度从大到小排序 Keyword arguments: sentences -- 列表,元素是句子 words -- 二维列表,子列表和sentences中的句子对应,子列表由单词组成 sim_func -- 计算两个句子的相似性,参数是两个由单词组成的列表 pagerank_config -- pagerank的设置 """ sorted_sentences = [] _source = words sentences_num = len(_source) graph = np.zeros((sentences_num, sentences_num)) for x in xrange(sentences_num): for y in xrange(x, sentences_num): similarity = sim_func( _source[x], _source[y] ) # 重点1 graph[x, y] = similarity graph[y, x] = similarity nx_graph = nx.from_numpy_matrix(graph) scores = nx.pagerank(nx_graph, **pagerank_config) # 重点2 sorted_scores = sorted(scores.items(), key = lambda item: item[1], reverse=True) for index, score in sorted_scores: item = AttrDict(index=index, sentence=sentences[index], weight=score) sorted_sentences.append(item) return sorted_sentences
这边有两个重点,重点1:句子与句子的相似度是如何计算的;重点2:pagerank的实现。
很明显,PageRank 的实现是借助了 networkx 这个第三方库,在下一节我们会来看看这个第三方库的源码。
这边,我们先来看重点1,句子与句子的相似度是如何计算的,容易看出,计算方式和论文给的公式是一致的。
# 文件:textrank4zh/util.py # 行数:102 def get_similarity(word_list1, word_list2): """默认的用于计算两个句子相似度的函数。 Keyword arguments: word_list1, word_list2 -- 分别代表两个句子,都是由单词组成的列表 """ words = list(set(word_list1 + word_list2)) vector1 = [float(word_list1.count(word)) for word in words] vector2 = [float(word_list2.count(word)) for word in words] vector3 = [vector1[x]*vector2[x] for x in xrange(len(vector1))] vector4 = [1 for num in vector3 if num > 0.] co_occur_num = sum(vector4) if abs(co_occur_num) <= 1e-12: return 0. denominator = math.log(float(len(word_list1))) + math.log(float(len(word_list2))) # 分母 if abs(denominator) < 1e-12: return 0. return co_occur_num / denominator4. networkx 是怎么实现 PageRank的
不得不说,写 Python 的好处就是有各种第三方库可以用。整个PageRank的计算过程,大佬都借助了 networkx 这个第三方库。
networkx 中 PageRank 的路径为 networkx/algorithms/link_analysis/pagerank_alg.py。我这边就不贴出源码了,共476行,把我惊出一身冷汗。定睛一看,原来注释占了一半的行数。再仔细阅读一遍,原来写这个库的大佬用3种不同的方法实现了3个 PageRank 函数,请收下我的膝盖。
Python 的变量类型不明确,比如代码中 W 这个变量,我知道是一张图,但我不知道是用邻接矩阵还是邻接表或者是自定义类来表示的,需要向上回溯几层代码才能知道。所以阅读这种大工程的 Python 代码是需要花一点时间的。
如果有耐心理解源码的话,可以发现,networkx 中 PageRank 和论文中的数学公式还是有些不一样的,主要的不一样的点在于对 dangling_nodes 的处理。
5. 总结写 Python 的好处就是有各种第三方库可以用。
Python 的变量类型不明确,阅读大工程的 Python 代码是需要花一点时间的。
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/45181.html
摘要:大家好,我是一行今天给大家聊聊一行在读研里最成功的投资,那必然是键盘边上的每一本技术书啦毕竟股票基金这种投资即使赚了钱,过段时间就得还回去,非常的神奇但是读过的每一本技术书籍,都内化在手指上了,只要给个键盘,就能给它实 ...
摘要:在函数中通过赋予变量,在函数中,指向定时器以及回调函数当不需要或者时,定时器没有被,定时器的回调函数以及内部依赖的变量都不能被回收,造成内存泄漏。比如使用了定时器,需要在中做对应销毁处理。 前言: 3月5日,从中山去往广州,一大早7点多就做好准备了,在高铁站了30分钟,转广州地铁又站了90分钟,去到地铁口,就有一辆cvte的大巴车过来接送,我选择的面试时间是11:00-12:00,但前...
摘要:在函数中通过赋予变量,在函数中,指向定时器以及回调函数当不需要或者时,定时器没有被,定时器的回调函数以及内部依赖的变量都不能被回收,造成内存泄漏。比如使用了定时器,需要在中做对应销毁处理。 前言: 3月5日,从中山去往广州,一大早7点多就做好准备了,在高铁站了30分钟,转广州地铁又站了90分钟,去到地铁口,就有一辆cvte的大巴车过来接送,我选择的面试时间是11:00-12:00,但前...
摘要:春招前端实习面试记录从就开始渐渐的进行复习,月末开始面试,到现在四月中旬基本宣告结束。上海爱乐奇一面盒模型除之外的面向对象语言继承因为是视频面试,只记得这么多,只感觉考察的面很广,前端后端移动端都问了,某方面也有深度。 春招前端实习面试记录(2019.3 ~ 2019.5) 从2019.1就开始渐渐的进行复习,2月末开始面试,到现在四月中旬基本宣告结束。在3月和4月经历了无数次失败,沮...
摘要:面试题答案领取方式见主页的缺省端口是多少,怎么修改有哪几种运行模式优化有几种部署方式容器是如何创建类实例用到了什么原理如何优化内存怎样调优垃圾回收怎样策略调优怎样共享处理怎样添加远程监控专业点的分析工具有哪些关于的数目怎样监视的内存使用情况 TomcatshowImg(https://segmentfault.com/img/remote/1460000019788819);(面试题+...
阅读 2274·2021-11-24 09:39
阅读 2967·2021-10-15 09:39
阅读 3066·2021-07-26 23:38
阅读 2261·2019-08-30 11:14
阅读 3390·2019-08-29 16:39
阅读 1694·2019-08-29 15:23
阅读 737·2019-08-29 13:01
阅读 2634·2019-08-29 12:29