资讯专栏INFORMATION COLUMN

Python3网络爬虫实战---26、正则表达式

Pocher / 2023人阅读

摘要:上一篇文章网络爬虫实战高级用法下一篇文章网络爬虫实战与正则表达式抓取猫眼电影排行本节我们看一下正则表达式的相关用法,正则表达式是处理字符串的强大的工具,它有自己特定的语法结构,有了它,实现字符串的检索替换匹配验证都不在话下。

上一篇文章:Python3网络爬虫实战---25、requests:高级用法
下一篇文章:Python3网络爬虫实战---27、Requests与正则表达式抓取猫眼电影排行

本节我们看一下正则表达式的相关用法,正则表达式是处理字符串的强大的工具,它有自己特定的语法结构,有了它,实现字符串的检索、替换、匹配验证都不在话下。
当然对于爬虫来说,有了它,我们从 HTML 里面提取我们想要的信息就非常方便了。

1. 实例引入

说了这么多,可能我们对它到底是个什么还是比较模糊,下面我们就用几个实例来感受一下正则表达式的用法。
我们打开开源中国提供的正则表达式测试工具:http://tool.oschina.net/regex/,打开之后我们可以输入待匹配的文本,然后选择常用的正则表达式,就可以从我们输入的文本中得出相应的匹配结果了。
例如我们在这里输入待匹配的文本如下:

Hello, my phone number is 010-86432100 and email is cqc@cuiqingcai.com, and my website is http://cuiqingcai.com.

这段字符串中包含了一个电话号码和一个电子邮件,接下来我们就尝试用正则表达式提取出来,如图 3-10 所示:

图 3-10 运行页面
我们在网页中选择匹配 Email 地址,就可以看到在下方出现了文本中的 Email。如果我们选择了匹配网址 URL,就可以看到在下方出现了文本中的 URL。是不是非常神奇?
其实,在这里就是用了正则表达式匹配,也就是用了一定的规则将特定的文本提取出来。比如电子邮件它开头是一段字符串,然后是一个 @ 符号,然后就是某个域名,这是有特定的组成格式的。另外对于 URL,开头是协议类型,然后是冒号加双斜线,然后是域名加路径。
对于 URL 来说,我们就可以用下面的正则表达式匹配:

[a-zA-z]+://[^s]*

如果我们用这个正则表达式去匹配一个字符串,如果这个字符串中包含类似 URL 的文本,那就会被提取出来。
这个正则表达式看上去是乱糟糟的一团,其实不然,这里面都是有特定的语法规则的。比如 a-z 代表匹配任意的小写字母,s 表示匹配任意的空白字符,* 就代表匹配前面的字符任意多个,这一长串的正则表达式就是这么多匹配规则的组合,最后实现特定的匹配功能。
写好正则表达式后,我们就可以拿它去一个长字符串里匹配查找了,不论这个字符串里面有什么,只要符合我们写的规则,统统可以找出来。那么对于网页来说,如果我们想找出网页源代码里有多少 URL,就可以用匹配URL的正则表达式去匹配,就可以得到源码中的 URL 了。
在上面我们说了几个匹配规则,那么正则表达式的规则到底有多少?那么在这里把常用的匹配规则总结一下:

模式 描述
w 匹配字母数字及下划线
W 匹配非字母数字及下划线
s 匹配任意空白字符,等价于 [tnrf].
S 匹配任意非空字符
d 匹配任意数字,等价于 [0-9]
D 匹配任意非数字
A 匹配字符串开始
Z 匹配字符串结束,如果是存在换行,只匹配到换行前的结束字符串
z 匹配字符串结束
G 匹配最后匹配完成的位置
n 匹配一个换行符
t 匹配一个制表符
^ 匹配字符串的开头
$ 匹配字符串的末尾
. 匹配任意字符,除了换行符,当 re.DOTALL 标记被指定时,则可以匹配包括换行符的任意字符
[...] 用来表示一组字符,多带带列出:[amk] 匹配 "a","m" 或 "k"
1 不在 [] 中的字符:abc 匹配除了 a,b,c 之外的字符。
* 匹配 0 个或多个的表达式。
+ 匹配 1 个或多个的表达式。
? 匹配 0 个或 1 个由前面的正则表达式定义的片段,非贪婪方式
{n} 精确匹配 n 个前面表达式。
{n, m} 匹配 n 到 m 次由前面的正则表达式定义的片段,贪婪方式
ab 匹配 a 或 b
( ) 匹配括号内的表达式,也表示一个组

可能看完了之后就有点晕晕的了把,不用担心,下面我们会详细讲解下一些常见的规则的用法。怎么用它来从网页中提取我们想要的信息。

2. 了解 re 库

其实正则表达式不是 Python 独有的,它在其他编程语言中也可以使用,但是 Python 的 re 库提供了整个正则表达式的实现,利用 re 库我们就可以在 Python 中使用正则表达式了,在 Python 中写正则表达式几乎都是用的这个库,下面我们就来了解下它的一些常用方法。

3. match()

在这里首先介绍第一个常用的匹配方法,match() 方法,我们向这个方法传入要匹配的字符串以及正则表达式,就可以来检测这个正则表达式是否匹配该字符串了。

match() 方法会尝试从字符串的起始位置匹配正则表达式,如果匹配,就返回匹配成功的结果,如果不匹配,那就返回 None。

我们用一个实例来感受一下:

import re

content = "Hello 123 4567 World_This is a Regex Demo"
print(len(content))
result = re.match("^Hellosffffdsd{4}sw{10}", content)
print(result)
print(result.group())
print(result.span())

运行结果:

41

Hello 123 4567 World_This
(0, 25)

在这里我们首先声明了一个字符串,包含英文字母、空白字符、数字等等内容,接下来我们写了一个正则表达式:

^Hellosffffdsd{4}sw{10}

用它来匹配这个长字符串。开头的 ^ 是匹配字符串的开头,也就是以 Hello 开头,然后 s 匹配空白字符,用来匹配目标字符串的空格,d 匹配数字,3 个 d 匹配 123,然后再写 1 个 s 匹配空格,后面还有 4567,我们其实可以依然用 4 个 d 来匹配,但是这么写起来比较繁琐,所以在后面可以跟 {4} 代表匹配前面的规则 4 次,也就是匹配 4 个数字,这样也可以完成匹配,然后后面再紧接 1 个空白字符,然后 w{10} 匹配 10 个字母及下划线,正则表达式到此为止就结束了,我们注意到其实并没有把目标字符串匹配完,不过这样依然可以进行匹配,只不过匹配结果短一点而已。

我们调用 match() 方法,第一个参数传入了正则表达式,第二个参数传入了要匹配的字符串。

打印输出一下结果,可以看到结果是 SRE_Match 对象,证明成功匹配,它有两个方法,group() 方法可以输出匹配到的内容,结果是 Hello 123 4567 World_This,这恰好是我们正则表达式规则所匹配的内容,span() 方法可以输出匹配的范围,结果是 (0, 25),这个就是匹配到的结果字符串在原字符串中的位置范围。

通过上面的例子我们可以基本了解怎样在 Python 中怎样使用正则表达式来匹配一段文字。

匹配目标

刚才我们用了 match() 方法可以得到匹配到的字符串内容,但是如果我们想从字符串中提取一部分内容怎么办呢?就像最前面的实例一样,从一段文本中提取出邮件或电话号等内容。

在这里可以使用 () 括号来将我们想提取的子字符串括起来,() 实际上就是标记了一个子表达式的开始和结束位置,被标记的每个子表达式会依次对应每一个分组,我们可以调用 group() 方法传入分组的索引即可获取提取的结果。

下面我们用一个实例感受一下:

import re

content = "Hello 1234567 World_This is a Regex Demo"
result = re.match("^Hellos(d+)sWorld", content)
print(result)
print(result.group())
print(result.group(1))
print(result.span())

依然是前面的字符串,在这里我们想匹配这个字符串并且把其中的 1234567 提取出来,在这里我们将数字部分的正则表达式用 () 括起来,然后接下来调用了group(1) 获取匹配结果。

运行结果如下:


Hello 1234567 World
1234567
(0, 19)

可以看到在结果中成功得到了 1234567,我们获取用的是group(1),与 group() 有所不同,group() 会输出完整的匹配结果,而 group(1) 会输出第一个被 () 包围的匹配结果,假如正则表达式后面还有 () 包括的内容,那么我们可以依次用 group(2)、group(3) 等来依次获取。

通用匹配

刚才我们写的正则表达式其实比较复杂,出现空白字符我们就写 s 匹配空白字符,出现数字我们就写 d 匹配数字,工作量非常大,其实完全没必要这么做,还有一个万能匹配可以用,也就是 .* (点星),.(点)可以匹配任意字符(除换行符),
*(星) 又代表匹配前面的字符无限次,所以它们组合在一起就可以匹配任意的字符了,有了它我们就不用挨个字符地匹配了。

所以接着上面的例子,我们可以改写一下正则表达式。

import re

content = "Hello 123 4567 World_This is a Regex Demo"
result = re.match("^Hello.*Demo$", content)
print(result)
print(result.group())
print(result.span())

在这里我们将中间的部分直接省略,全部用 .* 来代替,最后加一个结尾字符串就好了,运行结果如下:


Hello 123 4567 World_This is a Regex Demo
(0, 41)

可以看到 group() 方法输出了匹配的全部字符串,也就是说我们写的正则表达式匹配到了目标字符串的全部内容,span() 方法输出 (0, 41),是整个字符串的长度。

因此,我们可以在使用 .* 来简化正则表达式的书写。

贪婪与非贪婪

在使用上面的通用匹配 .* 的时候可能我们有时候匹配到的并不是想要的结果,我们看下面的例子:

import re

content = "Hello 1234567 World_This is a Regex Demo"
result = re.match("^He.*(d+).*Demo$", content)
print(result)
print(result.group(1))

在这里我们依然是想获取中间的数字,所以中间我们依然写的是 (d+),数字两侧由于内容比较杂乱,所以两侧我们想省略来写,都写 .,最后组成 ^He.(d+).*Demo$,看样子并没有什么问题,我们看下运行结果:


7

奇怪的事情发生了,我们只得到了 7 这个数字,这是怎么回事?

这里就涉及一个贪婪匹配与非贪婪匹配的原因了,贪婪匹配下,. 会匹配尽可能多的字符,我们的正则表达式中 . 后面是 d+,也就是至少一个数字,并没有指定具体多少个数字,所以 .* 就尽可能匹配多的字符,所以它把 123456 也匹配了,给 d+ 留下一个可满足条件的数字 7,所以 d+ 得到的内容就只有数字 7 了。

但这样很明显会给我们的匹配带来很大的不便,有时候匹配结果会莫名其妙少了一部分内容。其实这里我们只需要使用非贪婪匹配匹配就好了,非贪婪匹配的写法是 .*?,多了一个 ?,那么它可以达到怎样的效果?我们再用一个实例感受一下:

import re

content = "Hello 1234567 World_This is a Regex Demo"
result = re.match("^He.*?(d+).*Demo$", content)
print(result)
print(result.group(1))

在这里我们只是将第一个 . 改成了 .?,转变为非贪婪匹配。结果如下:


1234567

这下我们就可以成功获取 1234567 了。原因可想而知,贪婪匹配是尽可能匹配多的字符,非贪婪匹配就是尽可能匹配少的字符,.? 之后是 d+ 用来匹配数字,当 .? 匹配到 Hello 后面的空白字符的时候,再往后的字符就是数字了,而 d+ 恰好可以匹配,那么这里 .? 就不再进行匹配,交给 d+ 去匹配后面的数字。所以这样,.? 匹配了尽可能少的字符,d+ 的结果就是 1234567 了。

所以说,在做匹配的时候,字符串中间我们可以尽量使用非贪婪匹配来匹配,也就是用 .? 来代替 .,以免出现匹配结果缺失的情况。

但这里注意,如果匹配的结果在字符串结尾,.*? 就有可能匹配不到任何内容了,因为它会匹配尽可能少的字符,例如:

import re

content = "http://weibo.com/comment/kEraCN"
result1 = re.match("http.*?comment/(.*?)", content)
result2 = re.match("http.*?comment/(.*)", content)
print("result1", result1.group(1))
print("result2", result2.group(1))

运行结果:

result1 
result2 kEraCN

观察到 .? 没有匹配到任何结果,而 . 则尽量匹配多的内容,成功得到了匹配结果。

所以在这里好好体会一下贪婪匹配和非贪婪匹配的原理,对后面写正则表达式非常有帮助。

修饰符

正则表达式可以包含一些可选标志修饰符来控制匹配的模式。修饰符被指定为一个可选的标志。

我们用一个实例先来感受一下:

import re

content = """Hello 1234567 World_This
is a Regex Demo
"""
result = re.match("^He.*?(d+).*?Demo$", content)
print(result.group(1))

和上面的例子相仿,我们在字符串中加了个换行符,正则表达式也是一样的来匹配其中的数字,看一下运行结果:

AttributeError: "NoneType" object has no attribute "group"

运行直接报错,也就是说正则表达式没有匹配到这个字符串,返回结果为 None,而我们又调用了 group() 方法所以导致AttributeError。

那我们加了一个换行符为什么就匹配不到了呢?是因为 . 匹配的是除换行符之外的任意字符,当遇到换行符时,.*? 就不能匹配了,所以导致匹配失败。

那么在这里我们只需要加一个修饰符 re.S,即可修正这个错误。

result = re.match("^He.*?(d+).*?Demo$", content, re.S)

在 match() 方法的第三个参数传入 re.S,它的作用是使 . 匹配包括换行符在内的所有字符。

运行结果:

1234567

这个 re.S 在网页匹配中会经常用到,因为 HTML 节点经常会有换行,加上它我们就可以匹配节点与节点之间的换行了。

另外还有一些修饰符,在必要的情况下也可以使用:

修饰符 描述
re.I 使匹配对大小写不敏感
re.L 做本地化识别(locale-aware)匹配
re.M 多行匹配,影响 ^ 和 $
re.S 使 . 匹配包括换行在内的所有字符
re.U 根据Unicode字符集解析字符。这个标志影响 w, W, b, B.
re.X 该标志通过给予你更灵活的格式以便你将正则表达式写得更易于理解。

在网页匹配中较为常用的为 re.S、re.I。

转义匹配

我们知道正则表达式定义了许多匹配模式,如 . 匹配除换行符以外的任意字符,但是如果目标字符串里面它就包含 . 我们改怎么匹配?

那么这里就需要用到转义匹配了,我们用一个实例来感受一下:

import re

content = "(百度)www.baidu.com"
result = re.match("(百度)www.baidu.com", content)
print(result)

当遇到用于正则匹配模式的特殊字符时,我们在前面加反斜线来转义一下就可以匹配了。例如 . 我们就可以用 . 来匹配,运行结果:

<_sre.SRE_Match object; span=(0, 17), match="(百度)www.baidu.com">

可以看到成功匹配到了原字符串。

以上是写正则表达式常用的几个知识点,熟练掌握上面的知识点对后面我们写正则表达式匹配非常有帮助。

4. search()

我们在前面提到过 match() 方法是从字符串的开头开始匹配,一旦开头不匹配,那么整个匹配就失败了。

我们看下面的例子:

import re

content = "Extra stings Hello 1234567 World_This is a Regex Demo Extra stings"
result = re.match("Hello.*?(d+).*?Demo", content)
print(result)

在这里我们有一个字符串,它是以 Extra 开头的,但是正则表达式我们是以 Hello 开头的,整个正则表达式是字符串的一部分,但是这样匹配是失败的,也就是说只要第一个字符不匹配整个匹配就不能成功,运行结果如下:

None

所以 match() 方法在我们在使用的时候需要考虑到开头的内容,所以在做匹配的时候并不那么方便,它适合来检测某个字符串是否符合某个正则表达式的规则。

所以在这里就有另外一个方法 search(),它在匹配时会扫描整个字符串,然后返回第一个成功匹配的结果,也就是说,正则表达式可以是字符串的一部分,在匹配时,search() 方法会依次扫描字符串,直到找到第一个符合规则的字符串,然后返回匹配内容,如果搜索完了还没有找到,那就返回 None。

我们把上面的代码中的 match() 方法修改成 search(),再看下运行结果:

这样就得到了匹配结果。

所以说,为了匹配方便,我们可以尽量使用 search() 方法。

下面我们再用几个实例来感受一下 search() 方法的用法。

首先这里有一段待匹配的 HTML 文本,我们接下来写几个正则表达式实例来实现相应信息的提取。

html = """

经典老歌

经典老歌列表

"""

观察到 ul 节点里面有许多 li 节点,其中 li 节点有的包含 a 节点,有的不包含 a 节点,a 节点还有一些相应的属性,超链接和歌手名。

首先我们尝试提取 class 为 active的 li 节点内部的超链接包含的歌手名和歌名。

所以我们需要提取第三个 li 节点下的 a 节点的 singer 属性和文本。

所以正则表达式可以以 li 开头,然后接下来寻找一个标志符 active,中间的部分可以用 .? 来匹配,然后接下来我们要提取 singer 这个属性值,所以还需要写入singer="(.?)" ,我们需要提取的部分用小括号括起来,以便于用 group() 方法提取出来,它的两侧边界是双引号,然后接下来还需要匹配 a 节点的文本,那么它的左边界是 >,右边界是 ,所以我们指定一下左右边界,然后目标内容依然用 (.*?) 来匹配,所以最后的正则表达式就变成了:

(.*?)

然后我们再调用 search() 方法,它便会搜索整个 HTML 文本,找到符合正则表达式的第一个内容返回。 另外由于代码有换行,所以这里第三个参数需要传入 re.S。

所以整个匹配代码如下:

result = re.search("(.*?)", html, re.S)
if result:
    print(result.group(1), result.group(2))

由于我们需要获取的歌手和歌名都已经用了小括号包围,所以可以用 group() 方法获取,序号依次对应 group() 的参数。

运行结果:

齐秦 往事随风

可以看到这个正是我们想提取的 class 为 active 的 li 节点内部的超链接包含的歌手名和歌名。

那么正则表达式不加 active 会怎样呢?也就是匹配不带 class 为 active 的节点内容,我们将正则表达式中的 active 去掉,代码改写如下:

result = re.search("(.*?)", html, re.S)
if result:
    print(result.group(1), result.group(2))

由于 search() 方法会返回第一个符合条件的匹配目标,那在这里结果就变了。

运行结果如下:

任贤齐 沧海一声笑

因为我们把 active 标签去掉之后,从字符串开头开始搜索,符合条件的节点就变成了第二个 li 节点,后面的就不再进行匹配,所以运行结果自然就变成了第二个 li 节点中的内容。

注意在上面两次匹配中,search() 方法的第三个参数我们都加了 re.S,使得 .*? 可以匹配换行,所以含有换行的 li 节点被匹配到了,如果我们将其去掉,结果会是什么?

result = re.search("(.*?)", html)
if result:
    print(result.group(1), result.group(2))

运行结果:

beyond 光辉岁月

可以看到结果就变成了第四个 li 节点的内容,这是因为第二个和第三个 li 节点都包含了换行符,去掉 re.S 之后,.*? 已经不能匹配换行符,所以正则表达式不会匹配到第二个和第三个 li 节点,而第四个 li 节点中不包含换行符,所以成功匹配。

由于绝大部分的 HTML 文本都包含了换行符,所以通过上面的例子,我们尽量都需要加上 re.S 修饰符,以免出现匹配不到的问题。

5. findall()

在前面我们说了 search() 方法的用法,它可以返回匹配正则表达式的第一个内容,但是如果我们想要获取匹配正则表达式的所有内容的话怎么办?这时就需要借助于 findall() 方法了。

findall() 方法会搜索整个字符串然后返回匹配正则表达式的所有内容。

还是上面的 HTML 文本,如果我们想获取所有 a 节点的超链接、歌手和歌名,就可以将 search() 方法换成 findall() 方法。如果有返回结果的话就是列表类型,所以我们需要遍历一下来获依次获取每组内容。

results = re.findall("(.*?)", html, re.S)
print(results)
print(type(results))
for result in results:
    print(result)
    print(result[0], result[1], result[2])

运行结果:

[("/2.mp3", "任贤齐", "沧海一声笑"), ("/3.mp3", "齐秦", "往事随风"), ("/4.mp3", "beyond", "光辉岁月"), ("/5.mp3", "陈慧琳", "记事本"), ("/6.mp3", "邓丽君", "但愿人长久")]

("/2.mp3", "任贤齐", "沧海一声笑")
/2.mp3 任贤齐 沧海一声笑
("/3.mp3", "齐秦", "往事随风")
/3.mp3 齐秦 往事随风
("/4.mp3", "beyond", "光辉岁月")
/4.mp3 beyond 光辉岁月
("/5.mp3", "陈慧琳", "记事本")
/5.mp3 陈慧琳 记事本
("/6.mp3", "邓丽君", "但愿人长久")
/6.mp3 邓丽君 但愿人长久

可以看到,返回的列表的每个元素都是元组类型,我们用对应的索引依次取出即可。

所以,如果只是获取第一个内容,可以用 search() 方法,当需要提取多个内容时,就可以用 findall() 方法。

6. sub()

正则表达式除了提取信息,我们有时候还需要借助于它来修改文本,比如我们想要把一串文本中的所有数字都去掉,如果我们只用字符串的 replace() 方法那就太繁琐了,在这里我们就可以借助于 sub() 方法。

我们用一个实例来感受一下:

import re

content = "54aK54yr5oiR54ix5L2g"
content = re.sub("d+", "", content)
print(content)

运行结果:

aKyroiRixLg

在这里我们只需要在第一个参数传入 d+ 来匹配所有的数字,然后第二个参数是替换成的字符串,要去掉的话就可以赋值为空,第三个参数就是原字符串。

得到的结果就是替换修改之后的内容。

那么在上面的 HTML 文本中,如果我们想正则获取所有 li 节点的歌名,如果直接用正则表达式来提取可能比较繁琐,比如可以写成这样子:

results = re.findall("s*?()?(w+)()?s*?", html, re.S)
for result in results:
    print(result[1])

运行结果:

一路上有你
沧海一声笑
往事随风
光辉岁月
记事本
但愿人长久

但如果我们借助于 sub() 方法就比较简单了,我们可以先用sub() 方法将 a 节点去掉,只留下文本,然后再利用findall() 提取就好了。

html = re.sub("|||", "", html)
results = re.findall("(.*?)", html, re.S)
for result in results:
    print(result.strip())

运行结果:

经典老歌

经典老歌列表

  • 一路上有你
  • 沧海一声笑
  • 往事随风
  • 光辉岁月
  • 记事本
  • 但愿人长久
一路上有你 沧海一声笑 往事随风 光辉岁月 记事本 但愿人长久

可以到 a 节点在经过 sub() 方法处理后都没有了,然后再 findall() 直接提取即可。所以在适当的时候我们可以借助于 sub() 方法做一些相应处理可以事半功倍。

7. compile()

前面我们所讲的方法都是用来处理字符串的方法,最后再介绍一个 compile() 方法,这个方法可以讲正则字符串编译成正则表达式对象,以便于在后面的匹配中复用。

import re

content1 = "2016-12-15 12:00"
content2 = "2016-12-17 12:55"
content3 = "2016-12-22 13:21"
pattern = re.compile("d{2}:d{2}")
result1 = re.sub(pattern, "", content1)
result2 = re.sub(pattern, "", content2)
result3 = re.sub(pattern, "", content3)
print(result1, result2, result3)

例如这里有三个日期,我们想分别将三个日期中的时间去掉,所以在这里我们可以借助于 sub() 方法,sub() 方法的第一个参数是正则表达式,但是这里我们没有必要重复写三个同样的正则表达式,所以可以借助于 compile() 方法将正则表达式编译成一个正则表达式对象,以便复用。

运行结果:

2016-12-15  2016-12-17  2016-12-22

另外 compile() 还可以传入修饰符,例如 re.S 等修饰符,这样在 search()、findall() 等方法中就不需要额外传了。所以 compile() 方法可以说是给正则表达式做了一层封装,以便于我们更好地复用。

8. 结语

到此为止,正则表达式的基本用法就介绍完毕了,后面我们会有实战来讲解正则表达式的使用。

上一篇文章:Python3网络爬虫实战---25、requests:高级用法
下一篇文章:Python3网络爬虫实战---27、Requests与正则表达式抓取猫眼电影排行

  • ... ↩

  • 文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

    转载请注明本文地址:https://www.ucloud.cn/yun/44063.html

    相关文章

    • Python3网络爬虫实战---27、Requests与正则达式抓取猫眼电影排行

      摘要:所以我们如果想获取电影,只需要分开请求次,而次的参数设置为,,,,即可,这样我们获取不同的页面结果之后再用正则表达式提取出相关信息就可以得到的所有电影信息了。上一篇文章网络爬虫实战正则表达式下一篇文章网络爬虫实战解析库的使用 上一篇文章:Python3网络爬虫实战---26、正则表达式下一篇文章:Python3网络爬虫实战---28、解析库的使用:XPath 本节我们利用 Reque...

      SwordFly 评论0 收藏0
    • Python3网络爬虫实战---33、数据存储:非关系型数据库存储:MongoDB

      摘要:列存储数据库,代表有等。运行结果返回结果是字典形式,即代表执行成功,代表影响的数据条数。上一篇文章网络爬虫实战数据存储关系型数据库存储下一篇文章网络爬虫实战数据存储非关系型数据库存储 上一篇文章:Python3网络爬虫实战---32、数据存储:关系型数据库存储:MySQL下一篇文章:Python3网络爬虫实战---34、数据存储:非关系型数据库存储:Redis NoSQL,全称 No...

      XanaHopper 评论0 收藏0
    • Python3网络爬虫实战---4、数据库的安装:MySQL、MongoDB、Redis

      摘要:运行结果如果运行结果一致则证明安装成功。上一篇文章网络爬虫实战请求库安装下一篇文章网络爬虫实战数据库的安装 上一篇文章:Python3网络爬虫实战---2、请求库安装:GeckoDriver、PhantomJS、Aiohttp下一篇文章:Python3网络爬虫实战---数据库的安装:MySQL、MongoDB、Redis 抓取下网页代码之后,下一步就是从网页中提取信息,提取信息的方式有...

      xbynet 评论0 收藏0
    • Python3网络爬虫实战---17、爬虫基本原理

      摘要:在前面我们讲到了和的概念,我们向网站的服务器发送一个,返回的的便是网页源代码。渲染页面有时候我们在用或抓取网页时,得到的源代码实际和浏览器中看到的是不一样的。所以使用基本请求库得到的结果源代码可能跟浏览器中的页面源代码不太一样。 上一篇文章:Python3网络爬虫实战---16、Web网页基础下一篇文章:Python3网络爬虫实战---18、Session和Cookies 爬虫,即网...

      hellowoody 评论0 收藏0
    • Python3网络爬虫实战---25、requests:高级用法

      摘要:比如我们以知乎为例,直接利用来维持登录状态。测试后,发现同样可以正常登录知乎。上一篇文章网络爬虫实战基本使用下一篇文章网络爬虫实战正则表达式 上一篇文章:Python3网络爬虫实战---24、requests:基本使用下一篇文章:Python3网络爬虫实战---26、正则表达式 在前面一节我们了解了 Requests 的基本用法,如基本的 GET、POST 请求以及 Response...

      dingding199389 评论0 收藏0

    发表评论

    0条评论

    最新活动
    阅读需要支付1元查看
    <