摘要:本文章属于爬虫入门到精通系统教程第七讲直接开始案例吧。本次我们实现如何模拟登陆知乎。
本文章属于爬虫入门到精通系统教程第七讲
直接开始案例吧。
本次我们实现如何模拟登陆知乎。
1.抓包首先打开知乎登录页 知乎 - 与世界分享你的知识、经验和见解
注意打开开发者工具后点击“preserve log”,密码记得故意输入错误,然后点击登录
我们很简单的就找到了 我们需要的请求
_xsrf:81aa4a69cd410c3454ce515187f2d4c9 password:*** email:admin@wuaics.cn
可以看到请求一共有三个参数
email 和password就是我们需要登录的账号及密码
那么_xsrf是什么?我们在哪能找到?
像“_xsrf”这种参数,一般叫做页面校检码,是来检查你是否是从正常的登录页面过来的。
那我们复制这个值,在登录页面找找看。
//input[@name="_xsrf"]/@value
所以,本次登录我们需要得到的数据已经都得到了
步骤如下:
打开知乎登录页面,获取_xsrf
把_xsrf和自己的账号及密码一起发送(模拟登录)
2.模拟登录import requests url = "https://www.zhihu.com/#signin" z = requests.get(url) print z.status_code
我们会看到 http状态码为500...
至于为什么会返回500状态码呢?是因为我们用程序来访问知乎被发现了...
我们伪装成浏览器,添加一行
可以看到返回正常了,http状态码为200(这就是headers的作用)
那我们现在获取_xsrf
from lxml import etree sel = etree.HTML(z1.content) # 这个xsrf怎么获取 我们上面有讲到 _xsrf = sel.xpath("//input[@name="_xsrf"]/@value")[0]
然后模拟登录
loginurl = "https://www.zhihu.com/login/email" # 这里的_xsrf就是我们刚刚上面得到的 formdata = { "email":"admin@wuaics.cn", "password":"你的密码", "_xsrf":_xsrf } z2 = requests.post(url=loginurl,data=formdata,headers=headers) print z2.status_code #200 print z2.content # "{"r":0, "msg": "u767bu5f55u6210u529f" }" print z2.json()["msg"] # 登陆成功
可以看到已经模拟登录并成功了。
那我们来打开知乎 - 与世界分享你的知识、经验和见解来检查下 是否有登录成功
# 为什么用这个页面呢? # 因为这个页面只有登录后才能看得到,如果没有登录的话 会自动跳转让你登录的 mylog = "https://www.zhihu.com/people/pa-chong-21/logs" z3 = requests.get(url=mylog,headers=headers) print z3.status_code #200 print z3.url # u"https://www.zhihu.com/?next=%2Fpeople%2Fpa-chong-21%2Flogs"
发现页面url是 (https://www.zhihu.com/?next=%...
并不是 我前面输入的 (https://www.zhihu.com/people/...
说明知乎判断我们没有登录,然后把我们跳转到登录页面了.
如果感兴趣的话,可以把z3.text 的返回值存为123.html,然后打开看看,是不是跳转到登录页面了..
那么为什么会跳到登录页面呢?刚刚不是已经登录成功了么?
这是因为,我们这几个模拟请求,相互间都是独立的,所以z2登录成功了,和z3并没有什么关系。
那如果我现在想要z3不用再模拟登录一次,也能登录的话,怎么办呢?
我们可以把z2登录成功后得到的cookie给z3,这样,z3也就能登录成功了.
用程序实现
再次判断下是否登录成功。
z3 = requests.get(url=mylog,headers=headers) print z3.url # u"https://www.zhihu.com/people/pa-chong-21/logs"
我们可以看到已经正常访问了。说明我们登录成功了
所以,以后只要你带着这个cookie,就可以访问登录后的页面了.(这就是cookie的作用..)
最后附上一个小技巧.
当你需要登录,或者说你需要在一段会话中操作(也就是我们上面的操作)
会话对象高级用法 - Requests 2.10.0 文档会话对象让你能够跨请求保持某些参数。它也会在同一个 Session 实例发出的所有请求之间保持 cookie, 期间使用 urllib3 的 connection pooling 功能。所以如果你向同一主机发送多个请求,底层的 TCP 连接将会被重用,从而带来显著的性能提升。 (参见 HTTP persistent connection).
使用会话后,我们上面的代码可以改成这样
可以看到我们没有把cookie传过去,但是还是登录成功了,这是因为session会自动帮你处理这些,会自动帮你管理cookie
我们可以打印看下我们请求的headers
可以看到headers里面自动加上了cookie
最后所有的代码都在kimg1234/pachong
最后再次总结一下看完本篇文章后,你应该要
能理解User-Agent,cookie的作用
了解requests中的session用法
了解如何模拟登录一个网页
如果你对requests这个库不太熟悉的话,你可以在快速上手 - Requests 2.10.0 文档浏览。
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/38609.html
摘要:网页的下载本文章属于爬虫入门到精通系统教程第四讲在爬虫入门到精通第二讲中,我们了解了协议,那么我们现在使用这些协议来快速爬虫吧本文的目标当你看完本文后,你应该能爬取几乎任何的网页使用抓包抓包就是将网络传输发送与接收的数据包进行截获重发编辑转 网页的下载 本文章属于爬虫入门到精通系统教程第四讲 在爬虫入门到精通第二讲中,我们了解了HTTP协议,那么我们现在使用这些协议来快速爬虫吧 本文的...
摘要:协议的讲解本文章属于爬虫入门到精通系统教程第三讲什么是协议引用自维基百科超文本传输协议英文,缩写是互联网上应用最为广泛的一种网络协议。通过或者协议请求的资源由统一资源标识符,来标识。假定其下层协议提供可靠的传输。 HTTP协议的讲解 本文章属于爬虫入门到精通系统教程第三讲 什么是HTTP协议? 引用自维基百科 超文本传输协议(英文:HyperText Transfer Protoco...
摘要:时间永远都过得那么快,一晃从年注册,到现在已经过去了年那些被我藏在收藏夹吃灰的文章,已经太多了,是时候把他们整理一下了。那是因为收藏夹太乱,橡皮擦给设置私密了,不收拾不好看呀。 ...
摘要:但这边特别提醒的是里看到的代码不等于请求网址拿到的返回值。这个文件包含了列表中所有请求的各项参数及返回值信息,以便你查找分析。理解了这几步,大部分网上的数据都可以拿到,说解决一半的问题可不是标题党。 网上爬虫的教程实在太多了,知乎上搜一下,估计能找到不下一百篇。大家乐此不疲地从互联网上抓取着一个又一个网站。但只要对方网站一更新,很可能文章里的方法就不再有效了。 每个网站抓取的代码各不相...
摘要:比如我们以知乎为例,直接利用来维持登录状态。测试后,发现同样可以正常登录知乎。上一篇文章网络爬虫实战基本使用下一篇文章网络爬虫实战正则表达式 上一篇文章:Python3网络爬虫实战---24、requests:基本使用下一篇文章:Python3网络爬虫实战---26、正则表达式 在前面一节我们了解了 Requests 的基本用法,如基本的 GET、POST 请求以及 Response...
阅读 2169·2021-11-25 09:43
阅读 2249·2021-11-24 09:39
阅读 1539·2021-11-22 12:02
阅读 2983·2021-11-17 09:33
阅读 3407·2021-11-15 11:38
阅读 2717·2021-10-13 09:40
阅读 1065·2021-09-22 15:41
阅读 1686·2019-08-30 10:58