摘要:分析登录过程这几天研究百度登录和贴吧签到,这百度果然是互联网巨头,一个登录过程都弄得复杂无比,简直有毒。另外如果你打开百度首页的话,还会发现浏览器的中还会输出百度的招聘信息。
分析登录过程
这几天研究百度登录和贴吧签到,这百度果然是互联网巨头,一个登录过程都弄得复杂无比,简直有毒。我研究了好几天仍然没搞明白。所以还是先挑一个软柿子捏捏,就选择CSDN了。
过程很简单,我也不截图了。直接打开浏览器,然后打开Fiddler,然后登录CSDN。然后Fiddler显示浏览器向https://passport.csdn.net/account/login?ref=toolbar发送了一个POST请求,这个请求包含了登录表单,而且还是未加密的。当然CSDN本身还是使用了HTTPS,所以安全性还行。
请求体如下,username和password当然是用户名和密码了。
username=XXXXX&password=XXXXXX&rememberMe=true<=LT-461600-wEKpWAqbfZoULXmFmDIulKPbL44hAu&execution=e4s1&_eventId=submit
lt参数我不知道是干啥的,结果直接在页面中一看原来全在表单里头,这下直接全了。CSDN很贴心的连注释都给出了。另外如果你打开百度首页的话,还会发现浏览器的log中还会输出百度的招聘信息。
登录代码这些信息全有了,这样我们就可以登录了。不说废话,直接上代码。先说说我遇到的几个坑。
首先是一个参数错误,其实逻辑没问题,但是代码我复制粘贴之后忘了改名字了,就登录表单那里,三个参数全弄成了lt,结果登录返回来的页面是错误页面。我还以为是没有附带什么请求头,瞎整了大半天。最后用Fiddler调试了好多遍才发现。
第二个问题就是CSDN鸡贼的跳转。由于浏览器自带了JS引擎,所以我们在浏览器中输入网址,到达页面这一过程不一定就是一个请求。可能中间用了什么JS代码先跳转到中间页面,最后才跳转到实际页面。代码里的_validate_redirect_url(self)函数就是干这个的,登录完了第一次请求会得到一个中间页面,它包含了一堆JS代码,其中有个重定向网址。我们获取到这个重定向网址,还得请求一次,获得200OK之后,后续请求才能获得实际页面。
第三个问题就是正则表达式匹配页面的空格问题了。获取文章首先得知道文章总数,这个好办,直接获取页面里的文章数就行了。它类似100条 共20页这个。那么该怎么获取呢?一开始我用的(d+)条 共(d+)页这个正则,但是结果没匹配到,然后我仔细看了一下页面,原来这两个词之间不是一个空格,而是两个空格!其实这个问题倒是也好办,改一下正则(d+)条s*共(d+)页就行了。所以以后如果遇到空格问题,直接用s匹配,不要想着自己输入一个空格还是两个空格。
import requests from bs4 import BeautifulSoup import re import urllib.parse as parse class CsdnHelper: """登录CSDN和列出所有文章的类""" csdn_login_url = "https://passport.csdn.net/account/login?ref=toolbar" headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36", } blog_url = "http://write.blog.csdn.net/postlist/" def __init__(self): self._session = requests.session() self._session.headers = CsdnHelper.headers def login(self, username, password): """登录主函数""" form_data = self._prepare_login_form_data(username, password) response = self._session.post(CsdnHelper.csdn_login_url, data=form_data) if "UserNick" in response.cookies: nick = response.cookies["UserNick"] print(parse.unquote(nick)) else: raise Exception("登录失败") def _prepare_login_form_data(self, username, password): """从页面获取参数,准备提交表单""" response = self._session.get(CsdnHelper.csdn_login_url) login_page = BeautifulSoup(response.text, "lxml") login_form = login_page.find("form", id="fm1") lt = login_form.find("input", attrs={"name": "lt"})["value"] execution = login_form.find("input", attrs={"name": "execution"})["value"] eventId = login_form.find("input", attrs={"name": "_eventId"})["value"] form = { "username": username, "password": password, "lt": lt, "execution": execution, "_eventId": eventId } return form def _get_blog_count(self): """获取文章数和页数""" self._validate_redirect_url() response = self._session.get(CsdnHelper.blog_url) blog_page = BeautifulSoup(response.text, "lxml") span = blog_page.find("div", class_="page_nav").span print(span.string) pattern = re.compile(r"(d+)条s*共(d+)页") result = pattern.findall(span.string) blog_count = int(result[0][0]) page_count = int(result[0][1]) return (blog_count, page_count) def _validate_redirect_url(self): """验证重定向网页""" response = self._session.get(CsdnHelper.blog_url) redirect_url = re.findall(r"var redirect = "(S+)";", response.text)[0] self._session.get(redirect_url) def print_blogs(self): """输出文章信息""" blog_count, page_count = self._get_blog_count() for index in range(1, page_count + 1): url = f"http://write.blog.csdn.net/postlist/0/0/enabled/{index}" response = self._session.get(url) page = BeautifulSoup(response.text, "lxml") links = page.find_all("a", href=re.compile(r"http://blog.csdn.net/u011054333/article/details/(d+)")) print(f"----------第{index}页----------") for link in links: blog_name = link.string blog_url = link["href"] print(f"文章名称:《{blog_name}》 文章链接:{blog_url}") if __name__ == "__main__": csdn_helper = CsdnHelper() username = input("请输入用户名") password = input("请输入密码") csdn_helper.login(username, password) csdn_helper.print_blogs()
当然,这里最重要的的就是登录过程了。我们登录之后,才可以做其他事情。比方说,下一步还能写一个备份工具,把CSDN博客的所有文章和图片下载到本地。有兴趣的同学可以试一试。
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/38582.html
摘要:爬取百思不得姐首先一步一步来,我们先从爬最简单的文本开始。将百思不得姐段子保存到中别忘了将管道加到配置文件中。虽然我只是简单的爬了百思不得姐,不过这些方法可以应用到其他方面,爬取更多更有用的数据。 前一篇文章介绍了很多关于scrapy的进阶知识,不过说归说,只有在实际应用中才能真正用到这些知识。所以这篇文章就来尝试利用scrapy爬取各种网站的数据。 爬取百思不得姐 首先一步一步来,我...
摘要:时间永远都过得那么快,一晃从年注册,到现在已经过去了年那些被我藏在收藏夹吃灰的文章,已经太多了,是时候把他们整理一下了。那是因为收藏夹太乱,橡皮擦给设置私密了,不收拾不好看呀。 ...
摘要:模拟登录新浪微博的核心,也是与模拟登录最大的不同,密码加密。已经实现模拟新浪微博登录的功能,之后不再更新。 参考资料: http://www.csuldw.com/2016/11/10/2016-11-10-simulate-sina-login/ http://blog.csdn.net/fly_leopard/article/details/51148904 http://www....
摘要:布尔值布尔值和布尔代数的表示完全一致,一个布尔值只有两种值的数据类型可以通过内置的函数查询,例如还可以用来判断和的区别在于不会认为子类是一种父类类型。会认为子类是一种父类类型。基本功能是进行成员关系测试和删除重复元素。 ...
摘要:所以,让我们再接再厉,进入到博客开发进阶教程,学习更多的开发技巧,为博客提供更多的功能吧总结本章节的代码位于。在已知小问题修正追梦人物的博客的评论区留言。将问题的详细描述通过邮件发送到,一般会在小时内回复。更多教程,请访问追梦人物的博客。 在模型中指定排序 为了让文章(Post)按发布时间逆序排列,即最新发表的文章排在文章列表的最前面,我们对返回的文章列表进行了排序,即各个视图函数中都...
阅读 1262·2021-11-23 09:51
阅读 2637·2021-09-03 10:47
阅读 2233·2019-08-30 15:53
阅读 2413·2019-08-30 15:44
阅读 1374·2019-08-30 15:44
阅读 1193·2019-08-30 10:57
阅读 1923·2019-08-29 12:25
阅读 1086·2019-08-26 11:57