摘要:项目简介豆瓣相信很多人都爬过,我也把我的方法拿出来交流学习,我也是菜鸟过来的,不会省略代码,此教程纯属娱乐,大神勿喷。创建数据库目标网页分析这个教程中,我们需要爬取豆瓣的电影名序号和相应的评分。
1、项目简介
豆瓣相信很多人都爬过,我也把我的方法拿出来交流学习,我也是菜鸟过来的,不会省略代码,此教程纯属娱乐,大神勿喷。
2、工具requests
re
pygal
mysql
Anacond2
3、爬虫完整代码# encoding:UTF-8 import re import requests import MySQLdb from bs4 import BeautifulSoup headers = {"User-Agent" :"Mozilla/5.0 (Windows NT 10.0; Win64; x64)"} def getPage(get_url): r=requests.get(get_url) response = r.text return response def filterpage(): pageCode = getPage(get_url) pattern = re.compile("(.*?).*?(.*?).*? ",re.S) items = re.findall(pattern,pageCode) pageStories = [] for item in items: pageStories.append([item[0].strip(),item[1].strip(),item[2].strip()]) return pageStories def save_data(): Dbdata=filterpage() db=MySQLdb.connect(host="localhost",user="root",passwd="******",db="movie",charset="utf8") cursor=db.cursor() for a in Dbdata: id=a[0] name=a[1] grade=a[2] #comment=a[3] value=[id,name,grade] cursor.execute("insert into movie_info values(%s,%s,%s)",value) db.commit() def main(): pageStories=filterpage() #print pageStories for story in pageStories: try: print u"序号:",story[0],u"电影名:",story[1], u" 评分:", story[2] except: pass if __name__ == "__main__": get_url = "https://movie.douban.com/top250/" i=1 while i < 11: main() save_data() print u"页码",i num = i * 25 get_url = "https://movie.douban.com/top250?start=" + str(num) + "&filter=" i = i + 14、前期准备
install mysql
我是在windows环境下跑爬虫的,用的是MySQL5.7,下载地址:https://dev.mysql.com/downloa...
值得一提的是,mysql的安装,window版的mysql安装起来说实话还是比较麻烦的,我装了很久,没成功,最后选择下载压缩版安装。安装完之后,在mysql目录下创建my.ini配置文件,输入以下代码:
[mysqld] tmpdir=F:mysql-5.7.18-winx64 # 安装目录 datadir=F:mysql-5.7.18-winx64data # data目录,没有data目录请手动创建 early-plugin-load="" skip-grant-tables
点击保存,data目录是mysql初始化会用到的目录,一般是空目录,不然初始化不通过。特别是“ 服务没有报告任何错误。 请键入 NET HELPMSG 3534”错误。然后添加mysql的环境路径。
cmd输入:
cd F:mysql-5.7.18-winx64in # 进入bin目录,不然有可能会报错 mysqld initialize # 初始化命令 net start mysql # 启动服务
创建数据表,我们需要保存的数据有ID,评分grade,还有电影名name。
mysql>create database movie # 创建movie数据库 mysql>use movie # mysql>create table movie_info (id varchar(100),name varchar(100),grade decimal(3,1));5、目标网页分析
这个教程中,我们需要爬取豆瓣top250的电影名、序号和相应的评分。F12分析网页结构。找到有《肖申克的救赎》的代码处:
1 # 序号 . . . 肖申克的救赎 # 电影名 . . . # 评分
ok,往后翻,可以看到剩下的都是这类的结构,我们找到规律了,就可以想办法,把里面的东西给搞出来。
一般常用的有re模块和beautifulsoup模块,我是用re模块正则匹配,感觉正则更强大一点,漂亮汤模块用起来简单,但是速度慢。
def getPage(get_url): # 定义一个抓取网页的方法 r=requests.get(get_url) # get到目标网页 response = r.text return response # 返回抓取到的网页
爬虫开始爬,就是给web服务器一个请求,然后抓取到返回信息。
HTTP 请求方法有 OPTIONS、GET、HEAD、post、PUT、DELETE、TRACE、CONNECT,其中比较常用的有get和post,其他的都不常见,判断请求方式很重要。自行百度。
6.2 页面代码处理def filterpage(): # 页面处理方法 pageCode = getPage(get_url) #传参 pattern = re.compile("(.*?).*?(.*?).*? ",re.S) items = re.findall(pattern,pageCode) pageStories = [] # 定义一个空数组,用来存分离出来的数据 for item in items: # 迭代 pageStories.append([item[0].strip(),item[1].strip(),item[2].strip()])# 去除空格 return pageStories
正则表达式,在程序刚开始,我们导入了python的re模块,这个模块专门处理正则匹配,详细教程点这里
我们用第一个(.*?)非贪婪匹配来匹配序号,接着用.*?贪婪匹配匹配不需要的代码,往后同样用非贪婪匹配来匹配我们需要的信息。
接着用strip()方法去除空格。返回得到的字符串pageStories。
6.3 数据存储def save_data(): Dbdata=filterpage() #传参 db=MySQLdb.connect(host="localhost",user="root",passwd="suyu.123",db="movie",charset="utf8") # 链接数据库 cursor=db.cursor() # 定义游标 for a in Dbdata: # 迭代存储数据 id=a[0] name=a[1] grade=a[2] value=[id,name,grade] cursor.execute("insert into movie_info values(%s,%s,%s)",value) # sql命令存数据 db.commit() # 别忘记提交变更
python操作mysql,感觉没啥好讲的了。。
6.4主函数def main(): pageStories=filterpage() # 传参 for story in pageStories: # 迭代打印 try: print u"序号:",story[0],u"电影名:",story[1], u" 评分:", story[2] except: pass
主函数主要是用来打印出我们抓取的数据。
6.5运行程序if __name__ == "__main__": get_url = "https://movie.douban.com/top250/" # 起始网页 i=1 while i < 11: main() # 运行主函数 save_data() # 运行存储函数 print u"页码",i # num = i * 25 get_url = "https://movie.douban.com/top250?start=" + str(num) + "&filter=" i = i + 1
通过豆瓣top250的页面分析可以知道,总共有10页,所以我们设置i<11,整个豆瓣电影top250的网址很有规律,第一页是:https://movie.douban.com/top250,第二页就是:https://movie.douban.com/top2...,这样的网页有规律,我喜欢,所以我们可以用迭代来表示所有网页,豆瓣业界良心啊。
7、运行结果GitHub地址:https://github.com/legolas-ze...
还有剩下的svg统计图,就下次更新吧。
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/40694.html
摘要:但是感觉还是需要一篇的教程,不然没有一个总体的认识。修饰器,表示每天会执行一次,这样就能抓到最新的电影了。不过更推荐使用选择器。既然前端程序员都使用选择器为页面上的不同元素设置样式,我们也可以通过它定位需要的元素。 虽然以前写过 如何抓取WEB页面 和 如何从 WEB 页面中提取信息。但是感觉还是需要一篇 step by step 的教程,不然没有一个总体的认识。不过,没想到这个教程居...
摘要:爬虫初入前端,刚刚接触,对于耳闻已久的爬虫非常神往,所以有了这篇文章,项目代码在文章末尾需求抓取天涯论坛重庆地区板块的文章列表信息。 node爬虫 初入前端,刚刚接触node,对于耳闻已久的node爬虫非常神往,所以有了这篇文章,项目代码在文章末尾 需求 抓取天涯论坛重庆地区板块的文章列表信息。 使用工具 node.js superagent(客户端请求代理模块) cheerio...
摘要:其次,使用后,还需要针对做特定处理。看到这就可以构想一下爬虫的爬取逻辑了。 运行环境 我的运行环境如下: 系统版本 Windows10。 Python版本 Python3.5,推荐使用Anaconda 这个科学计算版本,主要是因为它自带一个包管理工具,可以解决有些包安装错误的问题。去Anaconda官网,选择Python3.5版本,然后下载安装。 IDE 我使用的是PyCharm,是专...
阅读 2772·2021-11-22 14:45
阅读 2904·2021-09-10 11:26
阅读 3193·2021-09-07 10:18
阅读 2166·2019-08-30 14:08
阅读 596·2019-08-29 12:22
阅读 1379·2019-08-26 13:48
阅读 2483·2019-08-26 10:24
阅读 1132·2019-08-23 18:35