资讯专栏INFORMATION COLUMN

Python爬虫之使用MongoDB存储数据

shiina / 1373人阅读

摘要:的安装是一种非关系型数据库官网选择你的系统对应的版本下载安装即可配置在盘或者盘建一个文件夹如图安装成功后里面会有文件然后再文件夹里面新建一个文件夹,文件里面新建文件夹文件夹用于存储数据在文件路径下打开命令行工具执行下面的命令注意文件夹路

1.MongoDB的安装

MongoDB是一种非关系型数据库

MongoDB官网

选择你的系统对应的版本下载安装即可

2.MongoDB配置

a.在C盘或者D盘建一个文件夹如图mongodb

b.安装成功后里面会有bin文件然后再文件夹里面新建一个data文件夹,data文件里面新建db文件夹

db文件夹用于存储MongoDB数据

c.在bin文件路径下打开命令行工具执行下面的命令

</>复制代码

  1. mongod --dbpath C:mongdbdatadb


注意:文件夹路径以自己所建的为准

d.此时在打开一个命令行在bin路径下执行下面的代码

</>复制代码

  1. mongo

3.安装第三方库pymongo(连接MongoDB)

</>复制代码

  1. pip3 install pymongo
4.安装Mongodb可视化管理工具Robomongo

Robomongo官网

安装成功之后启动Robomongo,在空白处点击,然后选择Add命令,单击Save,最后点击Connect按钮连接到MongoDB数据库

5.案例代码

引入相应的模块

</>复制代码

  1. import requests
  2. from lxml import etree
  3. import re
  4. import pymongo
  5. import time

连接mongodb数据库

</>复制代码

  1. client = pymongo.MongoClient("localhost", 27017)
  2. mydb = client["mydb"]
  3. musictop = mydb["musictop"]

案例完整代码

</>复制代码

  1. import requests
  2. from lxml import etree
  3. import re
  4. import pymongo
  5. import time
  6. client = pymongo.MongoClient("localhost", 27017)
  7. mydb = client["mydb"]
  8. musictop = mydb["musictop"]
  9. headers = {
  10. "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36"
  11. }
  12. def get_url_music(url):
  13. html = requests.get(url, headers=headers)
  14. selector = etree.HTML(html.text)
  15. music_hrefs = selector.xpath("//a[@class="nbg"]/@href")
  16. for music_href in music_hrefs:
  17. get_music_info(music_href)
  18. def get_music_info(url):
  19. html = requests.get(url, headers=headers)
  20. selector = etree.HTML(html.text)
  21. name = selector.xpath("//*[@id="wrapper"]/h1/span/text()")[0]
  22. author = re.findall("表演者:.*?>(.*?)", html.text,re.S)[0]
  23. styles = re.findall("流派: (.*?)
    ",html.text,re.S)
  24. if len(styles) == 0:
  25. style = "未知"
  26. else:
  27. style = styles[0].strip()
  28. time = re.findall("发行时间: (.*?)
    ", html.text, re.S)[0].strip()
  29. publishers = re.findall("出版者:.*?>(.*?)", html.text, re.S)
  30. if len(publishers) == 0:
  31. publishers = "未知"
  32. else:
  33. publishers = publishers[0].strip()
  34. score = selector.xpath("//*[@id="interest_sectl"]/div/div[2]/strong/text()")[0]
  35. print(name, author, style, time, publishers, score)
  36. info = {
  37. "name": name,
  38. "author": author,
  39. "style": style,
  40. "time": time,
  41. "publisher": publishers,
  42. "score": score
  43. }
  44. musictop.insert_one(info)
  45. if __name__ == "__main__":
  46. urls = ["https://music.douban.com/top250?start={}".format(str(i)) for i in range(0, 250, 25)]
  47. for url in urls:
  48. get_url_music(url)
  49. time.sleep(2)
6.执行爬虫代码,然后到Robomongo刷新就会看到数据已经有啦

7.本文只是入门级别,我分享出来希望和大家一起学习进步! 我还写了Vue插件开发和抢红包的小游戏(欢迎Star)

Vue插件开发

抢红包小游戏

Python爬虫入门

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/19289.html

相关文章

  • Python爬虫使用MongoDB存储数据

    摘要:的安装是一种非关系型数据库官网选择你的系统对应的版本下载安装即可配置在盘或者盘建一个文件夹如图安装成功后里面会有文件然后再文件夹里面新建一个文件夹,文件里面新建文件夹文件夹用于存储数据在文件路径下打开命令行工具执行下面的命令注意文件夹路 1.MongoDB的安装 MongoDB是一种非关系型数据库 MongoDB官网 showImg(https://segmentfault.com/i...

    james 评论0 收藏0
  • Python3网络爬虫实战---4、数据库的安装:MySQL、MongoDB、Redis

    摘要:的安装是一个轻量级的关系型数据库,以表的形式来存储数据,本节我们来了解下它的安装方式。相关链接官方网站下载地址中文教程下的安装推荐使用安装,执行命令即可。上一篇文章网络爬虫实战解析库的安装下一篇文章网络爬虫实战存储库的安装 上一篇文章:Python3网络爬虫实战---3、解析库的安装:LXML、BeautifulSoup、PyQuery、Tesserocr下一篇文章:Python3网络...

    winterdawn 评论0 收藏0
  • Python3网络爬虫实战---5、存储库的安装:PyMySQL、PyMongo、RedisPy、R

    摘要:相关链接官方文档安装推荐使用安装,命令如下运行完毕之后即可完成的安装。上一篇文章网络爬虫实战数据库的安装下一篇文章网络爬虫实战库的安装 上一篇文章:Python3网络爬虫实战---4、数据库的安装:MySQL、MongoDB、Redis下一篇文章:Python3网络爬虫实战---6、Web库的安装:Flask、Tornado 在前面一节我们介绍了几个数据库的安装方式,但这仅仅是用来存...

    AlanKeene 评论0 收藏0
  • Python3网络爬虫实战---33、数据存储:非关系型数据存储:MongoDB

    摘要:列存储数据库,代表有等。运行结果返回结果是字典形式,即代表执行成功,代表影响的数据条数。上一篇文章网络爬虫实战数据存储关系型数据库存储下一篇文章网络爬虫实战数据存储非关系型数据库存储 上一篇文章:Python3网络爬虫实战---32、数据存储:关系型数据库存储:MySQL下一篇文章:Python3网络爬虫实战---34、数据存储:非关系型数据库存储:Redis NoSQL,全称 No...

    XanaHopper 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<