资讯专栏INFORMATION COLUMN

Python爬虫实战之爬淘宝商品并做数据分析,现在赚钱没点技术还真不行!

jsyzchen / 1705人阅读

摘要:二效果预览获取到数据之后做了下分析,最终做成了柱状图,鼠标移动可以看出具体的商品数量。在元之间的商品最多,越往后越少,看来大多数的产品都是定位为低端市场。最后就是销量前的店铺和链接了。

之前我写了一个爬取淘宝商品的源码,给了一个小伙子学习,本想着后面写成文章分享给大家学习的,但没成想被那个小伙子捷足先登了…今天还是拿出来分享给大伙!

是这样的,之前接了一个金主的单子,他想在淘宝开个小鱼零食的网店,想对目前这个市场上的商品做一些分析,本来手动去做统计和分析也是可以的,这些信息都是对外展示的,只是手动比较麻烦,所以想托我去帮个忙。

一、 项目要求:

具体的要求如下:

1.在淘宝搜索“小鱼零食”,想知道前10页搜索结果的所有商品的销量和金额,按照他划定好的价格区间来统计数量,给我划分了如下的一张价格区间表:

2.这10页搜索结果中,商家都是分布在全国的哪些位置?

3.这10页的商品下面,用户评论最多的是什么?

4.从这些搜索结果中,找出销量最多的10家店铺名字和店铺链接。

从这些要求来看,其实这些需求也不难实现,我们先来看一下项目的效果。


二、效果预览

获取到数据之后做了下分析,最终做成了柱状图,鼠标移动可以看出具体的商品数量。

在10~30元之间的商品最多,越往后越少,看来大多数的产品都是定位为低端市场。

然后我们再来看一下全国商家的分布情况:

可以看出,商家分布大多都是在沿海和长江中下游附近,其中以沿海地区最为密集。

然后再来看一下用户都在商品下面评论了一些什么:

字最大的就表示出现次数最多,口感味道、包装品质、商品分量和保质期是用户评价最多的几个方面,那么在产品包装的时候可以从这几个方面去做针对性阐述,解决大多数人比较关心的问题。

最后就是销量前10的店铺和链接了。

在拿到数据并做了分析之后,我也在想,如果这个东西是我来做的话,我能不能看出来什么东西?或许可以从价格上找到切入点,或许可以从产品地理位置打个差异化,又或许可以以用户为中心,由外而内地做营销。

越往深想,越觉得有门道,算了,对于小鱼零食这一块我是外行,不多想了。


三、爬虫源码

由于源码分了几个源文件,还是比较长的,所以这里就不跟大家一一讲解了,懂爬虫的人看几遍就看懂了,不懂爬虫的说再多也是云里雾里,等以后学会了爬虫再来看就懂了。

import csvimport osimport timeimport wordcloudfrom selenium import webdriverfrom selenium.webdriver.common.by import Bydef tongji():    prices = []    with open("前十页销量和金额.csv", "r", encoding="utf-8", newline="") as f:        fieldnames = ["价格", "销量", "店铺位置"]        reader = csv.DictReader(f, fieldnames=fieldnames)        for index, i in enumerate(reader):            if index != 0:                price = float(i["价格"].replace("¥", ""))                prices.append(price)    DATAS = {"<10": 0, "10~30": 0, "30~50": 0,             "50~70": 0, "70~90": 0, "90~110": 0,             "110~130": 0, "130~150": 0, "150~170": 0, "170~200": 0, }    for price in prices:        if price < 10:            DATAS["<10"] += 1        elif 10 <= price < 30:            DATAS["10~30"] += 1        elif 30 <= price < 50:            DATAS["30~50"] += 1        elif 50 <= price < 70:            DATAS["50~70"] += 1        elif 70 <= price < 90:            DATAS["70~90"] += 1        elif 90 <= price < 110:            DATAS["90~110"] += 1        elif 110 <= price < 130:            DATAS["110~130"] += 1        elif 130 <= price < 150:            DATAS["130~150"] += 1        elif 150 <= price < 170:            DATAS["150~170"] += 1        elif 170 <= price < 200:            DATAS["170~200"] += 1    for k, v in DATAS.items():        print(k, ":", v)def get_the_top_10(url):    top_ten = []    # 获取代理    ip = zhima1()[2][random.randint(0, 399)]    # 运行quicker动作(可以不用管)    os.system(""C:/Program Files/Quicker/QuickerStarter.exe" runaction:5e3abcd2-9271-47b6-8eaf-3e7c8f4935d8")    options = webdriver.ChromeOptions()    # 远程调试Chrome    options.add_experimental_option("debuggerAddress", "127.0.0.1:9222")    options.add_argument(f"--proxy-server={ip}")    driver = webdriver.Chrome(options=options)    # 隐式等待    driver.implicitly_wait(3)    # 打开网页    driver.get(url)    # 点击部分文字包含"销量"的网页元素    driver.find_element(By.PARTIAL_LINK_TEXT, "销量").click()    time.sleep(1)    # 页面滑动到最下方    driver.execute_script("window.scrollTo(0,document.body.scrollHeight)")    time.sleep(1)    # 查找元素    element = driver.find_element(By.ID, "mainsrp-itemlist").find_element(By.XPATH, ".//div[@class="items"]")    items = element.find_elements(By.XPATH, ".//div[@data-category="auctions"]")    for index, item in enumerate(items):        if index == 10:            break        # 查找元素        price = item.find_element(By.XPATH, "./div[2]/div[1]/div[contains(@class,"price")]").text        paid_num_data = item.find_element(By.XPATH, "./div[2]/div[1]/div[@class="deal-cnt"]").text        store_location = item.find_element(By.XPATH, "./div[2]/div[3]/div[@class="location"]").text        store_href = item.find_element(By.XPATH, "./div[2]/div[@class="row row-2 title"]/a").get_attribute(            "href").strip()        # 将数据添加到字典        top_ten.append(            {"价格": price,             "销量": paid_num_data,             "店铺位置": store_location,             "店铺链接": store_href             })    for i in top_ten:        print(i)def get_top_10_comments(url):    with open("排名前十评价.txt", "w+", encoding="utf-8") as f:        pass    # ip = ipidea()[1]    os.system(""C:/Program Files/Quicker/QuickerStarter.exe" runaction:5e3abcd2-9271-47b6-8eaf-3e7c8f4935d8")    options = webdriver.ChromeOptions()    options.add_experimental_option("debuggerAddress", "127.0.0.1:9222")    # options.add_argument(f"--proxy-server={ip}")    driver = webdriver.Chrome(options=options)    driver.implicitly_wait(3)    driver.get(url)    driver.find_element(By.PARTIAL_LINK_TEXT, "销量").click()    time.sleep(1)    element = driver.find_element(By.ID, "mainsrp-itemlist").find_element(By.XPATH, ".//div[@class="items"]")    items = element.find_elements(By.XPATH, ".//div[@data-category="auctions"]")    original_handle = driver.current_window_handle    item_hrefs = []    # 先获取前十的链接    for index, item in enumerate(items):        if index == 10:            break        item_hrefs.append(            item.find_element(By.XPATH, ".//div[2]/div[@class="row row-2 title"]/a").get_attribute("href").strip())    # 爬取前十每个商品评价    for item_href in item_hrefs:        # 打开新标签        # item_href = "https://item.taobao.com/item.htm?id=523351391646&ns=1&abbucket=11#detail"        driver.execute_script(f"window.open("{item_href}")")        # 切换过去        handles = driver.window_handles        driver.switch_to.window(handles[-1])        # 页面向下滑动一部分,直到让评价那两个字显示出来        try:            driver.find_element(By.PARTIAL_LINK_TEXT, "评价").click()        except Exception as e1:            try:                x = driver.find_element(By.PARTIAL_LINK_TEXT, "评价").location_once_scrolled_into_view                driver.find_element(By.PARTIAL_LINK_TEXT, "评价").click()            except Exception as e2:                try:                    # 先向下滑动100,放置评价2个字没显示在屏幕内                    driver.execute_script("var q=document.documentElement.scrollTop=100")                    x = driver.find_element(By.PARTIAL_LINK_TEXT, "评价").location_once_scrolled_into_view                except Exception as e3:                    driver.find_element(By.XPATH, "/html/body/div[6]/div/div[3]/div[2]/div/div[2]/ul/li[2]/a").click()        time.sleep(1)        try:            trs = driver.find_elements(By.XPATH, "//div[@class="rate-grid"]/table/tbody/tr")            for index, tr in enumerate(trs):                if index == 0:                    comments = tr.find_element(By.XPATH, "./td[1]/div[1]/div/div").text.strip()                else:                    try:                        comments = tr.find_element(By.XPATH,                                                   "./td[1]/div[1]/div[@class="tm-rate-fulltxt"]").text.strip()                    except Exception as e:                        comments = tr.find_element(By.XPATH,                                                   "./td[1]/div[1]/div[@class="tm-rate-content"]/div[@class="tm-rate-fulltxt"]").text.strip()                with open("排名前十评价.txt", "a+", encoding="utf-8") as f:                    f.write(comments + "/n")                    print(comments)        except Exception as e:            lis = driver.find_elements(By.XPATH, "//div[@class="J_KgRate_MainReviews"]/div[@class="tb-revbd"]/ul/li")            for li in lis:                comments = li.find_element(By.XPATH, "./div[2]/div/div[1]").text.strip()                with open("排名前十评价.txt", "a+", encoding="utf-8") as f:                    f.write(comments + "/n")                    print(comments)def get_top_10_comments_wordcloud():    file = "排名前十评价.txt"    f = open(file, encoding="utf-8")    txt = f.read()    f.close()    w = wordcloud.WordCloud(width=1000,                            height=700,                            background_color="white",                            font_path="msyh.ttc")    # 创建词云对象,并设置生成图片的属性    w.generate(txt)    name = file.replace(".txt", "")    w.to_file(name + "词云.png")    os.startfile(name + "词云.png")def get_10_pages_datas():    with open("前十页销量和金额.csv", "w+", encoding="utf-8", newline="") as f:        f.write("/ufeff")        fieldnames = ["价格", "销量", "店铺位置"]        writer = csv.DictWriter(f, fieldnames=fieldnames)        writer.writeheader()    infos = []    options = webdriver.ChromeOptions()    options.add_experimental_option("debuggerAddress", "127.0.0.1:9222")    # options.add_argument(f"--proxy-server={ip}")    driver = webdriver.Chrome(options=options)    driver.implicitly_wait(3)    driver.get(url)    # driver.execute_script("window.scrollTo(0,document.body.scrollHeight)")    element = driver.find_element(By.ID, "mainsrp-itemlist").find_element(By.XPATH, ".//div[@class="items"]")    items = element.find_elements(By.XPATH, ".//div[@data-category="auctions"]")    for index, item in enumerate(items):        price = item.find_element(By.XPATH, "./div[2]/div[1]/div[contains(@class,"price")]").text        paid_num_data = item.find_element(By.XPATH, "./div[2]/div[1]/div[@class="deal-cnt"]").text        store_location = item.find_element(By.XPATH, "./div[2]/div[3]/div[@class="location"]").text        infos.append(            {"价格": price,             "销量": paid_num_data,             "店铺位置": store_location})    try:        driver.find_element(By.PARTIAL_LINK_TEXT, "下一").click()    except Exception as e:        driver.execute_script("window.scrollTo(0,document.body.scrollHeight)")        driver.find_element(By.PARTIAL_LINK_TEXT, "下一").click()    for i in range(9):        time.sleep(1)        driver.execute_script("window.scrollTo(0,document.body.scrollHeight)")        element = driver.find_element(By.ID, "mainsrp-itemlist").find_element(By.XPATH, ".//div[@class="items"]")        items = element.find_elements(By.XPATH, ".//div[@data-category="auctions"]")        for index, item in enumerate(items):            try:                price = item.find_element(By.XPATH, "./div[2]/div[1]/div[contains(@class,"price")]").text            except Exception:                time.sleep(1)                driver.execute_script("window.scrollTo(0,document.body.scrollHeight)")                price = item.find_element(By.XPATH, "./div[2]/div[1]/div[contains(@class,"price")]").text            paid_num_data = item.find_element(By.XPATH, "./div[2]/div[1]/div[@class="deal-cnt"]").text            store_location = item.find_element(By.XPATH, "./div[2]/div[3]/div[@class="location"]").text            infos.append(                {"价格": price,                 "销量": paid_num_data,                 "店铺位置": store_location})        try:            driver.find_element(By.PARTIAL_LINK_TEXT, "下一").click()        except Exception as e:            driver.execute_script("window.scrollTo(0,document.body.scrollHeight)")            driver.find_element(By.PARTIAL_LINK_TEXT, "下一").click()        # 一页结束        for info in infos:            print(info)        with open("前十页销量和金额.csv", "a+", encoding="utf-8", newline="") as f:            fieldnames = ["价格", "销量", "店铺位置"]            writer = csv.DictWriter(f, fieldnames=fieldnames)            for info in infos:                writer.writerow(info)if __name__ == "__main__":    url = "https://s.taobao.com/search?q=%E5%B0%8F%E9%B1%BC%E9%9B%B6%E9%A3%9F&imgfile=&commend=all&ssid=s5-e&search_type=item&sourceId=tb.index&spm=a21bo.21814703.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306&bcoffset=4&ntoffset=4&p4ppushleft=2%2C48&s=0"    # get_10_pages_datas()    # tongji()    # get_the_top_10(url)    # get_top_10_comments(url)    get_top_10_comments_wordcloud()

通过上面的代码,我们能获取到想要获取的数据,然后再Bar和Geo进行柱状图和地理位置分布展示,这两块大家可以去摸索一下。


结语

项目源码我都可以分享给大家,但也请大家尊重一下原开发者,千万不要未经允许就擅自把别人的代码编成你的故事,那个小伙子想找他聊聊他都不理我了…诶。

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/119023.html

相关文章

  • 零基础如何学爬虫技术

    摘要:楚江数据是专业的互联网数据技术服务,现整理出零基础如何学爬虫技术以供学习,。本文来源知乎作者路人甲链接楚江数据提供网站数据采集和爬虫软件定制开发服务,服务范围涵盖社交网络电子商务分类信息学术研究等。 楚江数据是专业的互联网数据技术服务,现整理出零基础如何学爬虫技术以供学习,http://www.chujiangdata.com。 第一:Python爬虫学习系列教程(来源于某博主:htt...

    KunMinX 评论0 收藏0
  • Python爬虫学习路线

    摘要:以下这些项目,你拿来学习学习练练手。当你每个步骤都能做到很优秀的时候,你应该考虑如何组合这四个步骤,使你的爬虫达到效率最高,也就是所谓的爬虫策略问题,爬虫策略学习不是一朝一夕的事情,建议多看看一些比较优秀的爬虫的设计方案,比如说。 (一)如何学习Python 学习Python大致可以分为以下几个阶段: 1.刚上手的时候肯定是先过一遍Python最基本的知识,比如说:变量、数据结构、语法...

    liaoyg8023 评论0 收藏0
  • Scrapy 实战之爬取妹子图

    摘要:很多人学习爬虫的第一驱动力就是爬取各大网站的妹子图片,比如比较有名的。最后我们只需要运行程序,即可执行爬取,程序运行命名如下完整代码我已上传到微信公众号后台,在痴海公众号后台回复即可获取。本文首发于公众号痴海,后台回复即可获取最新编程资源。 showImg(https://segmentfault.com/img/remote/1460000016780800); 阅读文本大概需要 1...

    Achilles 评论0 收藏0
  • 首次公开,整理12年积累的博客收藏夹,零距离展示《收藏夹吃灰》系列博客

    摘要:时间永远都过得那么快,一晃从年注册,到现在已经过去了年那些被我藏在收藏夹吃灰的文章,已经太多了,是时候把他们整理一下了。那是因为收藏夹太乱,橡皮擦给设置私密了,不收拾不好看呀。 ...

    Harriet666 评论0 收藏0
  • 手把手教你写电商爬虫-第五课 京东商品评论爬虫 一起来对付反爬虫

    摘要:和前面几节课类似的分析这节课就不做了,对于分页,请求什么的,大家可以直接参考前面的四节课,这一刻主要特别的是,我们在采集商品的同时,会将京东的商品评价采集下来。 系列教程: 手把手教你写电商爬虫-第一课 找个软柿子捏捏 手把手教你写电商爬虫-第二课 实战尚妆网分页商品采集爬虫 手把手教你写电商爬虫-第三课 实战尚妆网AJAX请求处理和内容提取 手把手教你写电商爬虫-第四课 淘宝网商品爬...

    jsummer 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<