资讯专栏INFORMATION COLUMN

python告诉你ti8 dota2英雄bp

zhonghanwen / 3015人阅读

摘要:创建表格创建工作表创建表头图片英雄图片英雄图片英雄第一行为表头第一行是表头,对应的每一列填充数据行设置行高列英雄图片,根据获取英雄名统计次数表格生成,还可以插入柱状图。

文章链接:https://mp.weixin.qq.com/s/phJzZEQojndY-iNe77RF_w

恭喜OG成为ti8冠军,很可惜这次偶数年ti8中国队LGD与冠军失之交臂。

上学那会儿还是个dota的玩家,现在已经不玩了,对于这种国际性的赛事还是会比较关注的,这篇文章就是爬取ti8期间,bp英雄的统计(b是ban的简称:禁止一个英雄上场;p是pick的简称:挑选英雄上场)。

python爬虫之前写过几篇文章的,都是用requests+ BeautifulSoup 进行页面解析获取数据的。

python itchat 爬取微信好友信息

python爬虫学习:爬虫QQ说说并生成词云图,回忆满满

一如既往的,找到这样的页面,但是却解析不到这些数据。

再仔细一看,原来这些数据是js动态加载渲染的,可以看到是接口请求来的数据,庆幸的是这个接口不需要cookie之类的验证信息的,直接get请求可以拿到数据,这样处理起来就方便的,对照页面可以知道json格式的各字段名。

json结构分析

数据来源是接口,直接

response = requests.get(url)
data = json.loads(response.text)

通过json.loads 去解析string类型的数据,主要数据格式如下:

{
    total: 402,
    data: [{
        match_id: 4080856812,
        radiant: {
            team_id: 15,
            name: "PSG.LGD",
            tag: "PSG.LGD",
            country_code: "CN",
            score: 34,
            bans: [{ //每个英雄数据
                name: "spectre",
                name_cn: "幽鬼",
                id: 67
            }, ...],
            picks: [{
                name: "earthshaker",
                name_cn: "撼地者",
                id: 7
            }, ...]
        },
        dire: {
            team_id: 2586976,
            name: "OG",
            tag: "OG",
            country_code: "US",
            score: 35,
            bans: [{
                name: "tiny",
                name_cn: "小小",
                id: 19
            }, ...],
            picks: [{
                name: "furion",
                name_cn: "先知",
                id: 53
            }, ...]
        },
        radiant_win: 0,
        end_time: "2018-08-26 10:51"
    }, ...]
}

每个item含radiant、dire ,其中radiant_win: 1,代表radiant 获胜,0 则代表dire 获胜。bans里面的是ban的英雄数据列表,picks里面是pick的英雄数据列表。

这里是用循环不断去请求获取的,每次的数据是20条,可以改变size改变条数。

page = 1
while True:
    url = "https://www.dotamore.com/api/v1/league/matchlist?league_id=9870&page=%d&size=20" % page
    response = requests.get(url)
    data = json.loads(response.text)
    page += 1
    for item in data["data"]:
        # 比赛从8月16开始,小于这个时间生成excel,跳出循环
        if item["end_time"] < "018-08-16 00:00":
            //生成excel
            ...
        return
        //bp数据
        ...
bp数据

每项里面的bans、picks数据都要处理,每个英雄是一条记录,重复的就+1,所以给每个英雄count 的属性,记录次数。

# item 指radiant 或dire 的bans、picks列表数据
def bp(item, bp_dict):
    if item is None:
        return
    # 遍历bans 或picks 数据
    for i, bp in enumerate(item):
        key = bp["name"]
        # 如果这个英雄已存在,count+1
        if key in bp_dict.keys():
            bp_dict[key]["count"] = bp_dict[key]["count"] + 1
        else:  # 不存在就记录一条数据
            bp_dict[key] = copy.deepcopy(bp)
            bp_dict[key].update(count=1)
    return bp_dict

每条英雄数据是个键值对字典,键是name 属性即英文名字,值就是bans、picks里的各项英雄数据,顺便加上了count 属性。每个英雄数据存在dict()

{ //每条英雄数据
    name: "tiny",
    name_cn: "小小",
    id: 19,
    count:1
}

分别获取两只队伍bp数据存放

b_dict = dict()
p_dict = dict()
# ban的数据
bp(item["radiant"]["bans"], b_dict)
bp(item["dire"]["bans"], b_dict)
# pick的数据
bp(item["radiant"]["picks"], p_dict)
bp(item["dire"]["picks"], p_dict)

也可以统计所有英雄的出场次数,非搬即选bp_list。
还可以获取冠军队伍的bp情况,team_id 即队伍的id。

if item["radiant_win"] == 0:
    if item["dire"]["team_id"] == "2586976":
        bp(item["dire"]["bans"], b_win_dict)
        bp(item["dire"]["picks"], p_win_dict)
else:
    if item["radiant"]["team_id"] == "2586976":
        bp(item["radiant"]["bans"], b_win_dict)
        bp(item["radiant"]["picks"], p_win_dict)
生成excel

以上数据我们得到的是字典,里面有各英雄的bp次数,现在要对这些数据进行排序,按次数从大到小排序,这里就用到sorted()方法

# x[0]是根据键排序,x[1]是根据值,这里的值是字典,取["count"]项排序,得到的是元祖的list
new_b_dict = sorted(b_dict.items(), key=lambda x: x[1]["count"], reverse=True)

得到的是数组,生成表格在之前这篇文章中有过使用,这里使用的是xlsxwriter三方库来操作excel 表格的。

# 创建excel表格
file = xlsxwriter.Workbook("dota.xlsx")
# 创建工作表1
sheet1 = file.add_worksheet("sheet1")
# 创建表头
headers = ["图片", "英雄", "ban", "", "图片", "英雄", "pick", "", "图片", "英雄", "bp_all"]
for i, header in enumerate(headers):
    # 第一行为表头
    sheet1.write(0, i, header)

第一行是表头,对应的每一列填充数据

def insert_data(sheet1, headers, bp_list, col1, col2, col3):
    for row in range(len(bp_list)):  # 行
        # 设置行高
        sheet1.set_row(row + 1, 30)
        for col in range(len(headers)):  # 列
            if col == col1:  # 英雄图片,根据id获取
                url = "http://cdn.dotamore.com/heros_id_62_35/%d.png" % bp_list[row][1]["id"]
                image_data = BytesIO(urlopen(url).read())
                sheet1.insert_image(row + 1, col, url, {"image_data": image_data})
            if col == col2:  # 英雄名
                name = bp_list[row][1]["name_cn"]
                sheet1.write(row + 1, col, name)
            if col == col3:  # 统计次数
                count = bp_list[row][1]["count"]
                sheet1.write(row + 1, col, count)

excel 表格生成,还可以插入柱状图。

def insert_chart(file, sheet1, bp_list, name, M, col_x, col_y):
    chart = file.add_chart({"type": "column"})  # 柱状图
    chart.add_series({
        "categories": ["sheet1", 1, col_x, len(bp_list), col_x],  # 图表类别标签范围,x轴,这里取英雄的名字,即英雄名字那一列,行数根据数据列表确定
        "values": ["sheet1", 1, col_y, len(bp_list), col_y],  # 图表数据范围,y轴,即次数那一列,行数根据数据列表确定
        "data_labels": {"value": True},
    })
    chart.set_title({"name": name})  # 图表标题
    chart.set_size({"width": 2000, "height": 400})
    chart.set_x_axis({"name": "英雄"})  # x轴描述
    chart.set_y_axis({"name": "次数"})  # y轴描述
    chart.set_style(3)  # 直方图类型
    sheet1.insert_chart(M, chart)  # 在表格M处插入柱状图

效果图:

这里只是简单的对数据进行筛选展示,这些数据还是可以用来做更多的数据分析的,数据来源:刀魔数据。
github地址:https://github.com/taixiang/py_dota

最后放上lgd的图片,希望他们明年能在ti9上再干回来

欢迎关注我的博客:https://blog.manjiexiang.cn/
更多精彩欢迎关注微信号:春风十里不如认识你

有个「佛系码农圈」,欢迎大家加入畅聊,开心就好!


过期了,可加我微信 tx467220125 拉你入群。

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/42309.html

相关文章

  • 2016年,我对爬虫的总结

    摘要:都说年末了,该给自己写写总结了。我现在做一些简单的爬虫都会用它。并且对数据的实时性要求较高,或者爬数据的时候封的太厉害了。对于这一类的爬虫。消息队列用于分发消息给某个爬虫节点。爬虫节点完成具体的爬虫,格式化爬虫数据。最后,感谢我的,谢谢 都说年末了,该给自己写写总结了。今天我想谈一谈的是我在公司这一年多里的负责的部分工作---爬虫。做了这么久的爬虫,是该写点什么,留下点什么。在我所负责...

    netmou 评论0 收藏0
  • 大话爬虫的基本套路

    摘要:有什么作用通过有效的爬虫手段批量采集数据,可以降低人工成本,提高有效数据量,给予运营销售的数据支撑,加快产品发展。因为信息是完全公开的,所以是合法的。 showImg(https://segmentfault.com/img/remote/1460000011359885?w=566&h=316);   什么是爬虫? 网络爬虫也叫网络蜘蛛,如果把互联网比喻成一个蜘蛛网,那么蜘蛛就是在...

    Towers 评论0 收藏0
  • 复仇者联盟谁才是绝对 C 位?Python分析9万条数据告诉答案

    摘要:数据库文件已经超过了了。复联从开始便是漫威宇宙各路超级英雄的集结,到现在的第部,更是全英雄的汇聚。所以,灭霸出现的次数居然高于了钢铁侠。情感分析,又称为意见挖掘倾向性分析等。 showImg(https://segmentfault.com/img/remote/1460000019095022); 作者 | 罗昭成责编 | 唐小引 《复联 4》国内上映第十天,程序员的江湖里开始流传这...

    shiweifu 评论0 收藏0
  • Python列表和Dictionary简介

    摘要:如果没有,请记住列表中的第一项是项。通过练习,您将更好地计算列表中的项目。例如,要将项添加到我们的水果列表中,我们可以使用名为的方法。通过这样做,该项目的值也将被删除。在中,这意味着使用以及名称和要删除的项目的名称。 showImg(https://segmentfault.com/img/remote/1460000019177365?w=852&h=479); 来源 | 愿码(C...

    dunizb 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<