摘要:最后使用聚合函数,就得到了结果。从实现上看,返回的是一个结构,这个结构必须调用聚合函数如之后,才会得到结构为的数据结果。
介绍
每隔一段时间我都会去学习、回顾一下python中的新函数、新操作。这对于你后面的工作是有一定好处的。
本文重点介绍了pandas中groupby、Grouper和agg函数的使用。这2个函数作用类似,都是对数据集中的一类属性进行聚合操作,比如统计一个用户在每个月内的全部花销,统计某个属性的最大、最小、累和、平均等数值。
其中,agg是pandas 0.20新引入的功能
groupby && Grouper首先,我们从网上把数据下载下来,后面的操作都是基于这份数据的:
import pandas as pd df = pd.read_excel("https://github.com/chris1610/pbpython/blob/master/data/sample-salesv3.xlsx?raw=True") df["date"] = pd.to_datetime(df["date"]) df.head()
(图片来自于jupyter notebook,强烈推荐使用它作为python的交互工具)
下面,我们统计"ext price"这个属性在每个月的累和(sum)值,resample 只有在index为date类型的时候才能用:
df.set_index("date").resample("M")["ext price"].sum()
date 2014-01-31 185361.66 2014-02-28 146211.62 2014-03-31 203921.38 2014-04-30 174574.11 2014-05-31 165418.55 2014-06-30 174089.33 2014-07-31 191662.11 2014-08-31 153778.59 2014-09-30 168443.17 2014-10-31 171495.32 2014-11-30 119961.22 2014-12-31 163867.26 Freq: M, Name: ext price, dtype: float64
进一步的,我们想知道每个用户每个月的sum值,那么就需要一个groupby了:
df.set_index("date").groupby("name")["ext price"].resample("M").sum()
name date Barton LLC 2014-01-31 6177.57 2014-02-28 12218.03 2014-03-31 3513.53 2014-04-30 11474.20 2014-05-31 10220.17 2014-06-30 10463.73 2014-07-31 6750.48 2014-08-31 17541.46 2014-09-30 14053.61 2014-10-31 9351.68 2014-11-30 4901.14 2014-12-31 2772.90 Cronin, Oberbrunner and Spencer 2014-01-31 1141.75 2014-02-28 13976.26 2014-03-31 11691.62 2014-04-30 3685.44 2014-05-31 6760.11 2014-06-30 5379.67 2014-07-31 6020.30 2014-08-31 5399.58 2014-09-30 12693.74 2014-10-31 9324.37 2014-11-30 6021.11 2014-12-31 7640.60 Frami, Hills and Schmidt 2014-01-31 5112.34 2014-02-28 4124.53 2014-03-31 10397.44 2014-04-30 5036.18 2014-05-31 4097.87 2014-06-30 13192.19 ... Trantow-Barrows 2014-07-31 11987.34 2014-08-31 17251.65 2014-09-30 6992.48 2014-10-31 10064.27 2014-11-30 6550.10 2014-12-31 10124.23 White-Trantow 2014-01-31 13703.77 2014-02-28 11783.98 2014-03-31 8583.05 2014-04-30 19009.20 2014-05-31 5877.29 2014-06-30 14791.32 2014-07-31 10242.62 2014-08-31 12287.21 2014-09-30 5315.16 2014-10-31 19896.85 2014-11-30 9544.61 2014-12-31 4806.93 Will LLC 2014-01-31 20953.87 2014-02-28 13613.06 2014-03-31 9838.93 2014-04-30 6094.94 2014-05-31 11856.95 2014-06-30 2419.52 2014-07-31 11017.54 2014-08-31 1439.82 2014-09-30 4345.99 2014-10-31 7085.33 2014-11-30 3210.44 2014-12-31 12561.21 Name: ext price, Length: 240, dtype: float64
结果肯定是对的,但是不够完美。我们可以使用Grouper写得更加简洁:
# df.set_index("date").groupby("name")["ext price"].resample("M").sum() df.groupby(["name", pd.Grouper(key="date", freq="M")])["ext price"].sum()
结果和上面?一样,就不列出来了。
显然,这种写法多敲了很多次键盘,那么它的好处是啥呢?
首先,逻辑上更加直接,当你敲代码完成以上统计的时候,你首先想到的就是groupby操作,而set_index, resample好像不会立马想到。想到了groupby这个"动作"之后,你就会紧接着想按照哪个key来操作,此时
你只需要用字符串,或者Grouper把key定义好就行了。最后使用聚合函数,就得到了结果。所以,从人类的
思考角度看,后者更容易记忆。
另外,Grouper里的freq可以方便的改成其他周期参数(resample也可以),比如:
# 按照年度,且截止到12月最后一天统计ext price的sum值 df.groupby(["name", pd.Grouper(key="date", freq="A-DEC")])["ext price"].sum()
name date Barton LLC 2014-12-31 109438.50 Cronin, Oberbrunner and Spencer 2014-12-31 89734.55 Frami, Hills and Schmidt 2014-12-31 103569.59 Fritsch, Russel and Anderson 2014-12-31 112214.71 Halvorson, Crona and Champlin 2014-12-31 70004.36 Herman LLC 2014-12-31 82865.00 Jerde-Hilpert 2014-12-31 112591.43 Kassulke, Ondricka and Metz 2014-12-31 86451.07 Keeling LLC 2014-12-31 100934.30 Kiehn-Spinka 2014-12-31 99608.77 Koepp Ltd 2014-12-31 103660.54 Kuhn-Gusikowski 2014-12-31 91094.28 Kulas Inc 2014-12-31 137351.96 Pollich LLC 2014-12-31 87347.18 Purdy-Kunde 2014-12-31 77898.21 Sanford and Sons 2014-12-31 98822.98 Stokes LLC 2014-12-31 91535.92 Trantow-Barrows 2014-12-31 123381.38 White-Trantow 2014-12-31 135841.99 Will LLC 2014-12-31 104437.60 Name: ext price, dtype: float64agg
从0.20.1开始,pandas引入了agg函数,它提供基于列的聚合操作。而groupby可以看做是基于行,或者说index的聚合操作。
从实现上看,groupby返回的是一个DataFrameGroupBy结构,这个结构必须调用聚合函数(如sum)之后,才会得到结构为Series的数据结果。
而agg是DataFrame的直接方法,返回的也是一个DataFrame。当然,很多功能用sum、mean等等也可以实现。但是agg更加简洁, 而且传给它的函数可以是字符串,也可以自定义,参数是column对应的子DataFrame
举个栗子?吧:
df[["ext price", "quantity", "unit price"]].agg(["sum", "mean"])
怎么样,是不是比使用
df[["ext price", "quantity"]].sum() df["unit price"].mean()
简洁多了?
上例中,你还可以针对不同的列使用不同的聚合函数:
df.agg({"ext price": ["sum", "mean"], "quantity": ["sum", "mean"], "unit price": ["mean"]})
另外,自定义函数怎么用呢,也是so easy.
比如,我想统计sku中,购买次数最多的产品编号,可以这样做:
# 这里的x是sku对应的column get_max = lambda x: x.value_counts(dropna=False).index[0] df.agg({"ext price": ["sum", "mean"], "quantity": ["sum", "mean"], "unit price": ["mean"], "sku": [get_max]})
get_max = lambda x: x.value_counts(dropna=False).index[0] # python就是灵活啊。 get_max.__name__ = "most frequent" df.agg({"ext price": ["sum", "mean"], "quantity": ["sum", "mean"], "unit price": ["mean"], "sku": [get_max]})
另外,还有一个小问题,那就是如果你希望输出的列按照某个顺序排列,可以使用collections的OrderedDict:
get_max = lambda x: x.value_counts(dropna=False).index[0] get_max.__name__ = "most frequent" import collections agg_dict = { "ext price": ["sum", "mean"], "quantity": ["sum", "mean"], "unit price": ["mean"], "sku": [get_max]} # 按照列名的长度排序。 OrderedDict的顺序是跟插入顺序一致的 df.agg(collections.OrderedDict(sorted(agg_dict.items(), key = lambda x: len(x[0]))))总结
好好学习,天天向上!
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/41042.html
摘要:一大熊猫世界来去自如的老生常谈,从基础来看,我们仍然关心对于与外部数据是如何交互的。函数受限制问题唯一重要的参数,标志着一个的第个页将会被取出。数据分析入门之总结基础一欢迎来翔的博客查看完成版。 一.大熊猫世界来去自如:Pandas的I/O 老生常谈,从基础来看,我们仍然关心pandas对于与外部数据是如何交互的。 1.1 结构化数据输入输出 read_csv与to_csv 是⼀对...
摘要:直播数据分析针对直播间这个时间段的数据分析基础数据展示以上数据是从直播间的弹幕中提取的相关数据每个字段解释为唯一标识用户名发送的信息用户等级牌子牌子等级发言房间号依赖数据处理基础准备根据牌子名称统计最大值最小值平均值计算牌子的最大值最小值 直播数据分析 针对douyu_60937 直播间 (2018/11/19 19:04:18 - 2018/11/20 7:56:42) 这个时间...
pandas其实汇集了python函数的一个数据库,主要是用来调用数据的,作为其中的聚合函数,那么,其中的函数agg的具体用法是怎么样的呢?下面就给大家详细的解答下。 今天看到pandas的聚合函数agg,比较陌生,平时的工作中处理数据的时候使用的也比较少,为了加深印象,总结一下使用的方法,其实还是挺好用的。 DataFrame.agg(func,axis=0,*args,**kwargs...
摘要:是一个数据分析的开源库。与表格或关系数据库中的表非常神似。注意带有一个索引,类似于关系数据库中的主键。的统计函数分组与聚合通过方法,可以对数据组施加一系列的函数。函数的作用是串联,追加数据行使用函数。 pandas(Python data analysis)是一个Python数据分析的开源库。pandas两种数据结构:DataFrame和Series 安装:pandas依赖于NumPy...
摘要:数据规整化清理转换合并重塑数据聚合与分组运算数据规整化清理转换合并重塑合并数据集可根据一个或多个键将不同中的行链接起来。函数根据样本分位数对数据进行面元划分。字典或,给出待分组轴上的值与分组名之间的对应关系。 本篇内容为整理《利用Python进行数据分析》,博主使用代码为 Python3,部分内容和书本有出入。 在前几篇中我们介绍了 NumPy、pandas、matplotlib 三个...
阅读 3300·2021-11-23 09:51
阅读 2911·2021-10-28 09:33
阅读 875·2021-10-08 10:04
阅读 3681·2021-09-22 15:13
阅读 1014·2019-08-30 15:55
阅读 2905·2019-08-30 15:44
阅读 563·2019-08-30 13:04
阅读 2937·2019-08-30 12:56