资讯专栏INFORMATION COLUMN

Python数据分析入门之pandas总结基础(一)

alanoddsoff / 3424人阅读

摘要:整个序列级别的元数据信息当数据序列以及本身有了名字,就可以更方便的进行后续的数据关联啦这里我感觉就是列名的作用。数据分析入门之总结基础二欢迎来翔的博客查看完成版。

一. Series

Series: pandas的长枪(数据表中的一列或一行,观测向量,一维数组...)

Series1 = pd.Series(np.random.randn(4))

print Series1,type(Series1) 

print Series1.index

print Series1.values

输出结果:

0   -0.676256

1    0.533014

2   -0.935212

3   -0.940822

dtype: float64 

Int64Index([0, 1, 2, 3], dtype="int64")

[-0.67625578  0.53301431 -0.93521212 -0.94082195]

np.random.randn() 正态分布相关。函数说明

Series⽀持过滤的原理就如同NumPy
print Series1>0 

print Series1[Series1>0]

输出结果如下:

0 0.030480

1 0.072746

2 -0.186607

3 -1.412244

dtype: float64 

Int64Index([0, 1, 2, 3], dtype="int64")

[ 0.03048042 0.07274621 -0.18660749 -1.41224432]

我发现,逻辑表达式,获得的值就是True或者False。要先取得值,还是要X[y]的形式。

当然也支持广播Broadcasting

什么是broadcasting,暂时我也不太清楚,看个栗子:

print Series1*2 

print Series1+5

输出结果如下:

0 0.06096

1 1 0.145492 

2 -0.373215 

3 -2.824489 

dtype: float64 

0 5.030480 

1 5.072746 

2 4.813393 

3 3.587756 

dtype: float64
以及Universal Function

numpy.frompyfunc(out,nin,nout) 返回的是一个函数,nin是输入的参数个数,nout是函数返回的对象的个数函数说明

在序列上就使用行标,而不是创建1个2列的数据表,能够轻松辨别哪是数据,哪是元数据

这句话的意思,我的理解是序列尽量是一列,不用去创建2列,这样子,使用index就能指定数据了`

Series2 = pd.Series(Series1.values,index=["norm_"+unicode(i) for i in xrange(4)])

print Series2,type(Series2)

print Series2.index

print type(Series2.index)

print Series2.values

输出结果如下,可以看到,它是通过修改了index值的样式,并没有创建2列。

norm_0   -0.676256

norm_1    0.533014

norm_2   -0.935212

norm_3   -0.940822

dtype: float64 

Index([u"norm_0", u"norm_1", u"norm_2", u"norm_3"], dtype="object")



[-0.67625578  0.53301431 -0.93521212 -0.94082195]

虽然行是有顺序的,但是仍然能够通过行级的index来访问到数据:

(当然也不尽然像Ordered Dict,因为⾏索引甚⾄可以重复,不推荐重复的行索引不代表不能用)

print Series2[["norm_0","norm_3"]]

可以看到,读取数据时,确实要采用X[y]的格式。这里X[[y]]是因为,它要读取两个数据,指定的是这两个数据的index值,将index值存放进list中,然后读取。输出结果如下:

norm_0   -0.676256

norm_3   -0.940822

dtype: float64

再比如:

print "norm_0" in Series2

print "norm_6" in Series2

输出结果:

True

False

逻辑表达式的输出结果,布尔型值。

从Key不重复的Ordered Dict或者从Dict来定义Series就不需要担心行索引重复:
Series3_Dict = {"Japan":"Tokyo","S.Korea":"Seoul","China":"Beijing"}

Series3_pdSeries = pd.Series(Series3_Dict)

print Series3_pdSeries

print Series3_pdSeries.values

print Series3_pdSeries.index

输出结果:

China Beijing

Japan Tokyo

S.Korea Seoul

dtype: object

["Beijing" "Tokyo" "Seoul"]

Index([u"China", u"Japan", u"S.Korea"], dtype="object")

通过上面的输出结果就知道了,输出结果是无序的,和输入顺序无关。

想让序列按你的排序⽅式保存?就算有缺失值都毫无问题

Series4_IndexList = ["Japan","China","Singapore","S.Korea"]

Series4_pdSeries = pd.Series( Series3_Dict ,index = Series4_IndexList)

print Series4_pdSeries

print Series4_pdSeries.values

print Series4_pdSeries.index

print Series4_pdSeries.isnull()

print Series4_pdSeries.notnull()

上面这样的输出就会按照list中定义的顺序输出结果。

整个序列级别的元数据信息:name

当数据序列以及index本身有了名字,就可以更方便的进行后续的数据关联啦!

这里我感觉就是列名的作用。下面举例:

print Series4_pdSeries.name

print Series4_pdSeries.index.name

很显然,输出的结果都是None,因为我们还没指定name嘛!

Series4_pdSeries.name = "Capital Series"

Series4_pdSeries.index.name = "Nation"

print Series4_pdSeries

输出结果:

Nation

Japan Tokyo

China Beijing

Singapore NaN

S.Korea Seoul

Name: Capital Series, dtype: object

"字典"?不是的,⾏index可以重复,尽管不推荐。

Series5_IndexList = ["A","B","B","C"]

Series5 = pd.Series(Series1.values,index = Series5_IndexList)

print Series5

print Series5[["B","A"]]

输出结果:

A 0.030480

B 0.072746

B -0.186607

C -1.412244

dtype: float64

B 0.072746

B -0.186607

A 0.030480

dtype: float64

我们可以看出,Series["B"]输出了两个值,所以index值尽量不要重复呀!

二. DataFrame

DataFrame:pandas的战锤(数据表,⼆维数组)

Series的有序集合,就像R的DataFrame一样方便。

仔细想想,绝大部分的数据形式都可以表现为DataFrame。

从NumPy二维数组、从文件或者从数据库定义:数据虽好,勿忘列名
dataNumPy = np.asarray([("Japan","Tokyo",4000),("S.Korea","Seoul",1300),("China","Beijing",9100)])

DF1 = pd.DataFrame(dataNumPy,columns=["nation","capital","GDP"])

DF1

这里DataFrame中的columns应该就是列名的意思。现在看print的结果,是不是很舒服啊!Excel的样式嘛

等长的列数据保存在一个字典里(JSON):很不幸,字典key是无序的
dataDict = {"nation":["Japan","S.Korea","China"],"capital":["Tokyo","Seoul","Beijing"],"GDP":[4900,1300,9100]}

DF2 = pd.DataFrame(dataDict)

DF2

输出结果可以发现,无序的!

GDP    capital    nation

0 4900 Tokyo Japan

1 1300 Seoul S.Korea

2 9100 Beijing China

PS:由于懒得截图放过来,这里没有了边框线。

从另一个DataFrame定义DataFrame:啊,强迫症犯了!
DF21 = pd.DataFrame(DF2,columns=["nation","capital","GDP"])

DF21

很明显,这里是利用DF2定义DF21,还通过指定cloumns改变了列名的顺序。

DF22 = pd.DataFrame(DF2,columns=["nation","capital","GDP"],index = [2,0,1])

DF22

很明显,这里定义了columns的顺序,还定义了index的顺序。

nation capital GDP

2 China Beijing 9100

0 Japan Tokyo 4900

1 S.Korea Seoul 1300
从DataFrame中取出列?两种方法(与JavaScript完全一致!)

OMG,囧,我竟然都快忘了js语法了,现在想起了,但是对象的属性既可以obj.x也可以obj[x]

"."的写法容易与其他预留关键字产生冲突

"[ ]"的写法最安全。

从DataFrame中取出行?(至少)两种⽅法:

方法1和方法2:

print DF22[0:1] #给出的实际是DataFrame

print DF22.ix[0] #通过对应Index给出⾏,**ix**好爽。

输出结果:

 nation  capital   GDP

2  China  Beijing  9100

nation     Japan

capital    Tokyo

GDP         4900

Name: 0, dtype: object

方法3 像NumPy切片一样的终极招式:iloc

print DF22.iloc[0,:]    #第一个参数是第几行,第二个参数是列。这里呢,就是第0行,全部列

print DF22.iloc[:,0]    #根据上面的描述,这里是全部行,第0列

输出结果,验证一下:

nation       China

capital    Beijing

GDP           9100

Name: 2, dtype: object

2      China

0      Japan

1    S.Korea

Name: nation, dtype: object
动态增加列列,但是无法用"."的方式,只能用"[]"

举个栗子说明一下就明白了:

DF22["population"] = [1600,130,55]

DF22

输出结果:

nation    capital    GDP    population

2    China    Beijing    9100    1600

0    Japan    Tokyo    4900    130

1    S.Korea    Seoul    1300    55
三. Index:行级索引

Index:pandas进⾏数据操纵的鬼牌(行级索引)

⾏级索引是:

元数据

可能由真实数据产生,因此可以视作数据

可以由多重索引也就是多个列组合而成

可以和列名进行交换,也可以进行堆叠和展开,达到Excel透视表效果

Index有四种...哦不,很多种写法,⼀些重要的索引类型包括:

pd.Index(普通)

Int64Index(数值型索引)

MultiIndex(多重索引,在数据操纵中更详细描述)

DatetimeIndex(以时间格式作为索引)

PeriodIndex (含周期的时间格式作为索引)

直接定义普通索引,长得就和普通的Series⼀样
index_names = ["a","b","c"]

Series_for_Index = pd.Series(index_names)

print pd.Index(index_names)

print pd.Index(Series_for_Index)

输出结果:

Index([u"a", u"b", u"c"], dtype="object")

Index([u"a", u"b", u"c"], dtype="object")

可惜Immutable,牢记! 不可变!举例如下:此处挖坑啊。不明白……

index_names = ["a","b","c"] 

index0 = pd.Index(index_names) 

print index0.get_values() 

index0[2] = "d"

输出结果如下:

["a" "b" "c"]

---------------------------------------------------------------------------

TypeError                                 Traceback (most recent call last)

 in ()

      2 index0 = pd.Index(index_names)

      3 print index0.get_values()

----> 4 index0[2] = "d"



C:Anacondalibsite-packagespandascoreindex.pyc in __setitem__(self, key, value)

   1055 

   1056     def __setitem__(self, key, value):

-> 1057         raise TypeError("Indexes does not support mutable operations")

   1058 

   1059     def __getitem__(self, key):



TypeError: Indexes does not support mutable operations
扔进去一个含有多元组的List,就有了MultiIndex

可惜,如果这个List Comprehension改成小括号,就不对了。

multi1 = pd.Index([("Row_"+str(x+1),"Col_"+str(y+1)) for x in xrange(4) for y in xrange(4)])

multi1.name = ["index1","index2"]

print multi1

输出结果:

MultiIndex(levels=[[u"Row_1", u"Row_2", u"Row_3", u"Row_4"], [u"Col_1", u"Col_2", u"Col_3", u"Col_4"]],

           labels=[[0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3], [0, 1, 2, 3, 0, 1, 2, 3, 0, 1, 2, 3, 0, 1, 2, 3]])
对于Series来说,如果拥有了多重Index,数据,变形!

下列代码说明:

二重MultiIndex的Series可以unstack()成DataFrame

DataFrame可以stack成拥有⼆重MultiIndex的Series

data_for_multi1 = pd.Series(xrange(0,16),index=multi1)

data_for_multi1

输出结果:

Row_1  Col_1     0

       Col_2     1

       Col_3     2

       Col_4     3

Row_2  Col_1     4

       Col_2     5

       Col_3     6

       Col_4     7

Row_3  Col_1     8

       Col_2     9

       Col_3    10

       Col_4    11

Row_4  Col_1    12

       Col_2    13

       Col_3    14

       Col_4    15

dtype: int32

看到输出结果,好像明白了点,有点类似Excel汇总一样。不过,日后还得查点资料

二重MultiIndex的Series可以unstack()成DataFrame
data_for_multi1.unstack()

DataFrame可以stack成拥有⼆重MultiIndex的Series
data_for_multi1.unstack().stack()

输出结果:

Row_1  Col_1     0

       Col_2     1

       Col_3     2

       Col_4     3

Row_2  Col_1     4

       Col_2     5

       Col_3     6

       Col_4     7

Row_3  Col_1     8

       Col_2     9

       Col_3    10

       Col_4    11

Row_4  Col_1    12

       Col_2    13

       Col_3    14

       Col_4    15

dtype: int32
非平衡数据的例子:
multi2 = pd.Index([("Row_"+str(x+1),"Col_"+str(y+1)) for x in xrange(5) for y in xrange(x)])

multi2

输出结果:

MultiIndex(levels=[[u"Row_2", u"Row_3", u"Row_4", u"Row_5"], [u"Col_1", u"Col_2", u"Col_3", u"Col_4"]],

           labels=[[0, 1, 1, 2, 2, 2, 3, 3, 3, 3], [0, 0, 1, 0, 1, 2, 0, 1, 2, 3]])
data_for_multi2 = pd.Series(np.arange(10),index = multi2) data_for_multi2

输出结果:

Row_2  Col_1    0

Row_3  Col_1    1

       Col_2    2

Row_4  Col_1    3

       Col_2    4

       Col_3    5

Row_5  Col_1    6

       Col_2    7

       Col_3    8

       Col_4    9

dtype: int32
DateTime标准库如此好⽤,你值得拥有
import datetime

dates = [datetime.datetime(2015,1,1),datetime.datetime(2015,1,8),datetime.datetime(2015,1,30)]

pd.DatetimeIndex(dates)

输出结果:

DatetimeIndex(["2015-01-01", "2015-01-08", "2015-01-30"], dtype="datetime64[ns]", freq=None, tz=None)
如果你不仅需要时间格式统一,时间频率也要统一的话
periodindex1 = pd.period_range("2015-01","2015-04",freq="M")

print periodindex1

输出结果:

PeriodIndex(["2015-01", "2015-02", "2015-03", "2015-04"], dtype="int64", freq="M")
月级精度和日级精度如何转换?

有的公司统⼀以1号代表当月,有的公司统一以最后1天代表当⽉,转化起来很麻烦,可以asfreq

print periodindex1.asfreq("D",how="start")

print periodindex1.asfreq("D",how="end")

输出结果:

PeriodIndex(["2015-01-01", "2015-02-01", "2015-03-01", "2015-04-01"], dtype="int64", freq="D")

PeriodIndex(["2015-01-31", "2015-02-28", "2015-03-31", "2015-04-30"], dtype="int64", freq="D")
最后的最后,我要真正把两种频率的时间精度匹配上?
periodindex_mon = pd.period_range("2015-01","2015-03",freq="M").asfreq("D",how="start")

periodindex_day = pd.period_range("2015-01-01","2015-03-31",freq="D")

print periodindex_mon

print periodindex_day

输出结果:

PeriodIndex(["2015-01-01", "2015-02-01", "2015-03-01"], dtype="int64", freq="D")

PeriodIndex(["2015-01-01", "2015-01-02", "2015-01-03", "2015-01-04",

             "2015-01-05", "2015-01-06", "2015-01-07", "2015-01-08",

             "2015-01-09", "2015-01-10", "2015-01-11", "2015-01-12",

             "2015-01-13", "2015-01-14", "2015-01-15", "2015-01-16",

             "2015-01-17", "2015-01-18", "2015-01-19", "2015-01-20",

             "2015-01-21", "2015-01-22", "2015-01-23", "2015-01-24",

             "2015-01-25", "2015-01-26", "2015-01-27", "2015-01-28",

             "2015-01-29", "2015-01-30", "2015-01-31", "2015-02-01",

             "2015-02-02", "2015-02-03", "2015-02-04", "2015-02-05",

             "2015-02-06", "2015-02-07", "2015-02-08", "2015-02-09",

             "2015-02-10", "2015-02-11", "2015-02-12", "2015-02-13",

             "2015-02-14", "2015-02-15", "2015-02-16", "2015-02-17",

             "2015-02-18", "2015-02-19", "2015-02-20", "2015-02-21",

             "2015-02-22", "2015-02-23", "2015-02-24", "2015-02-25",

             "2015-02-26", "2015-02-27", "2015-02-28", "2015-03-01",

             "2015-03-02", "2015-03-03", "2015-03-04", "2015-03-05",

             "2015-03-06", "2015-03-07", "2015-03-08", "2015-03-09",

             "2015-03-10", "2015-03-11", "2015-03-12", "2015-03-13",

             "2015-03-14", "2015-03-15", "2015-03-16", "2015-03-17",

             "2015-03-18", "2015-03-19", "2015-03-20", "2015-03-21",

             "2015-03-22", "2015-03-23", "2015-03-24", "2015-03-25",

             "2015-03-26", "2015-03-27", "2015-03-28", "2015-03-29",

             "2015-03-30", "2015-03-31"],

            dtype="int64", freq="D")
粗粒度数据+reindexffill/bfill
full_ts = pd.Series(periodindex_mon,index=periodindex_mon).reindex(periodindex_day,method="ffill")

full_ts

关于索引,⽅便的操作有?

前⾯描述过了,索引有序,重复,但⼀定程度上⼜能通过key来访问,也就是说,某些集合操作都是可以⽀持的。

index1 = pd.Index(["A","B","B","C","C"])

index2 = pd.Index(["C","D","E","E","F"])

index3 = pd.Index(["B","C","A"])

print index1.append(index2)

print index1.difference(index2)

print index1.intersection(index2)

print index1.union(index2) # Support unique-value Index well

print index1.isin(index2)

print index1.delete(2)

print index1.insert(0,"K") # Not suggested

print index3.drop("A") # Support unique-value Index well

print index1.is_monotonic,index2.is_monotonic,index3.is_monotonic

print index1.is_unique,index2.is_unique,index3.is_unique

输出结果:

Index([u"A", u"B", u"B", u"C", u"C", u"C", u"D", u"E", u"E", u"F"], dtype="object")

Index([u"A", u"B"], dtype="object")

Index([u"C", u"C"], dtype="object")

Index([u"A", u"B", u"B", u"C", u"C", u"D", u"E", u"E", u"F"], dtype="object")

[False False False  True  True]

Index([u"A", u"B", u"C", u"C"], dtype="object")

Index([u"K", u"A", u"B", u"B", u"C", u"C"], dtype="object")

Index([u"B", u"C"], dtype="object")

True True False

False False True
参考:

S1EP3_Pandas.pdf 不知道什么时候存到电脑里的资料,今天发现了它。感谢作者的资料。

Python数据分析入门之pandas总结基础(二)

欢迎来Michael翔的博客查看完成版。

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/37702.html

相关文章

  • Python数据分析入门pandas总结基础(二)

    摘要:一大熊猫世界来去自如的老生常谈,从基础来看,我们仍然关心对于与外部数据是如何交互的。函数受限制问题唯一重要的参数,标志着一个的第个页将会被取出。数据分析入门之总结基础一欢迎来翔的博客查看完成版。 一.大熊猫世界来去自如:Pandas的I/O 老生常谈,从基础来看,我们仍然关心pandas对于与外部数据是如何交互的。 1.1 结构化数据输入输出 read_csv与to_csv 是⼀对...

    verano 评论0 收藏0
  • 首次公开,整理12年积累的博客收藏夹,零距离展示《收藏夹吃灰》系列博客

    摘要:时间永远都过得那么快,一晃从年注册,到现在已经过去了年那些被我藏在收藏夹吃灰的文章,已经太多了,是时候把他们整理一下了。那是因为收藏夹太乱,橡皮擦给设置私密了,不收拾不好看呀。 ...

    Harriet666 评论0 收藏0
  • 我是如何入门机器学习的呢

    摘要:在这里我分享下我个人入门机器学习的经历,希望能对大家能有所帮助。相关学习链接,,入门后的体验在入门了机器学习之后,在实际工作中,绝大多数的情况下你并不需要去创造一个新的算法。 机器学习在很多眼里就是香饽饽,因为机器学习相关的岗位在当前市场待遇不错,但同时机器学习在很多人面前又是一座大山,因为发现它太难学了。在这里我分享下我个人入门机器学习的经历,希望能对大家能有所帮助。 PS:这篇文章...

    ShowerSun 评论0 收藏0

发表评论

0条评论

alanoddsoff

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<