《利用Python進行數(shù)據(jù)分析·第2版》第7章 數(shù)據(jù)清洗和準備


第1章 準備工作
第2章 Python語法基礎(chǔ)衫仑,IPython和Jupyter
第3章 Python的數(shù)據(jù)結(jié)構(gòu)娜搂、函數(shù)和文件
第4章 NumPy基礎(chǔ):數(shù)組和矢量計算
第5章 pandas入門
第6章 數(shù)據(jù)加載、存儲與文件格式
第7章 數(shù)據(jù)清洗和準備
第8章 數(shù)據(jù)規(guī)整:聚合芳撒、合并和重塑
第9章 繪圖和可視化
第10章 數(shù)據(jù)聚合與分組運算
第11章 時間序列
第12章 pandas高級應(yīng)用
第13章 Python建模庫介紹
第14章 數(shù)據(jù)分析案例
附錄A NumPy高級應(yīng)用
附錄B 更多關(guān)于IPython的內(nèi)容(完)


在數(shù)據(jù)分析和建模的過程中椎瘟,相當(dāng)多的時間要用在數(shù)據(jù)準備上:加載、清理辟犀、轉(zhuǎn)換以及重塑。這些工作會占到分析師時間的80%或更多绸硕。有時堂竟,存儲在文件和數(shù)據(jù)庫中的數(shù)據(jù)的格式不適合某個特定的任務(wù)。許多研究者都選擇使用通用編程語言(如Python玻佩、Perl出嘹、R或Java)或UNIX文本處理工具(如sed或awk)對數(shù)據(jù)格式進行專門處理。幸運的是咬崔,pandas和內(nèi)置的Python標(biāo)準庫提供了一組高級的税稼、靈活的、快速的工具垮斯,可以讓你輕松地將數(shù)據(jù)規(guī)整為想要的格式郎仆。

如果你發(fā)現(xiàn)了一種本書或pandas庫中沒有的數(shù)據(jù)操作方式,請在郵件列表或GitHub網(wǎng)站上提出兜蠕。實際上扰肌,pandas的許多設(shè)計和實現(xiàn)都是由真實應(yīng)用的需求所驅(qū)動的。

在本章中熊杨,我會討論處理缺失數(shù)據(jù)曙旭、重復(fù)數(shù)據(jù)盗舰、字符串操作和其它分析數(shù)據(jù)轉(zhuǎn)換的工具。下一章桂躏,我會關(guān)注于用多種方法合并钻趋、重塑數(shù)據(jù)集。

7.1 處理缺失數(shù)據(jù)

在許多數(shù)據(jù)分析工作中剂习,缺失數(shù)據(jù)是經(jīng)常發(fā)生的蛮位。pandas的目標(biāo)之一就是盡量輕松地處理缺失數(shù)據(jù)。例如鳞绕,pandas對象的所有描述性統(tǒng)計默認都不包括缺失數(shù)據(jù)土至。

缺失數(shù)據(jù)在pandas中呈現(xiàn)的方式有些不完美,但對于大多數(shù)用戶可以保證功能正常猾昆。對于數(shù)值數(shù)據(jù)陶因,pandas使用浮點值NaN(Not a Number)表示缺失數(shù)據(jù)。我們稱其為哨兵值垂蜗,可以方便的檢測出來:

In [10]: string_data = pd.Series(['aardvark', 'artichoke', np.nan, 'avocado'])

In [11]: string_data
Out[11]:
0     aardvark
1    artichoke
2          NaN
3      avocado
dtype: object

In [12]: string_data.isnull()
Out[12]: 
0    False
1    False
2     True
3    False
dtype: bool

在pandas中楷扬,我們采用了R語言中的慣用法,即將缺失值表示為NA贴见,它表示不可用not available烘苹。在統(tǒng)計應(yīng)用中,NA數(shù)據(jù)可能是不存在的數(shù)據(jù)或者雖然存在片部,但是沒有觀察到(例如镣衡,數(shù)據(jù)采集中發(fā)生了問題)。當(dāng)進行數(shù)據(jù)清洗以進行分析時档悠,最好直接對缺失數(shù)據(jù)進行分析廊鸥,以判斷數(shù)據(jù)采集的問題或缺失數(shù)據(jù)可能導(dǎo)致的偏差。

Python內(nèi)置的None值在對象數(shù)組中也可以作為NA:

In [13]: string_data[0] = None

In [14]: string_data.isnull()
Out[14]: 
0     True
1    False
2     True
3    False
dtype: bool

pandas項目中還在不斷優(yōu)化內(nèi)部細節(jié)以更好處理缺失數(shù)據(jù)辖所,像用戶API功能惰说,例如pandas.isnull,去除了許多惱人的細節(jié)缘回。表7-1列出了一些關(guān)于缺失數(shù)據(jù)處理的函數(shù)吆视。

表7-1 NA處理方法

濾除缺失數(shù)據(jù)

過濾掉缺失數(shù)據(jù)的辦法有很多種。你可以通過pandas.isnull或布爾索引的手工方法酥宴,但dropna可能會更實用一些啦吧。對于一個Series,dropna返回一個僅含非空數(shù)據(jù)和索引值的Series:

In [15]: from numpy import nan as NA

In [16]: data = pd.Series([1, NA, 3.5, NA, 7])

In [17]: data.dropna()
Out[17]: 
0    1.0
2    3.5
4    7.0
dtype: float64

這等價于:

In [18]: data[data.notnull()]
Out[18]: 
0    1.0
2    3.5
4    7.0
dtype: float64

而對于DataFrame對象拙寡,事情就有點復(fù)雜了授滓。你可能希望丟棄全NA或含有NA的行或列。dropna默認丟棄任何含有缺失值的行:

In [19]: data = pd.DataFrame([[1., 6.5, 3.], [1., NA, NA],
   ....:                      [NA, NA, NA], [NA, 6.5, 3.]])

In [20]: cleaned = data.dropna()

In [21]: data
Out[21]: 
     0    1    2
0  1.0  6.5  3.0
1  1.0  NaN  NaN
2  NaN  NaN  NaN
3  NaN  6.5  3.0

In [22]: cleaned
Out[22]: 
     0    1    2
0  1.0  6.5  3.0

傳入how='all'將只丟棄全為NA的那些行:

In [23]: data.dropna(how='all')
Out[23]: 
     0    1    2
0  1.0  6.5  3.0
1  1.0  NaN  NaN
3  NaN  6.5  3.0

用這種方式丟棄列,只需傳入axis=1即可:

In [24]: data[4] = NA

In [25]: data
Out[25]: 
     0    1    2   4
0  1.0  6.5  3.0 NaN
1  1.0  NaN  NaN NaN
2  NaN  NaN  NaN NaN
3  NaN  6.5  3.0 NaN

In [26]: data.dropna(axis=1, how='all')
Out[26]: 
     0    1    2
0  1.0  6.5  3.0
1  1.0  NaN  NaN
2  NaN  NaN  NaN
3  NaN  6.5  3.0

另一個濾除DataFrame行的問題涉及時間序列數(shù)據(jù)褒墨。假設(shè)你只想留下一部分觀測數(shù)據(jù),可以用thresh參數(shù)實現(xiàn)此目的:

In [27]: df = pd.DataFrame(np.random.randn(7, 3))

In [28]: df.iloc[:4, 1] = NA

In [29]: df.iloc[:2, 2] = NA

In [30]: df
Out[30]: 
          0         1         2
0 -0.204708       NaN       NaN
1 -0.555730       NaN       NaN
2  0.092908       NaN  0.769023
3  1.246435       NaN -1.296221
4  0.274992  0.228913  1.352917
5  0.886429 -2.001637 -0.371843
6  1.669025 -0.438570 -0.539741

In [31]: df.dropna()
Out[31]: 
          0         1         2
4  0.274992  0.228913  1.352917
5  0.886429 -2.001637 -0.371843
6  1.669025 -0.438570 -0.539741

In [32]: df.dropna(thresh=2)
Out[32]: 
          0         1         2
2  0.092908       NaN  0.769023
3  1.246435       NaN -1.296221
4  0.274992  0.228913  1.352917
5  0.886429 -2.001637 -0.371843
6  1.669025 -0.438570 -0.539741

填充缺失數(shù)據(jù)

你可能不想濾除缺失數(shù)據(jù)(有可能會丟棄跟它有關(guān)的其他數(shù)據(jù))擎宝,而是希望通過其他方式填補那些“空洞”郁妈。對于大多數(shù)情況而言,fillna方法是最主要的函數(shù)绍申。通過一個常數(shù)調(diào)用fillna就會將缺失值替換為那個常數(shù)值:

In [33]: df.fillna(0)
Out[33]: 
          0         1         2
0 -0.204708  0.000000  0.000000
1 -0.555730  0.000000  0.000000
2  0.092908  0.000000  0.769023
3  1.246435  0.000000 -1.296221
4  0.274992  0.228913  1.352917
5  0.886429 -2.001637 -0.371843
6  1.669025 -0.438570 -0.539741

若是通過一個字典調(diào)用fillna噩咪,就可以實現(xiàn)對不同的列填充不同的值:

In [34]: df.fillna({1: 0.5, 2: 0})
Out[34]: 
          0         1         2
0 -0.204708  0.500000  0.000000
1 -0.555730  0.500000  0.000000
2  0.092908  0.500000  0.769023
3  1.246435  0.500000 -1.296221
4  0.274992  0.228913  1.352917
5  0.886429 -2.001637 -0.371843
6  1.669025 -0.438570 -0.539741

fillna默認會返回新對象,但也可以對現(xiàn)有對象進行就地修改:

In [35]: _ = df.fillna(0, inplace=True)

In [36]: df
Out[36]: 
          0         1         2
0 -0.204708  0.000000  0.000000
1 -0.555730  0.000000  0.000000
2  0.092908  0.000000  0.769023
3  1.246435  0.000000 -1.296221
4  0.274992  0.228913  1.352917
5  0.886429 -2.001637 -0.371843
6  1.669025 -0.438570 -0.539741

對reindexing有效的那些插值方法也可用于fillna:

In [37]: df = pd.DataFrame(np.random.randn(6, 3))

In [38]: df.iloc[2:, 1] = NA

In [39]: df.iloc[4:, 2] = NA

In [40]: df
Out[40]: 
          0         1         2
0  0.476985  3.248944 -1.021228
1 -0.577087  0.124121  0.302614
2  0.523772       NaN  1.343810
3 -0.713544       NaN -2.370232
4 -1.860761       NaN       NaN
5 -1.265934       NaN       NaN

In [41]: df.fillna(method='ffill')
Out[41]: 
          0         1         2
0  0.476985  3.248944 -1.021228
1 -0.577087  0.124121  0.302614
2  0.523772  0.124121  1.343810
3 -0.713544  0.124121 -2.370232
4 -1.860761  0.124121 -2.370232
5 -1.265934  0.124121 -2.370232

In [42]: df.fillna(method='ffill', limit=2)
Out[42]: 
          0         1         2
0  0.476985  3.248944 -1.021228
1 -0.577087  0.124121  0.302614
2  0.523772  0.124121  1.343810
3 -0.713544  0.124121 -2.370232
4 -1.860761       NaN -2.370232
5 -1.265934       NaN -2.370232

只要有些創(chuàng)新极阅,你就可以利用fillna實現(xiàn)許多別的功能胃碾。比如說,你可以傳入Series的平均值或中位數(shù):

In [43]: data = pd.Series([1., NA, 3.5, NA, 7])

In [44]: data.fillna(data.mean())
Out[44]: 
0    1.000000
1    3.833333
2    3.500000
3    3.833333
4    7.000000
dtype: float64

表7-2列出了fillna的參考筋搏。

fillna函數(shù)參數(shù)

7.2 數(shù)據(jù)轉(zhuǎn)換

本章到目前為止介紹的都是數(shù)據(jù)的重排仆百。另一類重要操作則是過濾、清理以及其他的轉(zhuǎn)換工作奔脐。

移除重復(fù)數(shù)據(jù)

DataFrame中出現(xiàn)重復(fù)行有多種原因俄周。下面就是一個例子:

In [45]: data = pd.DataFrame({'k1': ['one', 'two'] * 3 + ['two'],
   ....:                      'k2': [1, 1, 2, 3, 3, 4, 4]})

In [46]: data
Out[46]: 
    k1  k2
0  one   1
1  two   1
2  one   2
3  two   3
4  one   3
5  two   4
6  two   4

DataFrame的duplicated方法返回一個布爾型Series,表示各行是否是重復(fù)行(前面出現(xiàn)過的行):

In [47]: data.duplicated()
Out[47]: 
0    False
1    False
2    False
3    False
4    False
5    False
6     True
dtype: bool

還有一個與此相關(guān)的drop_duplicates方法髓迎,它會返回一個DataFrame峦朗,重復(fù)的數(shù)組會標(biāo)為False:

In [48]: data.drop_duplicates()
Out[48]: 
    k1  k2
0  one   1
1  two   1
2  one   2
3  two   3
4  one   3
5  two   4

這兩個方法默認會判斷全部列,你也可以指定部分列進行重復(fù)項判斷排龄。假設(shè)我們還有一列值波势,且只希望根據(jù)k1列過濾重復(fù)項:

In [49]: data['v1'] = range(7)

In [50]: data.drop_duplicates(['k1'])
Out[50]: 
    k1  k2  v1
0  one   1   0
1  two   1   1

duplicated和drop_duplicates默認保留的是第一個出現(xiàn)的值組合。傳入keep='last'則保留最后一個:

In [51]: data.drop_duplicates(['k1', 'k2'], keep='last')
Out[51]: 
    k1  k2  v1
0  one   1   0
1  two   1   1
2  one   2   2
3  two   3   3
4  one   3   4
6  two   4   6

利用函數(shù)或映射進行數(shù)據(jù)轉(zhuǎn)換

對于許多數(shù)據(jù)集橄维,你可能希望根據(jù)數(shù)組尺铣、Series或DataFrame列中的值來實現(xiàn)轉(zhuǎn)換工作。我們來看看下面這組有關(guān)肉類的數(shù)據(jù):

In [52]: data = pd.DataFrame({'food': ['bacon', 'pulled pork', 'bacon',
   ....:                               'Pastrami', 'corned beef', 'Bacon',
   ....:                               'pastrami', 'honey ham', 'nova lox'],
   ....:                      'ounces': [4, 3, 12, 6, 7.5, 8, 3, 5, 6]})

In [53]: data
Out[53]: 
          food  ounces
0        bacon     4.0
1  pulled pork     3.0
2        bacon    12.0
3     Pastrami     6.0
4  corned beef     7.5
5        Bacon     8.0
6     pastrami     3.0
7    honey ham     5.0
8     nova lox     6.0

假設(shè)你想要添加一列表示該肉類食物來源的動物類型争舞。我們先編寫一個不同肉類到動物的映射:

meat_to_animal = {
  'bacon': 'pig',
  'pulled pork': 'pig',
  'pastrami': 'cow',
  'corned beef': 'cow',
  'honey ham': 'pig',
  'nova lox': 'salmon'
}

Series的map方法可以接受一個函數(shù)或含有映射關(guān)系的字典型對象迄埃,但是這里有一個小問題,即有些肉類的首字母大寫了兑障,而另一些則沒有侄非。因此,我們還需要使用Series的str.lower方法流译,將各個值轉(zhuǎn)換為小寫:

In [55]: lowercased = data['food'].str.lower()

In [56]: lowercased
Out[56]: 
0          bacon
1    pulled pork
2          bacon
3       pastrami
4    corned beef
5          bacon
6       pastrami
7      honey ham
8       nova lox
Name: food, dtype: object

In [57]: data['animal'] = lowercased.map(meat_to_animal)

In [58]: data
Out[58]: 
          food  ounces  animal
0        bacon     4.0     pig
1  pulled pork     3.0     pig
2        bacon    12.0     pig
3     Pastrami     6.0     cow
4  corned beef     7.5     cow
5        Bacon     8.0     pig
6     pastrami     3.0     cow
7    honey ham     5.0     pig
8     nova lox     6.0  salmon

我們也可以傳入一個能夠完成全部這些工作的函數(shù):

In [59]: data['food'].map(lambda x: meat_to_animal[x.lower()])
Out[59]: 
0       pig
1       pig
2       pig
3       cow
4       cow
5       pig
6       cow
7       pig
8    salmon
Name: food, dtype: object

使用map是一種實現(xiàn)元素級轉(zhuǎn)換以及其他數(shù)據(jù)清理工作的便捷方式逞怨。

替換值

利用fillna方法填充缺失數(shù)據(jù)可以看做值替換的一種特殊情況。前面已經(jīng)看到福澡,map可用于修改對象的數(shù)據(jù)子集叠赦,而replace則提供了一種實現(xiàn)該功能的更簡單、更靈活的方式。我們來看看下面這個Series:

In [60]: data = pd.Series([1., -999., 2., -999., -1000., 3.])

In [61]: data
Out[61]: 
0       1.0
1    -999.0
2       2.0
3    -999.0
4   -1000.0
5       3.0

-999這個值可能是一個表示缺失數(shù)據(jù)的標(biāo)記值除秀。要將其替換為pandas能夠理解的NA值糯累,我們可以利用replace來產(chǎn)生一個新的Series(除非傳入inplace=True):

In [62]: data.replace(-999, np.nan)
Out[62]: 
0       1.0
1       NaN
2       2.0
3       NaN
4   -1000.0
5       3.0
dtype: float64

如果你希望一次性替換多個值,可以傳入一個由待替換值組成的列表以及一個替換值::

In [63]: data.replace([-999, -1000], np.nan)
Out[63]: 
0    1.0
1    NaN
2    2.0
3    NaN
4    NaN
5    3.0
dtype: float64

要讓每個值有不同的替換值册踩,可以傳遞一個替換列表:

In [64]: data.replace([-999, -1000], [np.nan, 0])
Out[64]: 
0    1.0
1    NaN
2    2.0
3    NaN
4    0.0
5    3.0
dtype: float64

傳入的參數(shù)也可以是字典:

In [65]: data.replace({-999: np.nan, -1000: 0})
Out[65]: 
0    1.0
1    NaN
2    2.0
3    NaN
4    0.0
5    3.0
dtype: float64

筆記:data.replace方法與data.str.replace不同泳姐,后者做的是字符串的元素級替換。我們會在后面學(xué)習(xí)Series的字符串方法暂吉。

重命名軸索引

跟Series中的值一樣胖秒,軸標(biāo)簽也可以通過函數(shù)或映射進行轉(zhuǎn)換,從而得到一個新的不同標(biāo)簽的對象慕的。軸還可以被就地修改阎肝,而無需新建一個數(shù)據(jù)結(jié)構(gòu)。接下來看看下面這個簡單的例子:

In [66]: data = pd.DataFrame(np.arange(12).reshape((3, 4)),
   ....:                     index=['Ohio', 'Colorado', 'New York'],
   ....:                     columns=['one', 'two', 'three', 'four'])

跟Series一樣肮街,軸索引也有一個map方法:

In [67]: transform = lambda x: x[:4].upper()

In [68]: data.index.map(transform)
Out[68]: Index(['OHIO', 'COLO', 'NEW '], dtype='object')

你可以將其賦值給index风题,這樣就可以對DataFrame進行就地修改:

In [69]: data.index = data.index.map(transform)

In [70]: data
Out[70]:
one  two  three  four
OHIO    0    1      2     3
COLO    4    5      6     7
NEW     8    9     10    11

如果想要創(chuàng)建數(shù)據(jù)集的轉(zhuǎn)換版(而不是修改原始數(shù)據(jù)),比較實用的方法是rename:

In [71]: data.rename(index=str.title, columns=str.upper)
Out[71]: 
      ONE  TWO  THREE  FOUR
Ohio    0    1      2     3
Colo    4    5      6     7
New     8    9     10    11

特別說明一下嫉父,rename可以結(jié)合字典型對象實現(xiàn)對部分軸標(biāo)簽的更新:

In [72]: data.rename(index={'OHIO': 'INDIANA'},
   ....:             columns={'three': 'peekaboo'})
Out[72]:
one  two  peekaboo  four
INDIANA    0    1         2     3
COLO       4    5         6     7
NEW        8    9        10    11

rename可以實現(xiàn)復(fù)制DataFrame并對其索引和列標(biāo)簽進行賦值俯邓。如果希望就地修改某個數(shù)據(jù)集,傳入inplace=True即可:

In [73]: data.rename(index={'OHIO': 'INDIANA'}, inplace=True)

In [74]: data
Out[74]: 
         one  two  three  four
INDIANA    0    1      2     3
COLO       4    5      6     7
NEW        8    9     10    11

離散化和面元劃分

為了便于分析熔号,連續(xù)數(shù)據(jù)常常被離散化或拆分為“面元”(bin)稽鞭。假設(shè)有一組人員數(shù)據(jù),而你希望將它們劃分為不同的年齡組:

In [75]: ages = [20, 22, 25, 27, 21, 23, 37, 31, 61, 45, 41, 32]

接下來將這些數(shù)據(jù)劃分為“18到25”引镊、“26到35”朦蕴、“35到60”以及“60以上”幾個面元。要實現(xiàn)該功能弟头,你需要使用pandas的cut函數(shù):

In [76]: bins = [18, 25, 35, 60, 100]

In [77]: cats = pd.cut(ages, bins)

In [78]: cats
Out[78]: 
[(18, 25], (18, 25], (18, 25], (25, 35], (18, 25], ..., (25, 35], (60, 100], (35,60], (35, 60], (25, 35]]
Length: 12
Categories (4, interval[int64]): [(18, 25] < (25, 35] < (35, 60] < (60, 100]]

pandas返回的是一個特殊的Categorical對象吩抓。結(jié)果展示了pandas.cut劃分的面元。你可以將其看做一組表示面元名稱的字符串赴恨。它的底層含有一個表示不同分類名稱的類型數(shù)組疹娶,以及一個codes屬性中的年齡數(shù)據(jù)的標(biāo)簽:

In [79]: cats.codes
Out[79]: array([0, 0, 0, 1, 0, 0, 2, 1, 3, 2, 2, 1], dtype=int8)

In [80]: cats.categories
Out[80]: 
IntervalIndex([(18, 25], (25, 35], (35, 60], (60, 100]]
              closed='right',
              dtype='interval[int64]')

In [81]: pd.value_counts(cats)
Out[81]: 
(18, 25]     5
(35, 60]     3
(25, 35]     3
(60, 100]    1
dtype: int64

pd.value_counts(cats)是pandas.cut結(jié)果的面元計數(shù)。

跟“區(qū)間”的數(shù)學(xué)符號一樣伦连,圓括號表示開端雨饺,而方括號則表示閉端(包括)。哪邊是閉端可以通過right=False進行修改:

In [82]: pd.cut(ages, [18, 26, 36, 61, 100], right=False)
Out[82]: 
[[18, 26), [18, 26), [18, 26), [26, 36), [18, 26), ..., [26, 36), [61, 100), [36,
 61), [36, 61), [26, 36)]
Length: 12
Categories (4, interval[int64]): [[18, 26) < [26, 36) < [36, 61) < [61, 100)]

你可 以通過傳遞一個列表或數(shù)組到labels惑淳,設(shè)置自己的面元名稱:

In [83]: group_names = ['Youth', 'YoungAdult', 'MiddleAged', 'Senior']

In [84]: pd.cut(ages, bins, labels=group_names)
Out[84]: 
[Youth, Youth, Youth, YoungAdult, Youth, ..., YoungAdult, Senior, MiddleAged, Mid
dleAged, YoungAdult]
Length: 12
Categories (4, object): [Youth < YoungAdult < MiddleAged < Senior]

如果向cut傳入的是面元的數(shù)量而不是確切的面元邊界额港,則它會根據(jù)數(shù)據(jù)的最小值和最大值計算等長面元。下面這個例子中歧焦,我們將一些均勻分布的數(shù)據(jù)分成四組:

In [85]: data = np.random.rand(20)

In [86]: pd.cut(data, 4, precision=2)
Out[86]: 
[(0.34, 0.55], (0.34, 0.55], (0.76, 0.97], (0.76, 0.97], (0.34, 0.55], ..., (0.34
, 0.55], (0.34, 0.55], (0.55, 0.76], (0.34, 0.55], (0.12, 0.34]]
Length: 20
Categories (4, interval[float64]): [(0.12, 0.34] < (0.34, 0.55] < (0.55, 0.76] < 
(0.76, 0.97]]

選項precision=2移斩,限定小數(shù)只有兩位。

qcut是一個非常類似于cut的函數(shù),它可以根據(jù)樣本分位數(shù)對數(shù)據(jù)進行面元劃分向瓷。根據(jù)數(shù)據(jù)的分布情況肠套,cut可能無法使各個面元中含有相同數(shù)量的數(shù)據(jù)點。而qcut由于使用的是樣本分位數(shù)你稚,因此可以得到大小基本相等的面元:

In [87]: data = np.random.randn(1000)  # Normally distributed

In [88]: cats = pd.qcut(data, 4)  # Cut into quartiles

In [89]: cats
Out[89]: 
[(-0.0265, 0.62], (0.62, 3.928], (-0.68, -0.0265], (0.62, 3.928], (-0.0265, 0.62]
, ..., (-0.68, -0.0265], (-0.68, -0.0265], (-2.95, -0.68], (0.62, 3.928], (-0.68,
 -0.0265]]
Length: 1000
Categories (4, interval[float64]): [(-2.95, -0.68] < (-0.68, -0.0265] < (-0.0265,
 0.62] <
                                    (0.62, 3.928]]

In [90]: pd.value_counts(cats)
Out[90]:
(0.62, 3.928]       250
(-0.0265, 0.62]     250
(-0.68, -0.0265]    250
(-2.95, -0.68]      250
dtype: int64

與cut類似超升,你也可以傳遞自定義的分位數(shù)(0到1之間的數(shù)值哺徊,包含端點):

In [91]: pd.qcut(data, [0, 0.1, 0.5, 0.9, 1.])
Out[91]: 
[(-0.0265, 1.286], (-0.0265, 1.286], (-1.187, -0.0265], (-0.0265, 1.286], (-0.026
5, 1.286], ..., (-1.187, -0.0265], (-1.187, -0.0265], (-2.95, -1.187], (-0.0265, 
1.286], (-1.187, -0.0265]]
Length: 1000
Categories (4, interval[float64]): [(-2.95, -1.187] < (-1.187, -0.0265] < (-0.026
5, 1.286] <
                                    (1.286, 3.928]]

本章稍后在講解聚合和分組運算時會再次用到cut和qcut落追,因為這兩個離散化函數(shù)對分位和分組分析非常重要。

檢測和過濾異常值

過濾或變換異常值(outlier)在很大程度上就是運用數(shù)組運算巢钓。來看一個含有正態(tài)分布數(shù)據(jù)的DataFrame:

In [92]: data = pd.DataFrame(np.random.randn(1000, 4))

In [93]: data.describe()
Out[93]: 
                 0            1            2            3
count  1000.000000  1000.000000  1000.000000  1000.000000
mean      0.049091     0.026112    -0.002544    -0.051827
std       0.996947     1.007458     0.995232     0.998311
min      -3.645860    -3.184377    -3.745356    -3.428254
25%      -0.599807    -0.612162    -0.687373    -0.747478
50%       0.047101    -0.013609    -0.022158    -0.088274
75%       0.756646     0.695298     0.699046     0.623331
max       2.653656     3.525865     2.735527     3.366626

假設(shè)你想要找出某列中絕對值大小超過3的值:

In [94]: col = data[2]

In [95]: col[np.abs(col) > 3]
Out[95]: 
41    -3.399312
136   -3.745356
Name: 2, dtype: float64

要選出全部含有“超過3或-3的值”的行症汹,你可以在布爾型DataFrame中使用any方法:

In [96]: data[(np.abs(data) > 3).any(1)]
Out[96]: 
            0         1         2         3
41   0.457246 -0.025907 -3.399312 -0.974657
60   1.951312  3.260383  0.963301  1.201206
136  0.508391 -0.196713 -3.745356 -1.520113
235 -0.242459 -3.056990  1.918403 -0.578828
258  0.682841  0.326045  0.425384 -3.428254
322  1.179227 -3.184377  1.369891 -1.074833
544 -3.548824  1.553205 -2.186301  1.277104
635 -0.578093  0.193299  1.397822  3.366626
782 -0.207434  3.525865  0.283070  0.544635
803 -3.645860  0.255475 -0.549574 -1.907459

根據(jù)這些條件贷腕,就可以對值進行設(shè)置。下面的代碼可以將值限制在區(qū)間-3到3以內(nèi):

In [97]: data[np.abs(data) > 3] = np.sign(data) * 3

In [98]: data.describe()
Out[98]: 
                 0            1            2            3
count  1000.000000  1000.000000  1000.000000  1000.000000
mean      0.050286     0.025567    -0.001399    -0.051765
std       0.992920     1.004214     0.991414     0.995761
min      -3.000000    -3.000000    -3.000000    -3.000000
25%      -0.599807    -0.612162    -0.687373    -0.747478
50%       0.047101    -0.013609    -0.022158    -0.088274
75%       0.756646     0.695298     0.699046     0.623331
max       2.653656     3.000000     2.735527     3.000000

根據(jù)數(shù)據(jù)的值是正還是負瞒斩,np.sign(data)可以生成1和-1:

In [99]: np.sign(data).head()
Out[99]: 
     0    1    2    3
0 -1.0  1.0 -1.0  1.0
1  1.0 -1.0  1.0 -1.0
2  1.0  1.0  1.0 -1.0
3 -1.0 -1.0  1.0 -1.0
4 -1.0  1.0 -1.0 -1.0

排列和隨機采樣

利用numpy.random.permutation函數(shù)可以輕松實現(xiàn)對Series或DataFrame的列的排列工作(permuting涮总,隨機重排序)胸囱。通過需要排列的軸的長度調(diào)用permutation,可產(chǎn)生一個表示新順序的整數(shù)數(shù)組:

In [100]: df = pd.DataFrame(np.arange(5 * 4).reshape((5, 4)))

In [101]: sampler = np.random.permutation(5)

In [102]: sampler
Out[102]: array([3, 1, 4, 2, 0])

然后就可以在基于iloc的索引操作或take函數(shù)中使用該數(shù)組了:

In [103]: df
Out[103]: 
    0   1   2   3
0   0   1   2   3
1   4   5   6   7
2   8   9  10  11
3  12  13  14  15
4  16  17  18  19

In [104]: df.take(sampler)
Out[104]: 
    0   1   2   3
3  12  13  14  15
1   4   5   6   7
4  16  17  18  19
2   8   9  10  11
0   0   1   2   3

如果不想用替換的方式選取隨機子集瀑梗,可以在Series和DataFrame上使用sample方法:

In [105]: df.sample(n=3)
Out[105]: 
    0   1   2   3
3  12  13  14  15
4  16  17  18  19
2   8   9  10  11

要通過替換的方式產(chǎn)生樣本(允許重復(fù)選擇)烹笔,可以傳遞replace=True到sample:

In [106]: choices = pd.Series([5, 7, -1, 6, 4])

In [107]: draws = choices.sample(n=10, replace=True)

In [108]: draws
Out[108]: 
4    4
1    7
4    4
2   -1
0    5
3    6
1    7
4    4
0    5
4    4
dtype: int64

計算指標(biāo)/啞變量

另一種常用于統(tǒng)計建模或機器學(xué)習(xí)的轉(zhuǎn)換方式是:將分類變量(categorical variable)轉(zhuǎn)換為“啞變量”或“指標(biāo)矩陣”抛丽。

如果DataFrame的某一列中含有k個不同的值箕宙,則可以派生出一個k列矩陣或DataFrame(其值全為1和0)。pandas有一個get_dummies函數(shù)可以實現(xiàn)該功能(其實自己動手做一個也不難)铺纽。使用之前的一個DataFrame例子:

In [109]: df = pd.DataFrame({'key': ['b', 'b', 'a', 'c', 'a', 'b'],
   .....:                    'data1': range(6)})

In [110]: pd.get_dummies(df['key'])
Out[110]: 
   a  b  c
0  0  1  0
1  0  1  0
2  1  0  0
3  0  0  1
4  1  0  0
5  0  1  0

有時候柬帕,你可能想給指標(biāo)DataFrame的列加上一個前綴,以便能夠跟其他數(shù)據(jù)進行合并。get_dummies的prefix參數(shù)可以實現(xiàn)該功能:

In [111]: dummies = pd.get_dummies(df['key'], prefix='key')

In [112]: df_with_dummy = df[['data1']].join(dummies)

In [113]: df_with_dummy
Out[113]: 
   data1  key_a  key_b  key_c
0      0      0      1      0
1      1      0      1      0
2      2      1      0      0
3      3      0      0      1
4      4      1      0      0
5      5      0      1      0

如果DataFrame中的某行同屬于多個分類陷寝,則事情就會有點復(fù)雜锅很。看一下MovieLens 1M數(shù)據(jù)集凤跑,14章會更深入地研究它:

In [114]: mnames = ['movie_id', 'title', 'genres']

In [115]: movies = pd.read_table('datasets/movielens/movies.dat', sep='::',
   .....:                        header=None, names=mnames)

In [116]: movies[:10]
Out[116]: 
   movie_id                               title                        genres
0         1                    Toy Story (1995)   Animation|Children's|Comedy
1         2                      Jumanji (1995)  Adventure|Children's|Fantasy
2         3             Grumpier Old Men (1995)                Comedy|Romance
3         4            Waiting to Exhale (1995)                  Comedy|Drama
4         5  Father of the Bride Part II (1995)                        Comedy
5         6                         Heat (1995)         Action|Crime|Thriller
6         7                      Sabrina (1995)                Comedy|Romance
7         8                 Tom and Huck (1995)          Adventure|Children's
8         9                 Sudden Death (1995)
Action
9        10                    GoldenEye (1995)     Action|Adventure|Thriller

要為每個genre添加指標(biāo)變量就需要做一些數(shù)據(jù)規(guī)整操作爆安。首先,我們從數(shù)據(jù)集中抽取出不同的genre值:

In [117]: all_genres = []

In [118]: for x in movies.genres:
   .....:     all_genres.extend(x.split('|'))

In [119]: genres = pd.unique(all_genres)

現(xiàn)在有:

In [120]: genres
Out[120]: 
array(['Animation', "Children's", 'Comedy', 'Adventure', 'Fantasy',
       'Romance', 'Drama', 'Action', 'Crime', 'Thriller','Horror',
       'Sci-Fi', 'Documentary', 'War', 'Musical', 'Mystery', 'Film-Noir',
       'Western'], dtype=object)

構(gòu)建指標(biāo)DataFrame的方法之一是從一個全零DataFrame開始:

In [121]: zero_matrix = np.zeros((len(movies), len(genres)))

In [122]: dummies = pd.DataFrame(zero_matrix, columns=genres)

現(xiàn)在仔引,迭代每一部電影扔仓,并將dummies各行的條目設(shè)為1。要這么做咖耘,我們使用dummies.columns來計算每個類型的列索引:

In [123]: gen = movies.genres[0]

In [124]: gen.split('|')
Out[124]: ['Animation', "Children's", 'Comedy']

In [125]: dummies.columns.get_indexer(gen.split('|'))
Out[125]: array([0, 1, 2])

然后翘簇,根據(jù)索引儿倒,使用.iloc設(shè)定值:

In [126]: for i, gen in enumerate(movies.genres):
   .....:     indices = dummies.columns.get_indexer(gen.split('|'))
   .....:     dummies.iloc[i, indices] = 1
   .....:

然后彻犁,和以前一樣汞幢,再將其與movies合并起來:

In [127]: movies_windic = movies.join(dummies.add_prefix('Genre_'))

In [128]: movies_windic.iloc[0]
Out[128]: 
movie_id                                       1
title                           Toy Story (1995)
genres               Animation|Children's|Comedy
Genre_Animation                                1
Genre_Children's                               1
Genre_Comedy                                   1
Genre_Adventure                                0
Genre_Fantasy                                  0
Genre_Romance                                  0
Genre_Drama                                    0
                                ...             
Genre_Crime                                    0
Genre_Thriller                                 0
Genre_Horror                                   0
Genre_Sci-Fi                                   0
Genre_Documentary                              0
Genre_War                                      0
Genre_Musical                                  0
Genre_Mystery                                  0
Genre_Film-Noir                                0
Genre_Western                                  0
Name: 0, Length: 21, dtype: object

筆記:對于很大的數(shù)據(jù)堰酿,用這種方式構(gòu)建多成員指標(biāo)變量就會變得非常慢坎藐。最好使用更低級的函數(shù)岩馍,將其寫入NumPy數(shù)組,然后結(jié)果包裝在DataFrame中双谆。

一個對統(tǒng)計應(yīng)用有用的秘訣是:結(jié)合get_dummies和諸如cut之類的離散化函數(shù):

In [129]: np.random.seed(12345)

In [130]: values = np.random.rand(10)

In [131]: values
Out[131]: 
array([ 0.9296,  0.3164,  0.1839,  0.2046,  0.5677,  0.5955,  0.9645,
        0.6532,  0.7489,  0.6536])

In [132]: bins = [0, 0.2, 0.4, 0.6, 0.8, 1]

In [133]: pd.get_dummies(pd.cut(values, bins))
Out[133]: 
   (0.0, 0.2]  (0.2, 0.4]  (0.4, 0.6]  (0.6, 0.8]  (0.8, 1.0]
0           0           0           0           0           1
1           0           1           0           0           0
2           1           0           0           0           0
3           0           1           0           0           0
4           0           0           1           0           0
5           0           0           1           0           0
6           0           0           0           0           1
7           0           0           0           1           0
8           0           0           0           1           0
9           0           0           0           1           0

我們用numpy.random.seed谓厘,使這個例子具有確定性竟稳。本書后面會介紹pandas.get_dummies。

7.3 字符串操作

Python能夠成為流行的數(shù)據(jù)處理語言诊笤,部分原因是其簡單易用的字符串和文本處理功能盏混。大部分文本運算都直接做成了字符串對象的內(nèi)置方法止喷。對于更為復(fù)雜的模式匹配和文本操作乾巧,則可能需要用到正則表達式沟于。pandas對此進行了加強,它使你能夠?qū)φM數(shù)據(jù)應(yīng)用字符串表達式和正則表達式供璧,而且能處理煩人的缺失數(shù)據(jù)睡毒。

字符串對象方法

對于許多字符串處理和腳本應(yīng)用供搀,內(nèi)置的字符串方法已經(jīng)能夠滿足要求了趁曼。例如,以逗號分隔的字符串可以用split拆分成數(shù)段:

In [134]: val = 'a,b,  guido'
In [135]: val.split(',')
Out[135]: ['a', 'b', '  guido']

split常常與strip一起使用摄悯,以去除空白符(包括換行符):

In [136]: pieces = [x.strip() for x in val.split(',')]

In [137]: pieces
Out[137]: ['a', 'b', 'guido']

利用加法奢驯,可以將這些子字符串以雙冒號分隔符的形式連接起來:

In [138]: first, second, third = pieces

In [139]: first + '::' + second + '::' + third
Out[139]: 'a::b::guido'

但這種方式并不是很實用。一種更快更符合Python風(fēng)格的方式是管跺,向字符串"::"的join方法傳入一個列表或元組:

In [140]: '::'.join(pieces)
Out[140]: 'a::b::guido'

其它方法關(guān)注的是子串定位豁跑。檢測子串的最佳方式是利用Python的in關(guān)鍵字艇拍,還可以使用index和find:

In [141]: 'guido' in val
Out[141]: True

In [142]: val.index(',')
Out[142]: 1

In [143]: val.find(':')
Out[143]: -1

注意find和index的區(qū)別:如果找不到字符串,index將會引發(fā)一個異常(而不是返回-1):

In [144]: val.index(':')
---------------------------------------------------------------------------
ValueError                                Traceback (most recent call last)
<ipython-input-144-280f8b2856ce> in <module>()
----> 1 val.index(':')
ValueError: substring not found

與此相關(guān)快集,count可以返回指定子串的出現(xiàn)次數(shù):

In [145]: val.count(',')
Out[145]: 2

replace用于將指定模式替換為另一個模式碍讨。通過傳入空字符串,它也常常用于刪除模式:

In [146]: val.replace(',', '::')
Out[146]: 'a::b::  guido'

In [147]: val.replace(',', '')
Out[147]: 'ab  guido'

表7-3列出了Python內(nèi)置的字符串方法覆获。

這些運算大部分都能使用正則表達式實現(xiàn)(馬上就會看到)弄息。

casefold 將字符轉(zhuǎn)換為小寫涤伐,并將任何特定區(qū)域的變量字符組合轉(zhuǎn)換成一個通用的可比較形式。

正則表達式

正則表達式提供了一種靈活的在文本中搜索或匹配(通常比前者復(fù)雜)字符串模式的方式器净。正則表達式山害,常稱作regex,是根據(jù)正則表達式語言編寫的字符串眷射。Python內(nèi)置的re模塊負責(zé)對字符串應(yīng)用正則表達式。我將通過一些例子說明其使用方法芥被。

筆記:正則表達式的編寫技巧可以自成一章拴魄,超出了本書的范圍。從網(wǎng)上和其它書可以找到許多非常不錯的教程和參考資料顶捷。

re模塊的函數(shù)可以分為三個大類:模式匹配服赎、替換以及拆分践付。當(dāng)然永高,它們之間是相輔相成的乏梁。一個regex描述了需要在文本中定位的一個模式遇骑,它可以用于許多目的。我們先來看一個簡單的例子:假設(shè)我想要拆分一個字符串练链,分隔符為數(shù)量不定的一組空白符(制表符媒鼓、空格、換行符等)潮模。描述一個或多個空白符的regex是\s+:

In [148]: import re

In [149]: text = "foo    bar\t baz  \tqux"

In [150]: re.split('\s+', text)
Out[150]: ['foo', 'bar', 'baz', 'qux']

調(diào)用re.split('\s+',text)時,正則表達式會先被編譯动遭,然后再在text上調(diào)用其split方法。你可以用re.compile自己編譯regex以得到一個可重用的regex對象:

In [151]: regex = re.compile('\s+')

In [152]: regex.split(text)
Out[152]: ['foo', 'bar', 'baz', 'qux']

如果只希望得到匹配regex的所有模式绵估,則可以使用findall方法:

In [153]: regex.findall(text)
Out[153]: ['    ', '\t ', '  \t']

筆記:如果想避免正則表達式中不需要的轉(zhuǎn)義(\)形入,則可以使用原始字符串字面量如r'C:\x'(也可以編寫其等價式'C:\x')。

如果打算對許多字符串應(yīng)用同一條正則表達式蛇数,強烈建議通過re.compile創(chuàng)建regex對象耳舅。這樣將可以節(jié)省大量的CPU時間。

match和search跟findall功能類似盔性。findall返回的是字符串中所有的匹配項,而search則只返回第一個匹配項悉尾。match更加嚴格,它只匹配字符串的首部。來看一個小例子拄衰,假設(shè)我們有一段文本以及一條能夠識別大部分電子郵件地址的正則表達式:

text = """Dave dave@google.com
Steve steve@gmail.com
Rob rob@gmail.com
Ryan ryan@yahoo.com
"""
pattern = r'[A-Z0-9._%+-]+@[A-Z0-9.-]+\.[A-Z]{2,4}'

# re.IGNORECASE makes the regex case-insensitive
regex = re.compile(pattern, flags=re.IGNORECASE)

對text使用findall將得到一組電子郵件地址:

In [155]: regex.findall(text)
Out[155]: 
['dave@google.com',
 'steve@gmail.com',
 'rob@gmail.com',
 'ryan@yahoo.com']

search返回的是文本中第一個電子郵件地址(以特殊的匹配項對象形式返回)居触。對于上面那個regex制市,匹配項對象只能告訴我們模式在原字符串中的起始和結(jié)束位置:

In [156]: m = regex.search(text)

In [157]: m
Out[157]: <_sre.SRE_Match object; span=(5, 20), match='dave@google.com'>

In [158]: text[m.start():m.end()]
Out[158]: 'dave@google.com'

regex.match則將返回None,因為它只匹配出現(xiàn)在字符串開頭的模式:

In [159]: print(regex.match(text))
None

相關(guān)的误褪,sub方法可以將匹配到的模式替換為指定字符串责鳍,并返回所得到的新字符串:

In [160]: print(regex.sub('REDACTED', text))
Dave REDACTED
Steve REDACTED
Rob REDACTED
Ryan REDACTED

假設(shè)你不僅想要找出電子郵件地址,還想將各個地址分成3個部分:用戶名兽间、域名以及域后綴历葛。要實現(xiàn)此功能,只需將待分段的模式的各部分用圓括號包起來即可:

In [161]: pattern = r'([A-Z0-9._%+-]+)@([A-Z0-9.-]+)\.([A-Z]{2,4})'

In [162]: regex = re.compile(pattern, flags=re.IGNORECASE)

由這種修改過的正則表達式所產(chǎn)生的匹配項對象嘀略,可以通過其groups方法返回一個由模式各段組成的元組:

In [163]: m = regex.match('wesm@bright.net')

In [164]: m.groups()
Out[164]: ('wesm', 'bright', 'net')

對于帶有分組功能的模式啃洋,findall會返回一個元組列表:

In [165]: regex.findall(text)
Out[165]:
[('dave', 'google', 'com'),
 ('steve', 'gmail', 'com'),
 ('rob', 'gmail', 'com'),
 ('ryan', 'yahoo', 'com')]

sub還能通過諸如\1、\2之類的特殊符號訪問各匹配項中的分組。符號\1對應(yīng)第一個匹配的組,\2對應(yīng)第二個匹配的組忧饭,以此類推:

In [166]: print(regex.sub(r'Username: \1, Domain: \2, Suffix: \3', text))
Dave Username: dave, Domain: google, Suffix: com
Steve Username: steve, Domain: gmail, Suffix: com
Rob Username: rob, Domain: gmail, Suffix: com
Ryan Username: ryan, Domain: yahoo, Suffix: com

Python中還有許多的正則表達式,但大部分都超出了本書的范圍。表7-4是一個簡要概括。

pandas的矢量化字符串函數(shù)

清理待分析的散亂數(shù)據(jù)時,常常需要做一些字符串規(guī)整化工作。更為復(fù)雜的情況是侧但,含有字符串的列有時還含有缺失數(shù)據(jù):

In [167]: data = {'Dave': 'dave@google.com', 'Steve': 'steve@gmail.com',
   .....:         'Rob': 'rob@gmail.com', 'Wes': np.nan}

In [168]: data = pd.Series(data)

In [169]: data
Out[169]: 
Dave     dave@google.com
Rob        rob@gmail.com
Steve    steve@gmail.com
Wes                  NaN
dtype: object

In [170]: data.isnull()
Out[170]: 
Dave     False
Rob      False
Steve    False
Wes       True
dtype: bool

通過data.map趾娃,所有字符串和正則表達式方法都能被應(yīng)用于(傳入lambda表達式或其他函數(shù))各個值,但是如果存在NA(null)就會報錯。為了解決這個問題雇逞,Series有一些能夠跳過NA值的面向數(shù)組方法,進行字符串操作傅寡。通過Series的str屬性即可訪問這些方法。例如,我們可以通過str.contains檢查各個電子郵件地址是否含有"gmail":

In [171]: data.str.contains('gmail')
Out[171]: 
Dave     False
Rob       True
Steve     True
Wes        NaN
dtype: object

也可以使用正則表達式祟蚀,還可以加上任意re選項(如IGNORECASE):

In [172]: pattern
Out[172]: '([A-Z0-9._%+-]+)@([A-Z0-9.-]+)\\.([A-Z]{2,4})'

In [173]: data.str.findall(pattern, flags=re.IGNORECASE)
Out[173]: 
Dave     [(dave, google, com)]
Rob        [(rob, gmail, com)]
Steve    [(steve, gmail, com)]
Wes                        NaN
dtype: object

有兩個辦法可以實現(xiàn)矢量化的元素獲取操作:要么使用str.get颜阐,要么在str屬性上使用索引:

In [174]: matches = data.str.match(pattern, flags=re.IGNORECASE)

In [175]: matches
Out[175]: 
Dave     True
Rob      True
Steve    True
Wes       NaN
dtype: object

要訪問嵌入列表中的元素李剖,我們可以傳遞索引到這兩個函數(shù)中:

In [176]: matches.str.get(1)
Out[176]: 
Dave    NaN
Rob     NaN
Steve   NaN
Wes     NaN
dtype: float64

In [177]: matches.str[0]
Out[177]: 
Dave    NaN
Rob     NaN
Steve   NaN
Wes     NaN
dtype: float64

你可以利用這種方法對字符串進行截攘逄蕖:

In [178]: data.str[:5]
Out[178]: 
Dave     dave@
Rob      rob@g
Steve    steve
Wes        NaN
dtype: object

表7-5介紹了更多的pandas字符串方法坐桩。

表7-5 部分矢量化字符串方法

7.4 總結(jié)

高效的數(shù)據(jù)準備可以讓你將更多的時間用于數(shù)據(jù)分析品擎,花較少的時間用于準備工作脊串,這樣就可以極大地提高生產(chǎn)力叉谜。我們在本章中學(xué)習(xí)了許多工具,但覆蓋并不全面补疑。下一章锹杈,我們會學(xué)習(xí)pandas的聚合與分組。


第1章 準備工作
第2章 Python語法基礎(chǔ)粪滤,IPython和Jupyter
第3章 Python的數(shù)據(jù)結(jié)構(gòu)迫吐、函數(shù)和文件
第4章 NumPy基礎(chǔ):數(shù)組和矢量計算
第5章 pandas入門
第6章 數(shù)據(jù)加載、存儲與文件格式
第7章 數(shù)據(jù)清洗和準備
第8章 數(shù)據(jù)規(guī)整:聚合闪萄、合并和重塑
第9章 繪圖和可視化
第10章 數(shù)據(jù)聚合與分組運算
第11章 時間序列
第12章 pandas高級應(yīng)用
第13章 Python建模庫介紹
第14章 數(shù)據(jù)分析案例
附錄A NumPy高級應(yīng)用
附錄B 更多關(guān)于IPython的內(nèi)容(完)


最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末梧却,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子败去,更是在濱河造成了極大的恐慌,老刑警劉巖烈拒,帶你破解...
    沈念sama閱讀 216,324評論 6 498
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件圆裕,死亡現(xiàn)場離奇詭異,居然都是意外死亡荆几,警方通過查閱死者的電腦和手機吓妆,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,356評論 3 392
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來吨铸,“玉大人行拢,你說我怎么就攤上這事〉ǎ” “怎么了舟奠?”我有些...
    開封第一講書人閱讀 162,328評論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長房维。 經(jīng)常有香客問我沼瘫,道長,這世上最難降的妖魔是什么咙俩? 我笑而不...
    開封第一講書人閱讀 58,147評論 1 292
  • 正文 為了忘掉前任耿戚,我火速辦了婚禮,結(jié)果婚禮上阿趁,老公的妹妹穿的比我還像新娘膜蛔。我一直安慰自己,他們只是感情好脖阵,可當(dāng)我...
    茶點故事閱讀 67,160評論 6 388
  • 文/花漫 我一把揭開白布皂股。 她就那樣靜靜地躺著,像睡著了一般独撇。 火紅的嫁衣襯著肌膚如雪屑墨。 梳的紋絲不亂的頭發(fā)上躁锁,一...
    開封第一講書人閱讀 51,115評論 1 296
  • 那天,我揣著相機與錄音卵史,去河邊找鬼战转。 笑死,一個胖子當(dāng)著我的面吹牛以躯,可吹牛的內(nèi)容都是我干的槐秧。 我是一名探鬼主播,決...
    沈念sama閱讀 40,025評論 3 417
  • 文/蒼蘭香墨 我猛地睜開眼忧设,長吁一口氣:“原來是場噩夢啊……” “哼刁标!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起址晕,我...
    開封第一講書人閱讀 38,867評論 0 274
  • 序言:老撾萬榮一對情侶失蹤膀懈,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后谨垃,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體启搂,經(jīng)...
    沈念sama閱讀 45,307評論 1 310
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,528評論 2 332
  • 正文 我和宋清朗相戀三年刘陶,在試婚紗的時候發(fā)現(xiàn)自己被綠了胳赌。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,688評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡匙隔,死狀恐怖疑苫,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情纷责,我是刑警寧澤捍掺,帶...
    沈念sama閱讀 35,409評論 5 343
  • 正文 年R本政府宣布,位于F島的核電站碰逸,受9級特大地震影響乡小,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜饵史,卻給世界環(huán)境...
    茶點故事閱讀 41,001評論 3 325
  • 文/蒙蒙 一满钟、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧胳喷,春花似錦党晋、人聲如沸珠月。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,657評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至讲竿,卻和暖如春泥兰,著一層夾襖步出監(jiān)牢的瞬間弄屡,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,811評論 1 268
  • 我被黑心中介騙來泰國打工鞋诗, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留膀捷,地道東北人。 一個月前我還...
    沈念sama閱讀 47,685評論 2 368
  • 正文 我出身青樓削彬,卻偏偏與公主長得像全庸,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子融痛,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,573評論 2 353