文章目录

  • 前言
  • 一、复杂查询
    • 1.逻辑运算
    • 2、逻辑筛选数据
  • 表达式与切片一致
    • 3、函数筛选
    • 4、比较函数
    • 5、查询df.query()
    • 6、筛选df.filter()
    • 7、按数据类型查询
  • 二、数据类型转换
    • 1、推断类型
    • 2、指定类型
    • 3、类型转换astype()
    • 4、转为时间类型
  • 三、数据排序
    • 1、索引排序df.sort_index()
    • 2、数值排序sort_values()
    • 3、混合排序
    • 4、按值大小排序nsmallest()和nlargest()
  • 04、添加修改
    • 1、修改数值
    • 2、替换数据
    • 3、填充空值
    • 4、修改索引名
    • 5、增加列
    • 6、插入列df.insert()
    • 7、指定列df.assign()
    • 8、执行表达式df.eval()
    • 9、增加行
    • 11、删除
    • 12、删除空值
  • 05、高级过滤
    • 1、df.where()
    • 2、np.where()
    • 3、df.mask()
    • 4、df.lookup()
  • 06、数据迭代
    • 1、迭代Series
    • 2、df.iterrows()
    • 3、df.itertuples()
    • 4、df.items()
    • 5、按列迭代
  • 07、函数应用
    • 1、pipe()
    • 2、apply()
    • 3、applymap()
    • 4、map()
    • 5、agg()
    • 6、transform()
    • 7、copy()
  • 总结

前言

在数据分析和数据建模的过程中需要对数据进行清洗和整理等工作,有时需要对数据增删字段。下面为大家介绍Pandas对数据的复杂查询、数据类型转换、数据排序、数据的修改、数据迭代以及函数的使用。

一、复杂查询

1.逻辑运算

#Q1成绩大于36
df.Q1> 36
Q1成绩不小于60分,并且是C组成员
~(df.Q1< 60) & (df[‘team’] == ‘C’)

2、逻辑筛选数据

切片([ ])、.loc[ ]和.iloc[ ]均支持上文所介绍的逻辑表达式。

以下是切片([ ])的逻辑筛选示例:

df[df[‘Q1’]== 8] # Q1等于8
df[~(df[‘Q1’]== 8)] # 不等于8
df[df.name== ‘Ben’] # 姓名为Ben
df[df.Q1> df.Q2]

以下是.loc[ ]和.lic[ ]示例:

表达式与切片一致

df.loc[df[‘Q1’]> 90, ‘Q1’:] # Q1大于90,只显示Q1
df.loc[(df.Q1> 80) & (df.Q2 < 15)] # and关系
df.loc[(df.Q1> 90) | (df.Q2 < 90)] # or关系
df.loc[df[‘Q1’]== 8] # 等于8
df.loc[df.Q1== 8] # 等于8
df.loc[df[‘Q1’]> 90, ‘Q1’:] # Q1大于90,显示Q1及其后所有列

3、函数筛选

查询最大索引的值
df.Q1[lambdas: max(s.index)] # 值为21
#计算最大值
max(df.Q1.index)
#99
df.Q1[df.index==99]

4、比较函数

#以下相当于 df[df.Q1 == 60]
df[df.Q1.eq(60)]
df.ne() # 不等于 !=
df.le() # 小于等于 <=
df.lt() # 小于 <
df.ge() # 大于等于 >=
df.gt() # 大于 >

5、查询df.query()

df.query(‘Q1 > Q2 > 90’) # 直接写类型SQL where语句

还支持使用@符引入变量

#支持传入变量,如大于平均分40分的
a = df.Q1.mean()
df.query(‘Q1 > @a+40’)
df.query(‘Q1 > Q2+@a’)

df.eval()与df.query()类似,也可以用于表达式筛选。

#df.eval()用法与df.query类似
df[df.eval(“Q1 > 90 > Q3 >10”)]

df[df.eval(“Q1 > Q2+@a”)]

6、筛选df.filter()

f.filter(items=[‘Q1’, ‘Q2’]) # 选择两列
df.filter(regex=‘Q’, axis=1) # 列名包含Q的列
df.filter(regex=‘eKaTeX parse error: Expected 'EOF', got '#' at position 12: ', axis=1) #̲ 以e结尾的列 df.filt…’, axis=0) # 正则,索引名以1结尾
df.filter(like=‘2’, axis=0) # 索引中有2的
#索引中以2开头、列名有Q的

df.filter(regex=‘^2’,axis=0).filter(like=‘Q’, axis=1)

7、按数据类型查询

df.select_dtypes(include=[‘float64’]) # 选择float64型数据
df.select_dtypes(include=‘bool’)
df.select_dtypes(include=[‘number’]) # 只取数字型
df.select_dtypes(exclude=[‘int’]) # 排除int类型
df.select_dtypes(exclude=[‘datetime64’])

二、数据类型转换

在开始数据分析前,我们需要为数据分配好合适的类型,这样才能够高效地处理数据。不同的数据类型适用于不同的处理方法。


# 对所有字段指定统一类型
df = pd.DataFrame(data, dtype='float32')
# 对每个字段分别指定
df = pd.read_excel(data, dtype={'team':'string', 'Q1': 'int32'})

1、推断类型


# 自动转换合适的数据类型
df.infer_objects() # 推断后的DataFrame
df.infer_objects().dtypes

2、指定类型


# 按大体类型推定
m = ['1', 2, 3]
s = pd.to_numeric(s) # 转成数字
pd.to_datetime(m) # 转成时间
pd.to_timedelta(m) # 转成时间差
pd.to_datetime(m, errors='coerce') # 错误处理
pd.to_numeric(m, errors='ignore')
pd.to_numeric(m errors='coerce').fillna(0) # 兜底填充
pd.to_datetime(df[['year', 'month', 'day']])
# 组合成日期

3、类型转换astype()

df.Q1.astype('int32').dtypes
# dtype('int32')
df.astype({'Q1': 'int32','Q2':'int32'}).dtypes

4、转为时间类型

t = pd.Series([‘20200801’, ‘20200802’])

三、数据排序

数据排序是指按一定的顺序将数据重新排列,帮助使用者发现数据的变化趋势,同时提供一定的业务线索,还具有对数据纠错、分类等作用。

1、索引排序df.sort_index()


s.sort_index() # 升序排列
df.sort_index() # df也是按索引进行排序
df.team.sort_index()s.sort_index(ascending=False)# 降序排列
s.sort_index(inplace=True) # 排序后生效,改变原数据
# 索引重新0-(n-1)排,很有用,可以得到它的排序号
s.sort_index(ignore_index=True)
s.sort_index(na_position='first') # 空值在前,另'last'表示空值在后
s.sort_index(level=1) # 如果多层,排一级
s.sort_index(level=1, sort_remaining=False) #这层不排
# 行索引排序,表头排序df.sort_index(axis=1) # 会把列按列名顺序排列

2、数值排序sort_values()

df.Q1.sort_values()
df.sort_values('Q4')
df.sort_values(by=['team', 'name'],ascending=[True, False])

其他方法:


s.sort_values(ascending=False) # 降序
s.sort_values(inplace=True) # 修改生效
s.sort_values(na_position='first') # 空值在前
# df按指定字段排列
df.sort_values(by=['team'])
df.sort_values('Q1')
# 按多个字段,先排team,在同team内再看Q1
df.sort_values(by=['team', 'Q1'])
# 全降序
df.sort_values(by=['team', 'Q1'], ascending=False)
# 对应指定team升Q1降
df.sort_values(by=['team', 'Q1'],ascending=[True, False])
# 索引重新0-(n-1)排
df.sort_values('team', ignore_index=True)

3、混合排序


df.set_index('name', inplace=True) # 设置name为索引
df.index.names = ['s_name'] # 给索引起名
df.sort_values(by=['s_name', 'team']) # 排序

4、按值大小排序nsmallest()和nlargest()


s.nsmallest(3) # 最小的3个
s.nlargest(3) # 最大的3个
# 指定列
df.nlargest(3, 'Q1')
df.nlargest(5, ['Q1', 'Q2'])
df.nsmallest(5, ['Q1', 'Q2'])

04、添加修改

数据的修改、增加和删除在数据整理过程中时常发生。修改的情况一般是修改错误、格式转换,数据的类型修改等。

1、修改数值


df.iloc[0,0] # 查询值
# 'Liver'
df.iloc[0,0] = 'Lily' # 修改值
df.iloc[0,0] # 查看结果
# 'Lily'# 将小于60分的成绩修改为60
df[df.Q1 < 60] = 60
# 查看
df.Q1# 生成一个长度为100的列表
v = [1, 3, 5, 7, 9] * 20

2、替换数据


s.replace(0, 5) # 将列数据中的0换为5
df.replace(0, 5) # 将数据中的所有0换为5
df.replace([0, 1, 2, 3], 4) # 将0~3全换成4
df.replace([0, 1, 2, 3], [4, 3, 2, 1]) # 对应修改
s.replace([1, 2], method='bfill') # 向下填充
df.replace({0: 10, 1: 100}) # 字典对应修改
df.replace({'Q1': 0, 'Q2': 5}, 100) # 将指定字段的指定值修改为100
df.replace({'Q1': {0: 100, 4: 400}}) # 将指定列里的指定值替换为另一个指定的值

3、填充空值


df.fillna(0) # 将空值全修改为0
# {'backfill', 'bfill', 'pad', 'ffill',None}, 默认为None
df.fillna(method='ffill') # 将空值都修改为其前一个值
values = {'A': 0, 'B': 1, 'C': 2, 'D': 3}
df.fillna(value=values) # 为各列填充不同的值
df.fillna(value=values, limit=1) # 只替换第一个

4、修改索引名


df.rename(columns={'team':'class'})常用方法如下:df.rename(columns={"Q1":"a", "Q2": "b"}) # 对表头进行修改
df.rename(index={0: "x", 1:"y", 2: "z"}) # 对索引进行修改
df.rename(index=str) # 对类型进行修改
df.rename(str.lower, axis='columns') # 传索引类型
df.rename({1: 2, 2: 4}, axis='index')# 对索引名进行修改
s.rename_axis("animal")
df.rename_axis("animal") # 默认是列索引
df.rename_axis("limbs",axis="columns") # 指定行索引# 索引为多层索引时可以将type修改为class
df.rename_axis(index={'type': 'class'})# 可以用set_axis进行设置修改
s.set_axis(['a', 'b', 'c'], axis=0)
df.set_axis(['I', 'II'], axis='columns')
df.set_axis(['i', 'ii'], axis='columns',inplace=True)

5、增加列


df['foo'] = 100 # 增加一列foo,所有值都是100
df['foo'] = df.Q1 + df.Q2 # 新列为两列相加
df['foo'] = df['Q1'] + df['Q2'] # 同上
# 把所有为数字的值加起来
df['total'] =df.select_dtypes(include=['int']).sum(1)df['total'] =
df.loc[:,'Q1':'Q4'].apply(lambda x: sum(x), axis='columns')
df.loc[:, 'Q10'] = '我是新来的' # 也可以
# 增加一列并赋值,不满足条件的为NaN
df.loc[df.num >= 60, '成绩'] = '合格'
df.loc[df.num < 60, '成绩'] = '不合格'

6、插入列df.insert()


# 在第三列的位置上插入新列total列,值为每行的总成绩
df.insert(2, 'total', df.sum(1))

7、指定列df.assign()

# 增加total列
df.assign(total=df.sum(1))
# 增加两列
df.assign(total=df.sum(1), Q=100)
df.assign(total=df.sum(1)).assign(Q=100)
其他使用示例:
df.assign(Q5=[100]*100) # 新增加一列Q5
df = df.assign(Q5=[100]*100) # 赋值生效
df.assign(Q6=df.Q2/df.Q1) # 计算并增加Q6
df.assign(Q7=lambda d: d.Q1 * 9 / 5 + 32) # 使用lambda# 添加一列,值为表达式结果:True或False
df.assign(tag=df.Q1>df.Q2)
# 比较计算,True为1,False为0
df.assign(tag=(df.Q1>df.Q2).astype(int))
# 映射文案
df.assign(tag=(df.Q1>60).map({True:'及格',False:'不及格'}))
# 增加多个
df.assign(Q8=lambda d: d.Q1*5,Q9=lambda d: d.Q8+1) # Q8没有生效,不能直接用df.Q8

8、执行表达式df.eval()


# 传入求总分表达式
df.eval('total = Q1+Q3+Q3+Q4')

其他方法:

df[‘C1’] = df.eval(‘Q2 + Q3’)
df.eval(‘C2 = Q2 + Q3’) # 计算
a = df.Q1.mean()df.eval(“C3 =Q3+@a”) # 使用变量
df.eval(“C3 = Q2 > (Q3+@a)”) #加一个布尔值
df.eval(‘C4 = name + team’, inplace=True) # 立即生效

9、增加行


# 新增索引为100的数据
df.loc[100] = ['tom', 'A', 88, 88, 88, 88]其他方法:df.loc[101]={'Q1':88,'Q2':99} # 指定列,无数据列值为NaN
df.loc[df.shape[0]+1] = {'Q1':88,'Q2':99} # 自动增加索引
df.loc[len(df)+1] = {'Q1':88,'Q2':99}
# 批量操作,可以使用迭代
rows = [[1,2],[3,4],[5,6]]
for row in rows:df.loc[len(df)] = row

11、删除

# 删除索引为3的数据
s.pop(3)
# 93s
s

12、删除空值

df.dropna() # 一行中有一个缺失值就删除
df.dropna(axis='columns') # 只保留全有值的列
df.dropna(how='all') # 行或列全没值才删除
df.dropna(thresh=2) # 至少有两个空值时才删除
df.dropna(inplace=True) # 删除并使替换生效

05、高级过滤

介绍几个非常好用的复杂数据处理的数据过滤输出方法。

1、df.where()


# 数值大于70
df.where(df > 70)

2、np.where()


# 小于60分为不及格
np.where(df>=60, '合格', '不合格')

3、df.mask()


# 符合条件的为NaN
df.mask(s > 80)

4、df.lookup()


# 行列相同数量,返回一个array
df.lookup([1,3,4], ['Q1','Q2','Q3']) # array([36, 96, 61])
df.lookup([1], ['Q1']) # array([36])

06、数据迭代

1、迭代Series


# 迭代指定的列
for i in df.name:print(i)
# 迭代索引和指定的两列
for i,n,q in zip(df.index, df.name,df.Q1):
print(i, n, q)

2、df.iterrows()

# 迭代,使用name、Q1数据
for index, row in df.iterrows():
print(index, row['name'], row.Q1)

3、df.itertuples()


for row in df.itertuples():
print(row)

4、df.items()


# Series取前三个
for label, ser in df.items():print(label)
print(ser[:3], end='\n\n')

5、按列迭代


# 直接对DataFrame迭代
for column in df:
print(column)

07、函数应用

1、pipe()

应用在整个DataFrame或Series上。# 对df多重应用多个函数
f(g(h(df), arg1=a), arg2=b, arg3=c)
# 用pipe可以把它们连接起来
(df.pipe(h).pipe(g, arg1=a).pipe(f, arg2=b, arg3=c))

2、apply()

应用在DataFrame的行或列中,默认为列。# 将name全部变为小写
df.name.apply(lambda x: x.lower())

3、applymap()

应用在Series或DataFrame的一列的每个元素中。df.team.map({'A':'一班', 'B':'二班','C':'三班', 'D':'四班',})# 枚举替换
df['name'].map(f)

4、map()

应用在Series或DataFrame的一列的每个元素中。df.team.map({'A':'一班', 'B':'二班','C':'三班', 'D':'四班',})# 枚举替换
df['name'].map(f)

5、agg()


# 每列的最大值
df.agg('max')
# 将所有列聚合产生sum和min两行
df.agg(['sum', 'min'])
# 序列多个聚合
df.agg({'Q1' : ['sum', 'min'], 'Q2' : ['min','max']})
# 分组后聚合
df.groupby('team').agg('max')
df.Q1.agg(['sum', 'mean'])

6、transform()


df.transform(lambda x: x*2) # 应用匿名函数
df.transform([np.sqrt, np.exp]) # 调用多个函数

7、copy()

s = pd.Series([1, 2], index=[“a”,“b”])
s_1 = s
s_copy = s.copy()
s_1 is s # True
s_copy is s # False


总结

高频常用50个pandas分享到此结束!

【Python】强烈推荐的50个Pandas常用高级操作(建议收藏)相关推荐

  1. 【EPS精品教程】EPS2016三维测图软件常用快捷键(建议收藏)

    EPS2016三维测图软件常用快捷键(建议收藏) 状 态 键盘位置 功能名称 功能描述 选择 Shift 拖点 按下鼠标左键移动光标,将目标点拖到其他位置 C 闭合 使打开的当前线闭合,闭合的当前线打 ...

  2. 【Windows常用快捷键,建议收藏】

    Windows常用快捷键,建议收藏 作为一名出色的程序员,亦或者是白领工作者,乃至正要步入社会的青年们,以下盘点的一些快捷键,也许能让你的日常生活工作更加便捷.高效. 基本快捷方式 首先面向我们大众, ...

  3. 【Python】超全的 100 个 Pandas 函数汇总,建议收藏

    来源:吊车尾学院 编辑:杰哥的IT之旅 我整理了100个Pandas常用的函数,分别分为6类:统计汇总函数.数据清洗函数.数据筛选.绘图与元素级运算函数.时间序列函数和其他函数. 统计汇总函数 函数 ...

  4. Python小练习1:.txt文件常用读写操作

    .txt文件常用读写操作 本文通过一个实例来介绍读写txt文件的各种常用操作,问题修改自coursera上南京大学的课程:用Python玩转数据. 直接进入正题,考虑下面为练习读写txt文件的各种操作 ...

  5. 超全的 100 个 Pandas 函数汇总,建议收藏

    来源丨吊车尾学院 大家好,我是菜鸟哥! 今天给大家整理了100个Pandas常用的函数. 分别分为6类:统计汇总函数.数据清洗函数.数据筛选.绘图与元素级运算函数.时间序列函数和其他函数. 统计汇总函 ...

  6. 【Python】全面掌握Python基础,这一篇就够了,建议收藏

    Python中有6个标准的数据类型:Number(数字).String(字符串).List(列表).Tuple(元组).Set(集合).Dictionary(字典),每种类型有其固有的属性和方法,学会 ...

  7. python时间序列可视化_TOP50 Python可视化经典案例下(附源码,建议收藏)

    昨天行哥给大家统计了数据可视化前30张图表代码和案例给大家,今天把分享Python可视化案例TOP 50下,如果想转行做数据分析,这两篇推文强烈建议收藏,对于学习有任何问题都可以点击阅读原文向行哥提问 ...

  8. 整理了90个Pandas案例,强烈建议收藏!

    给大家分享90个Pandas案例. 文章很长,高低要忍一下,如果忍不了,那就收藏吧,总会用到的 如何使用列表和字典创建 Series 使用列表创建 Series 使用 name 参数创建 Series ...

  9. un7.29:Linux——常用命令(建议收藏)。

    Linux作为常用的一款虚拟机,广受大家欢迎,在Linux虚拟机中,其实也有自己的一套指令,掌握这些指令,其他的一切就都不是问题,今天我就给大家分享Linux中常用的命令,建议收藏起来. 一.常用命令 ...

最新文章

  1. Android中的HTTP通信
  2. ecshop商品详情相册顺序调整
  3. AIX系统文件安全性方面的几点考虑
  4. canvas系列教程02-直线和曲线
  5. Java中常见的5种WEB服务器介绍
  6. oracle精简版_使用Entity Framework Core访问数据库(Oracle篇)
  7. 2使用教学_建水三中智能交互式液晶一体机设备投入使用
  8. 全球首发!计算机视觉Polygon Mesh Processing总结9——Triangle-Based Remeshing
  9. 10.深入分布式缓存:从原理到实践 --- EVCache探秘
  10. 12.13 Nginx防盗链 12.14 Nginx访问控制 12.15 Nginx解析php相关配置 12.16 Nginx代理
  11. 层次凝聚聚类算法(HAC)
  12. 故障树手册(Fault Tree handbook)(1)
  13. MKVToolNix v72.0 MKV视频封装工具
  14. 分享一个十二色相环取色RGB颜色值与十六进制色码转换工具
  15. 微信域名防封、域名检测接口api、域名跳转技术、360防拦截揭秘(二)------传统防封的弊端
  16. 重庆大学大数据与软件学院阿里云大数据实训总结报告
  17. Matlab机器人工具箱(Robotics Toolbox)学习笔记
  18. Linux下压缩某个文件夹(文件夹打包)
  19. 使用QT:复刻俄罗斯方块游戏
  20. Linux基本操作之虚拟机和主机的域名映射

热门文章

  1. UltraISO 软碟通制作系统U盘
  2. 【SHELL】如何让一个脚本有错误时停下来?
  3. Tableau图表 • 堆积发散条形图(李克特量表)
  4. 桌面上ie图标不见了,怎样恢复
  5. ASEMI场效应管7N80怎么测量好坏
  6. android模拟门禁,IT之家学院:利用tasker实现门禁卡模拟
  7. Incorrect username or password ( access token )
  8. 360二代加固脱壳方法总结
  9. IBM serverx440 光通路诊断面板
  10. 硬件编解码,软件编解码,H.263、H.264、H.265/HEVC概念