pandas:使用运算符链过滤 DataFrame 的行
- 2025-01-07 08:44:00
- admin 原创
- 103
问题描述:
中的大多数操作都可以通过运算符链( 、、等)pandas
来完成,但我发现过滤行的唯一方法是通过普通括号索引groupby
`aggregate`apply
df_filtered = df[df['column'] == value]
这很不吸引人,因为它要求我df
先分配给一个变量,然后才能过滤其值。还有更像下面这样的东西吗?
df_filtered = df.mask(lambda x: x['column'] == value)
解决方案 1:
我不完全确定你想要什么,你的最后一行代码也没有什么帮助,但是无论如何:
“链式”过滤是通过“链接”布尔索引中的标准来完成的。
In [96]: df
Out[96]:
A B C D
a 1 4 9 1
b 4 5 0 2
c 5 5 1 0
d 1 3 9 6
In [99]: df[(df.A == 1) & (df.D == 6)]
Out[99]:
A B C D
d 1 3 9 6
如果您想要链接方法,您可以添加自己的 mask 方法并使用该方法。
In [90]: def mask(df, key, value):
....: return df[df[key] == value]
....:
In [92]: pandas.DataFrame.mask = mask
In [93]: df = pandas.DataFrame(np.random.randint(0, 10, (4,4)), index=list('abcd'), columns=list('ABCD'))
In [95]: df.ix['d','A'] = df.ix['a', 'A']
In [96]: df
Out[96]:
A B C D
a 1 4 9 1
b 4 5 0 2
c 5 5 1 0
d 1 3 9 6
In [97]: df.mask('A', 1)
Out[97]:
A B C D
a 1 4 9 1
d 1 3 9 6
In [98]: df.mask('A', 1).mask('D', 6)
Out[98]:
A B C D
d 1 3 9 6
解决方案 2:
可以使用 Pandas查询链接过滤器:
df = pd.DataFrame(np.random.randn(30, 3), columns=['a','b','c'])
df_filtered = df.query('a > 0').query('0 < b < 2')
过滤器也可以组合在单个查询中:
df_filtered = df.query('a > 0 and 0 < b < 2')
解决方案 3:
@lodagro 的回答很棒。我将通过将 mask 函数概括为以下内容来扩展它:
def mask(df, f):
return df[f(df)]
然后你可以做类似的事情:
df.mask(lambda x: x[0] < 0).mask(lambda x: x[1] > 0)
解决方案 4:
自0.18.1 版本起,该.loc
方法接受可调用函数进行选择。结合 lambda 函数,您可以创建非常灵活的可链接过滤器:
import numpy as np
import pandas as pd
df = pd.DataFrame(np.random.randint(0,100,size=(100, 4)), columns=list('ABCD'))
df.loc[lambda df: df.A == 80] # equivalent to df[df.A == 80] but chainable
df.sort_values('A').loc[lambda df: df.A > 80].loc[lambda df: df.B > df.A]
如果您所做的只是过滤,那么您也可以省略.loc
。
解决方案 5:
pandas 提供了两种替代 Wouter Overmeire 答案的方法,不需要任何覆盖。一种是.loc[.]
使用可调用函数,例如
df_filtered = df.loc[lambda x: x['column'] == value]
另一个是.pipe()
,如
df_filtered = df.pipe(lambda x: x.loc[x['column'] == value])
解决方案 6:
我提供这个作为额外的示例。这与https://stackoverflow.com/a/28159296/的答案相同
我将添加其他编辑以使这篇文章更有用。
pandas.DataFrame.query
query
就是为了这个目的而制作的。考虑一下数据框df
import pandas as pd
import numpy as np
np.random.seed([3,1415])
df = pd.DataFrame(
np.random.randint(10, size=(10, 5)),
columns=list('ABCDE')
)
df
A B C D E
0 0 2 7 3 8
1 7 0 6 8 6
2 0 2 0 4 9
3 7 3 2 4 3
4 3 6 7 7 4
5 5 3 7 5 9
6 8 7 6 4 7
7 6 2 6 6 5
8 2 8 7 5 8
9 4 7 6 1 5
让我们用来query
过滤所有行D > B
df.query('D > B')
A B C D E
0 0 2 7 3 8
1 7 0 6 8 6
2 0 2 0 4 9
3 7 3 2 4 3
4 3 6 7 7 4
5 5 3 7 5 9
7 6 2 6 6 5
我们连锁
df.query('D > B').query('C > B')
# equivalent to
# df.query('D > B and C > B')
# but defeats the purpose of demonstrating chaining
A B C D E
0 0 2 7 3 8
1 7 0 6 8 6
4 3 6 7 7 4
5 5 3 7 5 9
7 6 2 6 6 5
解决方案 7:
我的回答和其他人的回答类似。如果你不想创建新函数,你可以使用 pandas 已经为你定义的函数。使用 pipe 方法。
df.pipe(lambda d: d[d['column'] == value])
解决方案 8:
我有同样的问题,只是我想将条件组合成 OR 条件。Wouter Overmeire 给出的格式将条件组合成 AND 条件,这样两个条件都必须满足:
In [96]: df
Out[96]:
A B C D
a 1 4 9 1
b 4 5 0 2
c 5 5 1 0
d 1 3 9 6
In [99]: df[(df.A == 1) & (df.D == 6)]
Out[99]:
A B C D
d 1 3 9 6
但我发现,如果你将每个条件包装起来(... == True)
并用管道连接条件,则条件将组合成 OR 条件,只要其中任何一个为真,条件就会满足:
df[((df.A==1) == True) | ((df.D==6) == True)]
解决方案 9:
只想添加一个演示,使用loc
不仅按行而且按列进行过滤,以及对链接操作的一些优点。
下面的代码可以按值过滤行。
df_filtered = df.loc[df['column'] == value]
通过稍微修改它,您也可以过滤列。
df_filtered = df.loc[df['column'] == value, ['year', 'column']]
那么我们为什么需要链式方法呢?答案是,如果有很多操作,链式方法就更容易阅读。例如,
res = df\n .loc[df['station']=='USA', ['TEMP', 'RF']]\n .groupby('year')\n .agg(np.nanmean)
解决方案 10:
如果您想要应用所有常见的布尔掩码以及通用掩码,您可以将以下内容放入一个文件中,然后简单地将它们全部分配,如下所示:
pd.DataFrame = apply_masks()
用法:
A = pd.DataFrame(np.random.randn(4, 4), columns=["A", "B", "C", "D"])
A.le_mask("A", 0.7).ge_mask("B", 0.2)... (May be repeated as necessary
这有点儿老套,但如果你根据过滤器不断切割和更改数据集,它可以让事情变得更清晰一些。gen_mask 函数中还有一个由 Daniel Velkov 改编的通用过滤器,你可以将其与 lambda 函数一起使用,或者根据需要将其用于其他用途。
要保存的文件(我使用mask.py):
import pandas as pd
def eq_mask(df, key, value):
return df[df[key] == value]
def ge_mask(df, key, value):
return df[df[key] >= value]
def gt_mask(df, key, value):
return df[df[key] > value]
def le_mask(df, key, value):
return df[df[key] <= value]
def lt_mask(df, key, value):
return df[df[key] < value]
def ne_mask(df, key, value):
return df[df[key] != value]
def gen_mask(df, f):
return df[f(df)]
def apply_masks():
pd.DataFrame.eq_mask = eq_mask
pd.DataFrame.ge_mask = ge_mask
pd.DataFrame.gt_mask = gt_mask
pd.DataFrame.le_mask = le_mask
pd.DataFrame.lt_mask = lt_mask
pd.DataFrame.ne_mask = ne_mask
pd.DataFrame.gen_mask = gen_mask
return pd.DataFrame
if __name__ == '__main__':
pass
解决方案 11:
因此,我的看法是,在对数据进行子集设置以备分析时,你要做两件事。
获取行
获取列
Pandas 有多种方法可以实现上述每个功能,还有一些技术可以帮助获取行和列。对于 Pandas 新用户来说,选择太多可能会让人感到困惑。
您是否使用 iloc、loc、括号、查询、isin、np.where、mask 等......
方法链
现在,方法链是数据整理时的好方法。在 R 中,他们有一个简单的方法,即select()
列和filter()
行。
因此,如果我们想让 Pandas 保持简单,为什么不使用filter()
for 列和query()
for 行呢?它们都返回数据框,因此无需处理布尔索引,也无需对df[ ]
返回值进行四舍五入。
那么它看起来像什么:-
df.filter(['col1', 'col2', 'col3']).query("col1 == 'sometext'")
然后您可以链接任何其他方法groupby
,如dropna()
,,,sort_values()
等等reset_index()
。
通过保持一致并使用它filter()
获取列和query()
行,一段时间后再返回时将更容易读取代码。
但是过滤器可以选择行吗?
是的,这是真的,但默认情况下query()
会获取行和filter()
列。因此,如果您坚持使用默认设置,则无需使用该axis=
参数。
询问()
and
query() 可以与//一起使用or
&
,|
也可以使用比较运算符> , < , >= , <=, ==, !=
。您还可以使用 Python in,而不是 in。
您可以使用@my_list传递列表进行查询
使用查询获取行的一些示例
df.query('A > B')
df.query('a not in b')
df.query("series == '2206'")
df.query("col1 == @mylist")
df.query('Salary_in_1000 >= 100 & Age < 60 & FT_Team.str.startswith("S").values')
筛选()
因此,过滤器基本上类似于使用括号df[]
,或者df[[]]
说它使用标签来选择列。但它的作用比括号符号更多。
过滤器有like=
参数,以帮助选择具有部分名称的列。
df.filter(like='partial_name',)
过滤器也有正则表达式来帮助选择
df.filter(regex='reg_string')
因此,总结一下,这种工作方式可能不适用于所有情况,例如,如果您想使用索引/切片,那么 iloc 就是最佳选择。但这似乎是一种可靠的工作方式,可以简化您的工作流程和代码。
解决方案 12:
这个解决方案在实施方面更加黑客化,但我发现它在使用方面更加干净,并且肯定比其他提出的解决方案更通用。
https://github.com/toobaz/generic_utils/blob/master/generic_utils/pandas/where.py
你不需要下载整个仓库:保存文件并执行
from where import where as W
就足够了。然后你可以像这样使用它:
df = pd.DataFrame([[1, 2, True],
[3, 4, False],
[5, 7, True]],
index=range(3), columns=['a', 'b', 'c'])
# On specific column:
print(df.loc[W['a'] > 2])
print(df.loc[-W['a'] == W['b']])
print(df.loc[~W['c']])
# On entire - or subset of a - DataFrame:
print(df.loc[W.sum(axis=1) > 3])
print(df.loc[W[['a', 'b']].diff(axis=1)['b'] > 1])
一个稍微不那么愚蠢的用法示例:
data = pd.read_csv('ugly_db.csv').loc[~(W == '$null$').any(axis=1)]
顺便说一句:即使在您仅使用布尔值的情况下,
df.loc[W['cond1']].loc[W['cond2']]
比
df.loc[W['cond1'] & W['cond2']]
因为它只评估cond2
在cond1
哪里True
。
免责声明:我首先在其他地方给出了这个答案,因为我没有看到过这个。
解决方案 13:
这没有吸引力的,因为它要求我
df
先分配给一个变量,然后才能过滤其值。
df[df["column_name"] != 5].groupby("other_column_name")
似乎有效:您[]
也可以嵌套该运算符。也许他们自从您提出这个问题后就添加了它。
解决方案 14:
您还可以利用numpy库进行逻辑运算。它的速度非常快。
df[np.logical_and(df['A'] == 1 ,df['B'] == 6)]
解决方案 15:
如果您将要搜索的列设置为索引,则可以使用它DataFrame.xs()
进行横截面分析。这不像query
答案那样通用,但在某些情况下可能会有用。
import pandas as pd
import numpy as np
np.random.seed([3,1415])
df = pd.DataFrame(
np.random.randint(3, size=(10, 5)),
columns=list('ABCDE')
)
df
# Out[55]:
# A B C D E
# 0 0 2 2 2 2
# 1 1 1 2 0 2
# 2 0 2 0 0 2
# 3 0 2 2 0 1
# 4 0 1 1 2 0
# 5 0 0 0 1 2
# 6 1 0 1 1 1
# 7 0 0 2 0 2
# 8 2 2 2 2 2
# 9 1 2 0 2 1
df.set_index(['A', 'D']).xs([0, 2]).reset_index()
# Out[57]:
# A D B C E
# 0 0 2 2 2 2
# 1 0 2 1 1 0