如何根据列值从 DataFrame 中选择行?
- 2024-11-15 08:36:00
- admin 原创
- 38
问题描述:
如何根据 Pandas 中某些列的值从 DataFrame 中选择行?
在 SQL 中,我将使用:
SELECT *
FROM table
WHERE column_name = some_value
解决方案 1:
要选择列值等于标量的行,some_value
请使用==
:
df.loc[df['column_name'] == some_value]
要选择列值在可迭代中的行,some_values
请使用isin
:
df.loc[df['column_name'].isin(some_values)]
结合多个条件&
:
df.loc[(df['column_name'] >= A) & (df['column_name'] <= B)]
注意括号。由于 Python 的运算符优先级规则,比和&
绑定得更紧密。因此,上一个示例中的括号是必需的。没有括号<=
`>=`
df['column_name'] >= A & df['column_name'] <= B
解析为
df['column_name'] >= (A & df['column_name']) <= B
这导致一系列的真值出现歧义错误。
要选择列值不等于 some_value
的行,请使用!=
:
df.loc[df['column_name'] != some_value]
返回isin
一个布尔系列,因此要选择值不在的行some_values
,请使用对布尔系列取反~
:
df = df.loc[~df['column_name'].isin(some_values)] # .loc is not in-place replacement
例如,
import pandas as pd
import numpy as np
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
'B': 'one one two three two two one three'.split(),
'C': np.arange(8), 'D': np.arange(8) * 2})
print(df)
# A B C D
# 0 foo one 0 0
# 1 bar one 1 2
# 2 foo two 2 4
# 3 bar three 3 6
# 4 foo two 4 8
# 5 bar two 5 10
# 6 foo one 6 12
# 7 foo three 7 14
print(df.loc[df['A'] == 'foo'])
产量
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
如果您有多个想要包含的值,请将它们放在列表中(或更一般地,任何可迭代对象)并使用isin
:
print(df.loc[df['B'].isin(['one','three'])])
产量
A B C D
0 foo one 0 0
1 bar one 1 2
3 bar three 3 6
6 foo one 6 12
7 foo three 7 14
但请注意,如果您希望多次执行此操作,则先创建索引然后使用会更有效df.loc
:
df = df.set_index(['B'])
print(df.loc['one'])
产量
A C D
B
one foo 0 0
one bar 1 2
one foo 6 12
或者,要包含索引中的多个值,请使用df.index.isin
:
df.loc[df.index.isin(['one','two'])]
产量
A C D
B
one foo 0 0
one bar 1 2
two foo 2 4
two foo 4 8
two bar 5 10
one foo 6 12
解决方案 2:
有几种方法可以从 Pandas 数据框中选择行:
布尔索引 (
df[df['col'] == value
] )位置索引 (
df.iloc[...]
)标签索引 (
df.xs(...)
)df.query(...)
API
下面我将向您展示每个示例,并给出何时使用某些技术的建议。假设我们的标准是列'A'
=='foo'
(关于性能的说明:对于每种基本类型,我们可以通过使用 Pandas API 来使事情变得简单,或者我们可以尝试使用 API 之外的方法,通常是使用 NumPy,这样可以加快速度。)
设置
我们首先需要确定一个条件,作为选择行的标准。我们将从 OP 的案例开始column_name == some_value
,并包括一些其他常见用例。
借用@unutbu 的话:
import pandas as pd, numpy as np
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
'B': 'one one two three two two one three'.split(),
'C': np.arange(8), 'D': np.arange(8) * 2})
1. 布尔索引
'A'
... 布尔索引需要找到每行列中等于的真值'foo'
,然后使用这些真值来确定要保留哪些行。通常,我们会将此系列(真值数组)命名为。mask
我们在这里也会这样做。
mask = df['A'] == 'foo'
然后我们可以用这个掩码来切片或索引数据框
df[mask]
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
这是完成此任务最简单的方法之一,如果性能或直观性不是问题,则应选择此方法。但是,如果性能是一个问题,那么您可能需要考虑创建 的另一种方法mask
。
2. 位置索引
位置索引 ( df.iloc[...]
) 有其用例,但这不是其中之一。为了确定切片位置,我们首先需要执行与上面相同的布尔分析。这让我们执行一个额外的步骤来完成相同的任务。
mask = df['A'] == 'foo'
pos = np.flatnonzero(mask)
df.iloc[pos]
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
3. 标签索引
标签索引可能非常方便,但在这种情况下,我们又做了更多的工作却没有任何好处
df.set_index('A', append=True, drop=False).xs('foo', level=1)
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
4. df.query()
API
pd.DataFrame.query
是执行此任务的一种非常优雅/直观的方法,但通常速度较慢。但是,如果您注意下面的时间安排,对于大数据,查询非常高效。比标准方法更有效,并且与我的最佳建议类似。
df.query('A == "foo"')
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
我倾向于使用Boolean
mask
通过修改我们创建的方式,我们可以实现实际的改进Boolean
mask
。
mask
替代方案 1
使用底层 NumPy 数组,并放弃创建另一个数组的开销pd.Series
mask = df['A'].values == 'foo'
我将在最后展示更完整的时间测试,但只需看一下使用示例数据框获得的性能提升。首先,我们来看看创建mask
%timeit mask = df['A'].values == 'foo'
%timeit mask = df['A'] == 'foo'
5.84 µs ± 195 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
166 µs ± 4.45 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
使用 NumPy 数组进行求值的速度mask
大约快 30 倍。部分原因是 NumPy 求值通常更快。部分原因是缺乏构建索引和相应pd.Series
对象所需的开销。
接下来,我们来比较一下使用其中一种进行切片的时间mask
。
mask = df['A'].values == 'foo'
%timeit df[mask]
mask = df['A'] == 'foo'
%timeit df[mask]
219 µs ± 12.3 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
239 µs ± 7.03 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
性能提升并不明显。我们将看看这是否能经受住更严格的测试。
mask
替代方案 2
我们也可以重建数据框。重建数据框时有一个很大的警告——你必须小心dtypes
!
我们将这样df[mask]
做
pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)
如果数据框是混合类型(我们的示例就是如此),那么当我们得到df.values
结果数组时,结果数组为dtype
object
,因此新数据框的所有列都将为dtype
object
。因此需要astype(df.dtypes)
并消除任何潜在的性能提升。
%timeit df[m]
%timeit pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)
216 µs ± 10.4 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
1.43 ms ± 39.6 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
然而,如果数据框不是混合类型,这是一种非常有用的方法。
鉴于
np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))
d1
A B C D E
0 0 2 7 3 8
1 7 0 6 8 6
2 0 2 0 4 9
3 7 3 2 4 3
4 3 6 7 7 4
5 5 3 7 5 9
6 8 7 6 4 7
7 6 2 6 6 5
8 2 8 7 5 8
9 4 7 6 1 5
%%timeit
mask = d1['A'].values == 7
d1[mask]
179 µs ± 8.73 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
相对
%%timeit
mask = d1['A'].values == 7
pd.DataFrame(d1.values[mask], d1.index[mask], d1.columns)
87 µs ± 5.12 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
我们将时间缩短了一半。
mask
替代方案 3
@unutbu 还向我们展示了如何使用pd.Series.isin
来解释df['A']
一组值中的每个元素。如果我们的一组值是一组值,即 ,则其计算结果相同'foo'
。但如果需要,它还可以推广到包括更大的值集。事实证明,尽管这是一个更通用的解决方案,但速度仍然相当快。唯一真正的损失是对于那些不熟悉这个概念的人来说缺乏直观性。
mask = df['A'].isin(['foo'])
df[mask]
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
但是,和以前一样,我们可以利用 NumPy 来提高性能,同时几乎不牺牲任何性能。我们将使用np.in1d
mask = np.in1d(df['A'].values, ['foo'])
df[mask]
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
定时
我还会将其他帖子中提到的其他概念也纳入其中以供参考。
下面的代码
此表中的每一列代表一个不同长度的数据框,我们在此数据框上测试每个函数。每列显示所花费的相对时间,最快的函数的基本索引为1.0
。
res.div(res.min())
10 30 100 300 1000 3000 10000 30000
mask_standard 2.156872 1.850663 2.034149 2.166312 2.164541 3.090372 2.981326 3.131151
mask_standard_loc 1.879035 1.782366 1.988823 2.338112 2.361391 3.036131 2.998112 2.990103
mask_with_values 1.010166 1.000000 1.005113 1.026363 1.028698 1.293741 1.007824 1.016919
mask_with_values_loc 1.196843 1.300228 1.000000 1.000000 1.038989 1.219233 1.037020 1.000000
query 4.997304 4.765554 5.934096 4.500559 2.997924 2.397013 1.680447 1.398190
xs_label 4.124597 4.272363 5.596152 4.295331 4.676591 5.710680 6.032809 8.950255
mask_with_isin 1.674055 1.679935 1.847972 1.724183 1.345111 1.405231 1.253554 1.264760
mask_with_in1d 1.000000 1.083807 1.220493 1.101929 1.000000 1.000000 1.000000 1.144175
您会注意到,最快的时间似乎是mask_with_values
和所占的mask_with_in1d
。
res.T.plot(loglog=True)
功能
def mask_standard(df):
mask = df['A'] == 'foo'
return df[mask]
def mask_standard_loc(df):
mask = df['A'] == 'foo'
return df.loc[mask]
def mask_with_values(df):
mask = df['A'].values == 'foo'
return df[mask]
def mask_with_values_loc(df):
mask = df['A'].values == 'foo'
return df.loc[mask]
def query(df):
return df.query('A == "foo"')
def xs_label(df):
return df.set_index('A', append=True, drop=False).xs('foo', level=-1)
def mask_with_isin(df):
mask = df['A'].isin(['foo'])
return df[mask]
def mask_with_in1d(df):
mask = np.in1d(df['A'].values, ['foo'])
return df[mask]
测试
res = pd.DataFrame(
index=[
'mask_standard', 'mask_standard_loc', 'mask_with_values', 'mask_with_values_loc',
'query', 'xs_label', 'mask_with_isin', 'mask_with_in1d'
],
columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
dtype=float
)
for j in res.columns:
d = pd.concat([df] * j, ignore_index=True)
for i in res.index:a
stmt = '{}(d)'.format(i)
setp = 'from __main__ import d, {}'.format(i)
res.at[i, j] = timeit(stmt, setp, number=50)
特殊时机
dtype
看看整个数据框中只有一个非对象的特殊情况。
下面的代码
spec.div(spec.min())
10 30 100 300 1000 3000 10000 30000
mask_with_values 1.009030 1.000000 1.194276 1.000000 1.236892 1.095343 1.000000 1.000000
mask_with_in1d 1.104638 1.094524 1.156930 1.072094 1.000000 1.000000 1.040043 1.027100
reconstruct 1.000000 1.142838 1.000000 1.355440 1.650270 2.222181 2.294913 3.406735
事实证明,对于超过几百行的数据来说,重建是不值得的。
spec.T.plot(loglog=True)
功能
np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))
def mask_with_values(df):
mask = df['A'].values == 'foo'
return df[mask]
def mask_with_in1d(df):
mask = np.in1d(df['A'].values, ['foo'])
return df[mask]
def reconstruct(df):
v = df.values
mask = np.in1d(df['A'].values, ['foo'])
return pd.DataFrame(v[mask], df.index[mask], df.columns)
spec = pd.DataFrame(
index=['mask_with_values', 'mask_with_in1d', 'reconstruct'],
columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
dtype=float
)
测试
for j in spec.columns:
d = pd.concat([df] * j, ignore_index=True)
for i in spec.index:
stmt = '{}(d)'.format(i)
setp = 'from __main__ import d, {}'.format(i)
spec.at[i, j] = timeit(stmt, setp, number=50)
解决方案 3:
总结
Pandas 相当于
select * from table where column_name = some_value
是
table[table.column_name == some_value]
多个条件:
table[(table.column_name == some_value) | (table.column_name2 == some_value2)]
或者
table.query('column_name == some_value | column_name2 == some_value2')
代码示例
import pandas as pd
# Create data set
d = {'foo':[100, 111, 222],
'bar':[333, 444, 555]}
df = pd.DataFrame(d)
# Full dataframe:
df
# Shows:
# bar foo
# 0 333 100
# 1 444 111
# 2 555 222
# Output only the row(s) in df where foo is 222:
df[df.foo == 222]
# Shows:
# bar foo
# 2 555 222
在上面的代码中,在本例中df[df.foo == 222]
,它是根据列值给出行的行222
。
也可能存在多个情况:
df[(df.foo == 222) | (df.bar == 444)]
# bar foo
# 1 444 111
# 2 555 222
但在那时我建议使用查询函数,因为它不太冗长并且可以产生相同的结果:
df.query('foo == 222 | bar == 444')
解决方案 4:
我发现以前的答案的语法是多余的,很难记住。 Pandasquery()
在 v0.13 中引入了该方法,我更喜欢它。 对于您的问题,您可以这样做df.query('col == val')
。
摘自query() 方法(实验):
In [167]: n = 10
In [168]: df = pd.DataFrame(np.random.rand(n, 3), columns=list('abc'))
In [169]: df
Out[169]:
a b c
0 0.687704 0.582314 0.281645
1 0.250846 0.610021 0.420121
2 0.624328 0.401816 0.932146
3 0.011763 0.022921 0.244186
4 0.590198 0.325680 0.890392
5 0.598892 0.296424 0.007312
6 0.634625 0.803069 0.123872
7 0.924168 0.325076 0.303746
8 0.116822 0.364564 0.454607
9 0.986142 0.751953 0.561512
# pure python
In [170]: df[(df.a < df.b) & (df.b < df.c)]
Out[170]:
a b c
3 0.011763 0.022921 0.244186
8 0.116822 0.364564 0.454607
# query
In [171]: df.query('(a < b) & (b < c)')
Out[171]:
a b c
3 0.011763 0.022921 0.244186
8 0.116822 0.364564 0.454607
您还可以通过在前面添加 来访问环境中的变量@
。
exclude = ('red', 'orange')
df.query('color not in @exclude')
解决方案 5:
.query
使用pandas >= 0.25.0更加灵活:
由于 pandas >= 0.25.0,我们可以使用该query
方法来过滤带有 pandas 方法的数据框,甚至可以过滤带有空格的列名。通常,列名中的空格会导致错误,但现在我们可以使用反引号 (`) 来解决这个问题 - 请参阅GitHub:
# Example dataframe
df = pd.DataFrame({'Sender email':['ex@example.com', "reply@shop.com", "buy@shop.com"]})
Sender email
0 ex@example.com
1 reply@shop.com
2 buy@shop.com
使用.query
方法str.endswith
:
df.query('`Sender email`.str.endswith("@shop.com")')
输出
Sender email
1 reply@shop.com
2 buy@shop.com
@
我们还可以在查询中添加前缀来使用局部变量:
domain = 'shop.com'
df.query('`Sender email`.str.endswith(@domain)')
输出
Sender email
1 reply@shop.com
2 buy@shop.com
解决方案 6:
在 Pandas 中,从给定值的多列中仅选择特定列:
select col_name1, col_name2 from table where column_name = some_value.
选项loc
:
df.loc[df['column_name'] == some_value, [col_name1, col_name2]]
或者query
:
df.query('column_name == some_value')[[col_name1, col_name2]]
解决方案 7:
在较新版本的 Pandas 中,受文档(查看数据)的启发:
df[df["colume_name"] == some_value] #Scalar, True/False..
df[df["colume_name"] == "some_value"] #String
通过将子句放在括号中,并用and (和/或)()
组合来组合多个条件。如下所示:&
`|`
df[(df["colume_name"] == "some_value1") & (pd[pd["colume_name"] == "some_value2"])]
其他过滤器
pandas.notna(df["colume_name"]) == True # Not NaN
df['colume_name'].str.contains("text") # Search for "text"
df['colume_name'].str.lower().str.contains("text") # Search for "text", after converting to lowercase
解决方案 8:
使用numpy.where可以获得更快的结果。
例如,使用unubtu 的设置-
In [76]: df.iloc[np.where(df.A.values=='foo')]
Out[76]:
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
时间比较:
In [68]: %timeit df.iloc[np.where(df.A.values=='foo')] # fastest
1000 loops, best of 3: 380 µs per loop
In [69]: %timeit df.loc[df['A'] == 'foo']
1000 loops, best of 3: 745 µs per loop
In [71]: %timeit df.loc[df['A'].isin(['foo'])]
1000 loops, best of 3: 562 µs per loop
In [72]: %timeit df[df.A=='foo']
1000 loops, best of 3: 796 µs per loop
In [74]: %timeit df.query('(A=="foo")') # slowest
1000 loops, best of 3: 1.71 ms per loop
解决方案 9:
这是一个简单的例子
from pandas import DataFrame
# Create data set
d = {'Revenue':[100,111,222],
'Cost':[333,444,555]}
df = DataFrame(d)
# mask = Return True when the value in column "Revenue" is equal to 111
mask = df['Revenue'] == 111
print mask
# Result:
# 0 False
# 1 True
# 2 False
# Name: Revenue, dtype: bool
# Select * FROM df WHERE Revenue = 111
df[mask]
# Result:
# Cost Revenue
# 1 444 111
解决方案 10:
补充:您还可以df.groupby('column_name').get_group('column_desired_value').reset_index()
创建一个新的数据框,其中指定列具有特定值。例如,
import pandas as pd
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
'B': 'one one two three two two one three'.split()})
print("Original dataframe:")
print(df)
b_is_two_dataframe = pd.DataFrame(df.groupby('B').get_group('two').reset_index()).drop('index', axis = 1)
#NOTE: the final drop is to remove the extra index column returned by groupby object
print('Sub dataframe where B is two:')
print(b_is_two_dataframe)
运行该程序可得到:
Original dataframe:
A B
0 foo one
1 bar one
2 foo two
3 bar three
4 foo two
5 bar two
6 foo one
7 foo three
Sub dataframe where B is two:
A B
0 foo two
1 foo two
2 bar two
解决方案 11:
query()
1. 在调用中使用 f 字符串
如果用于过滤数据框的列名来自局部变量,则 f 字符串可能会有用。例如,
col = 'A'
df.query(f"{col} == 'foo'")
事实上,f 字符串也可以用于查询变量(日期时间除外):
col = 'A'
my_var = 'foo'
df.query(f"{col} == '{my_var}'") # if my_var is a string
my_num = 1
df.query(f"{col} == {my_num}") # if my_var is a number
my_date = '2022-12-10'
df.query(f"{col} == @my_date") # must use @ for datetime though
安装以加快通话
numexpr
速度query()
pandas 文档建议安装 numexpr以加快使用 时的数字计算速度query()
。使用pip install numexpr
(或conda
等sudo
,取决于您的环境) 来安装它。
对于较大的数据帧(性能确实很重要),df.query()
使用numexpr
引擎的执行速度比 快得多df[mask]
。特别是在以下情况下,它表现更好。
字符串列上的逻辑和/或比较运算符
如果将一列字符串与其他字符串进行比较,并选择匹配的行,即使对于单个比较操作,query()
执行速度也比 快df[mask]
。例如,对于具有 80k 行的数据框,它快 30% 1,对于具有 800k 行的数据框,它快 60% 2
df[df.A == 'foo']
df.query("A == 'foo'") # <--- performs 30%-60% faster
随着操作数量的增加(如果链接 4 个比较,df.query()
则速度比 快 2-2.3 倍df[mask]
)1,2和/或数据帧长度的增加,此差距也会增大。2
对数字列进行多项操作
如果需要计算多个算术、逻辑或比较运算来创建布尔掩码以进行过滤df
,query()
则执行速度会更快。例如,对于具有 80k 行的帧,它的速度快 20% 1,对于具有 800k 行的帧,它的速度快 2 倍。2
df[(df.B % 5) **2 < 0.1]
df.query("(B % 5) **2 < 0.1") # <--- performs 20%-100% faster.
随着操作数量的增加和/或数据帧长度的增加,性能差距也会增大。2
下图显示了随着数据帧长度的增加,这些方法的表现如何。3
调用内部的 pandas 方法
query()
Numexpr
目前仅支持逻辑(&
,,),比较(,,,,,,)和基本算术运算符|
(,,,,,,,)。~
`==>
<>=
<=!=
+-
/
*`%
例如,它不支持整数除法(//
)。但是,调用等效的 pandas 方法(floordiv()
)可以工作。
df.query('B.floordiv(2) <= 3') # or
df.query('B.floordiv(2).le(3)')
# for pandas < 1.4, need `.values`
df.query('B.floordiv(2).values <= 3')
1使用 80k 行框架的基准代码
import numpy as np
df = pd.DataFrame({'A': 'foo bar foo baz foo bar foo foo'.split()*10000,
'B': np.random.rand(80000)})
%timeit df[df.A == 'foo']
# 8.5 ms ± 104.5 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
%timeit df.query("A == 'foo'")
# 6.36 ms ± 95.7 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
%timeit df[((df.A == 'foo') & (df.A != 'bar')) | ((df.A != 'baz') & (df.A != 'buz'))]
# 29 ms ± 554 µs per loop (mean ± std. dev. of 10 runs, 100 loops each)
%timeit df.query("A == 'foo' & A != 'bar' | A != 'baz' & A != 'buz'")
# 16 ms ± 339 µs per loop (mean ± std. dev. of 10 runs, 100 loops each)
%timeit df[(df.B % 5) **2 < 0.1]
# 5.35 ms ± 37.6 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
%timeit df.query("(B % 5) **2 < 0.1")
# 4.37 ms ± 46.3 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
2使用 800k 行的框架对代码进行基准测试
df = pd.DataFrame({'A': 'foo bar foo baz foo bar foo foo'.split()*100000,
'B': np.random.rand(800000)})
%timeit df[df.A == 'foo']
# 87.9 ms ± 873 µs per loop (mean ± std. dev. of 10 runs, 100 loops each)
%timeit df.query("A == 'foo'")
# 54.4 ms ± 726 µs per loop (mean ± std. dev. of 10 runs, 100 loops each)
%timeit df[((df.A == 'foo') & (df.A != 'bar')) | ((df.A != 'baz') & (df.A != 'buz'))]
# 310 ms ± 3.4 ms per loop (mean ± std. dev. of 10 runs, 100 loops each)
%timeit df.query("A == 'foo' & A != 'bar' | A != 'baz' & A != 'buz'")
# 132 ms ± 2.43 ms per loop (mean ± std. dev. of 10 runs, 100 loops each)
%timeit df[(df.B % 5) **2 < 0.1]
# 54 ms ± 488 µs per loop (mean ± std. dev. of 10 runs, 100 loops each)
%timeit df.query("(B % 5) **2 < 0.1")
# 26.3 ms ± 320 µs per loop (mean ± std. dev. of 10 runs, 100 loops each)
3:用于生成字符串和数字两种方法的性能图的代码。
from perfplot import plot
constructor = lambda n: pd.DataFrame({'A': 'foo bar foo baz foo bar foo foo'.split()*n, 'B': np.random.rand(8*n)})
plot(
setup=constructor,
kernels=[lambda df: df[(df.B%5)**2<0.1], lambda df: df.query("(B%5)**2<0.1")],
labels= ['df[(df.B % 5) **2 < 0.1]', 'df.query("(B % 5) **2 < 0.1")'],
n_range=[2**k for k in range(4, 24)],
xlabel='Rows in DataFrame',
title='Multiple mathematical operations on numbers',
equality_check=pd.DataFrame.equals);
plot(
setup=constructor,
kernels=[lambda df: df[df.A == 'foo'], lambda df: df.query("A == 'foo'")],
labels= ["df[df.A == 'foo']", """df.query("A == 'foo'")"""],
n_range=[2**k for k in range(4, 24)],
xlabel='Rows in DataFrame',
title='Comparison operation on strings',
equality_check=pd.DataFrame.equals);
解决方案 12:
你也可以使用.apply:
df.apply(lambda row: row[df['B'].isin(['one','three'])])
它实际上是按行工作的(即将函数应用于每一行)。
输出为
A B C D
0 foo one 0 0
1 bar one 1 2
3 bar three 3 6
6 foo one 6 12
7 foo three 7 14
结果与 @unutbu 提到的结果相同
df[[df['B'].isin(['one','three'])]]
解决方案 13:
如果您想重复查询数据框,并且速度对您很重要,那么最好的办法是将数据框转换为字典,然后通过这样做可以使查询速度提高数千倍。
my_df = df.set_index(column_name)
my_dict = my_df.to_dict('index')
创建 my_dict 字典后,您可以执行以下操作:
if some_value in my_dict.keys():
my_result = my_dict[some_value]
如果 column_name 中有重复的值,则无法创建字典。但您可以使用:
my_result = my_df.loc[some_value]
解决方案 14:
您可以将loc
(方括号)与函数一起使用:
# Series
s = pd.Series([1, 2, 3, 4])
s.loc[lambda x: x > 1]
# s[lambda x: x > 1]
输出:
1 2
2 3
3 4
dtype: int64
或者
# DataFrame
df = pd.DataFrame({'A': [1, 2, 3], 'B': [10, 20, 30]})
df[lambda x: (x['A'] != 1) & (x['B'] != 30)]
输出:
A B
1 2 20
解决方案 15:
使用 DuckDB 在 DataFrames 上进行 SQL 语句选择行
使用DuckDB,我们可以以高性能的方式使用 SQL 语句查询 pandas DataFrames 。
因为问题是如何根据列值从 DataFrame 中选择行?,并且问题中的示例是 SQL 查询,所以这个答案在这个主题中看起来合乎逻辑。
例子:
In [1]: import duckdb
In [2]: import pandas as pd
In [3]: con = duckdb.connect()
In [4]: df = pd.DataFrame({"A": range(11), "B": range(11, 22)})
In [5]: df
Out[5]:
A B
0 0 11
1 1 12
2 2 13
3 3 14
4 4 15
5 5 16
6 6 17
7 7 18
8 8 19
9 9 20
10 10 21
In [6]: results = con.execute("SELECT * FROM df where A > 2").df()
In [7]: results
Out[7]:
A B
0 3 14
1 4 15
2 5 16
3 6 17
4 7 18
5 8 19
6 9 20
7 10 21
解决方案 16:
这里是使用 pandas 内置函数的选项,类似于isin
。
df = pd.DataFrame({'cost': [250, 150, 100], 'revenue': [100, 250, 300]},index=['A', 'B', 'C'])
cost revenue
A 250 100
B 150 250
C 100 300
比较 DataFrames 元素是否相等
df[df["cost"].eq(250)]
cost revenue
A 250 100
逐个元素比较 DataFrames 是否大于不等式或相等式。
df[df["cost"].ge(100)]
cost revenue
A 250 100
B 150 250
C 100 300
逐个元素比较 DataFrames 是否严格小于不等式。
df[df["cost"].lt(200)]
cost revenue
B 150 250
C 100 300
解决方案 17:
很好的答案。只是,当数据框的大小接近百万行时,许多方法在使用时往往会花费很长时间df[df['col']==val]
。我希望拥有与“some_column”(在本例中为字典)中的特定值相对应的“another_column”的所有可能值。这有效且快速。
s=datetime.datetime.now()
my_dict={}
for i, my_key in enumerate(df['some_column'].values):
if i%100==0:
print(i) # to see the progress
if my_key not in my_dict.keys():
my_dict[my_key]={}
my_dict[my_key]['values']=[df.iloc[i]['another_column']]
else:
my_dict[my_key]['values'].append(df.iloc[i]['another_column'])
e=datetime.datetime.now()
print('operation took '+str(e-s)+' seconds')```
解决方案 18:
您可以仅使用基于布尔索引,只需在 Pandas 库中选择行即可。 SQL 将如下所示,例如:
import pandas as pd
# create dataset
data = {
'ramal': [991, 990, 989, 988, 987],
'wave': ['p', 'q', 'r', 'v', 's'],
'suite': [102, 118, 301, 206, 209]
}
df = pd.DataFrame(data)
知道列等于“p”,您可能会选择行wave
,就像那些示例一样,正如我在某些“波浪”参数的位置上显示的那样。
result = df[df['wave'] == 'p']
根据问题可以使用一般的
result = df.query('col == @val')
因此,索引语法根据列值选择行。
result = df[df['column_wave'] == some_value]
解决方案 19:
在处理混乱的 dfs 时,我发现非常有用的一点是可以结合使用两者regex
和contains()
函数,以便识别某些模式,如下所示:
- 2024年20款好用的项目管理软件推荐,项目管理提效的20个工具和技巧
- 2024年开源项目管理软件有哪些?推荐5款好用的项目管理工具
- 项目管理软件有哪些?推荐7款超好用的项目管理工具
- 项目管理软件哪个最好用?盘点推荐5款好用的项目管理工具
- 项目管理软件有哪些最好用?推荐6款好用的项目管理工具
- 2024年常用的项目管理软件有哪些?推荐这10款国内外好用的项目管理工具
- 项目管理软件有哪些,盘点推荐国内外超好用的7款项目管理工具
- 2024项目管理软件排行榜(10类常用的项目管理工具全推荐)
- 项目管理软件排行榜:2024年项目经理必备5款开源项目管理软件汇总
- 项目管理必备:盘点2024年13款好用的项目管理软件