根据pandas中列的值从DataFrame中选择行

szli 1649 python dataframe pandas

如何根据pandas中某些列中的值从DataFrame中选择行?
在SQL中我会使用:

SELECT *
FROM table
WHERE colume_name = some_value

我试着看看熊猫文档,但没有立即找到答案.

unutbu.. 3149

要选择列值等于标量的行some_value,请使用==:

df.loc[df['column_name'] == some_value]

要选择列值在可迭代中的行some_values,请使用isin:

df.loc[df['column_name'].isin(some_values)]

将多种条件与&:

df.loc[(df['column_name'] >= A) & (df['column_name'] <= B)]

请注意括号.由于Python的运算符优先级规则,&绑定比<=和更紧密>=.因此,最后一个例子中的括号是必要的.没有括号

df['column_name'] >= A & df['column_name'] <= B

被解析为

df['column_name'] >= (A & df['column_name']) <= B

这导致系列真值是一个模糊的错误.


要选择列值不相等的行 some_value,请使用!=:

df.loc[df['column_name'] != some_value]

isin返回boolean系列,所以要选择行,其值是不是some_values,否定使用布尔系列~:

df.loc[~df['column_name'].isin(some_values)]

例如,

import pandas as pd
import numpy as np
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split(),
                   'C': np.arange(8), 'D': np.arange(8) * 2})
print(df)
#      A      B  C   D
# 0  foo    one  0   0
# 1  bar    one  1   2
# 2  foo    two  2   4
# 3  bar  three  3   6
# 4  foo    two  4   8
# 5  bar    two  5  10
# 6  foo    one  6  12
# 7  foo  three  7  14

print(df.loc[df['A'] == 'foo'])

产量

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

如果您想要包含多个值,请将它们放在列表中(或者更常见的是,任何可迭代的)并使用isin:

print(df.loc[df['B'].isin(['one','three'])])

产量

     A      B  C   D
0  foo    one  0   0
1  bar    one  1   2
3  bar  three  3   6
6  foo    one  6  12
7  foo  three  7  14

但请注意,如果您希望多次执行此操作,则首先创建索引更有效,然后使用df.loc:

df = df.set_index(['B'])
print(df.loc['one'])

产量

       A  C   D
B              
one  foo  0   0
one  bar  1   2
one  foo  6  12

或者,要包含索引使用的多个值df.index.isin:

df.loc[df.index.isin(['one','two'])]

产量

       A  C   D
B              
one  foo  0   0
one  bar  1   2
two  foo  2   4
two  foo  4   8
two  bar  5  10
one  foo  6  12

  • 实际上,df [df ['colume_name'] == some_value]也有效.但我的第一次尝试,df.where(df ['colume_name'] == some_value)不起作用......不确定为什么...... (16认同)
  • 当你使用`df.where(condition)`时,条件必须与`df`具有相同的形状. (10认同)
  • 仅供参考:如果您想根据两个(或更多)标签选择一行(要么需要两个或两个),请参阅http://stackoverflow.com/questions/31756340/selecting-rows-from-a-dataframe-based-上值入多柱合大熊猫/ 31756517# (7认同)
  • 由于`df [df ['column_name'] == some_value]`有效,为什么我们需要在此处添加`.loc`? (5认同)
  • 这些链接对你们许多人来说非常有用:http://pandas.pydata.org/pandas-docs/stable/indexing.html http://www.gregreda.com/2013/10/26/working-with-大熊猫-dataframes / (2认同)

imolit.. 252

TL;博士

大熊猫相当于

select * from table where column_name = some_value

table[table.column_name == some_value]

多个条件:

table[(table.column_name == some_value) | (table.column_name2 == some_value2)]

要么

table.query('column_name == some_value | column_name2 == some_value2')

代码示例

import pandas as pd

# Create data set
d = {'foo':[100, 111, 222], 
     'bar':[333, 444, 555]}
df = pd.DataFrame(d)

# Full dataframe:
df

# Shows:
#    bar   foo 
# 0  333   100
# 1  444   111
# 2  555   222

# Output only the row(s) in df where foo is 222:
df[df.foo == 222]

# Shows:
#    bar  foo
# 2  555  222

在上面的代码中,它是在这种情况下df[df.foo == 222]基于列值给出行的行222.

多种条件也是可能的:

df[(df.foo == 222) | (df.bar == 444)]
#    bar  foo
# 1  444  111
# 2  555  222

但是在那时我建议使用查询函数,因为它不那么冗长并产生相同的结果:

df.query('foo == 222 | bar == 444')

  • “ query”是唯一与方法链接兼容的答案。好像是dplyr中的filter的熊猫模拟。 (3认同)
  • 嗨,在你的第三个例子中(多列)我认为你需要方括号`[`不是圆括号`(``在外面. (2认同)

piRSquared.. 227

有一些从pandas数据框中选择行的基本方法.

  1. 布尔索引
  2. 位置索引
  3. 标签索引
  4. API

对于每种基本类型,我们可以通过将自己限制在pandas API中来保持简单,或者我们可以在API之外冒险,通常进入df[df['col'] == value并加速.

我将向您展示每个示例,并指导您何时使用某些技术.


设置
我们首先需要确定一个条件,作为选择行的标准.OP提供df.iloc[...].我们将从那里开始并包含一些其他常见用例.

借用@unutbu:

import pandas as pd, numpy as np

df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split(),
                   'C': np.arange(8), 'D': np.arange(8) * 2})

假设我们的标准是column df.xs(...)=df.query(...)

1.
布尔索引要求查找每行的'A'列的真值等于'foo',然后使用这些真值来标识要保留的行.通常,我们将此系列命名为一系列真值,numpy.我们也会在这里这样做.

mask = df['A'] == 'foo'

然后我们可以使用此掩码对数据帧进行切片或索引

df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

这是完成此任务的最简单方法之一,如果性能或直观性不是问题,那么这应该是您选择的方法.但是,如果性能是一个问题,那么您可能想要考虑另一种创建方法column_name == some_value.


2.
位置索引有其用例,但这不是其中之一.为了确定切片的位置,我们首先需要执行上面我们所做的相同的布尔分析.这使我们执行一个额外的步骤来完成相同的任务.

mask = df['A'] == 'foo'
pos = np.flatnonzero(mask)
df.iloc[pos]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

3.
标签索引可以非常方便,但在这种情况下,我们再次做更多的工作,没有任何好处

df.set_index('A', append=True, drop=False).xs('foo', level=1)

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

4.
'A'是一种非常优雅/直观的方式来执行此任务.但往往比较慢. 但是,如果您注意以下时间,对于大数据,查询非常有效.比标准方法更重要,与我最好的建议相似.

df.query('A == "foo"')

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

我的偏好是使用 'foo' mask

可以通过修改我们创建的方式来实现实际改进mask df.iloc[...].

df.query()alternative 1
使用底层pd.DataFrame.query数组并放弃创建另一个数组的开销Boolean

mask = df['A'].values == 'foo'

我将在最后展示更完整的时间测试,但只是看看我们使用示例数据帧获得的性能提升.首先,我们看一下创建的区别mask

%timeit mask = df['A'].values == 'foo'
%timeit mask = df['A'] == 'foo'

5.84 µs ± 195 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
166 µs ± 4.45 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

Boolean使用mask数组进行评估的速度要快30倍.这部分是由于mask评估通常更快.部分原因还在于缺乏构建索引和相应numpy对象所需的开销.

接下来,我们将看一个切片与另一个切片的时间pd.Series.

mask = df['A'].values == 'foo'
%timeit df[mask]
mask = df['A'] == 'foo'
%timeit df[mask]

219 µs ± 12.3 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
239 µs ± 7.03 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

性能提升并不明显.我们将看看这是否适用于更强大的测试.


mask替代方案2
我们也可以重建数据框架.在重建数据帧时有一个很大的警告 - 你必须mask在这样做的时候注意!

而不是numpy我们会这样做

pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)

如果数据帧是混合类型(我们的示例是),那么当我们得到numpy结果数组pd.Series mask时,新数据帧的所有列都将是mask dtypes.因此需要df[mask]并杀死任何潜在的性能提升.

%timeit df[m]
%timeit pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)

216 µs ± 10.4 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
1.43 ms ± 39.6 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

但是,如果数据框不是混合类型,则这是一种非常有用的方法.

特定

np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))

d1

   A  B  C  D  E
0  0  2  7  3  8
1  7  0  6  8  6
2  0  2  0  4  9
3  7  3  2  4  3
4  3  6  7  7  4
5  5  3  7  5  9
6  8  7  6  4  7
7  6  2  6  6  5
8  2  8  7  5  8
9  4  7  6  1  5    

%%timeit
mask = d1['A'].values == 7
d1[mask]

179 µs ± 8.73 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

%%timeit
mask = d1['A'].values == 7
pd.DataFrame(d1.values[mask], d1.index[mask], d1.columns)

87 µs ± 5.12 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

我们把时间缩短了一半.


df.values替代3
@unutbu还向我们展示了如何使用dtype来计算object一组值中的每个元素.如果我们的值集是一个值的集合,即对此进行评估dtype.但如果需要,它还可以推广包括更大的值集.事实证明,尽管这是一个更通用的解决方案,但仍然相当快.对于那些不熟悉这个概念的人来说,唯一真正的损失是直观性的.

mask = df['A'].isin(['foo'])
df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

然而,和以前一样,我们可以利用object提高性能,同时几乎不牺牲任何东西.我们会用的astype(df.dtypes)

mask = np.in1d(df['A'].values, ['foo'])
df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

时间
我将包括其他帖子中提到的其他概念以供参考.
代码如下

此表中的每个列表示一个不同长度的数据框,我们在其上测试每个函数.每列显示相对时间,最快的函数给定基本索引mask.

res.div(res.min())

                         10        30        100       300       1000      3000      10000     30000
mask_standard         2.156872  1.850663  2.034149  2.166312  2.164541  3.090372  2.981326  3.131151
mask_standard_loc     1.879035  1.782366  1.988823  2.338112  2.361391  3.036131  2.998112  2.990103
mask_with_values      1.010166  1.000000  1.005113  1.026363  1.028698  1.293741  1.007824  1.016919
mask_with_values_loc  1.196843  1.300228  1.000000  1.000000  1.038989  1.219233  1.037020  1.000000
query                 4.997304  4.765554  5.934096  4.500559  2.997924  2.397013  1.680447  1.398190
xs_label              4.124597  4.272363  5.596152  4.295331  4.676591  5.710680  6.032809  8.950255
mask_with_isin        1.674055  1.679935  1.847972  1.724183  1.345111  1.405231  1.253554  1.264760
mask_with_in1d        1.000000  1.083807  1.220493  1.101929  1.000000  1.000000  1.000000  1.144175

你会注意到最快的时间似乎在pd.Series.isin和之间共享df['A']

res.T.plot(loglog=True)

在此输入图像描述

功能

def mask_standard(df):
    mask = df['A'] == 'foo'
    return df[mask]

def mask_standard_loc(df):
    mask = df['A'] == 'foo'
    return df.loc[mask]

def mask_with_values(df):
    mask = df['A'].values == 'foo'
    return df[mask]

def mask_with_values_loc(df):
    mask = df['A'].values == 'foo'
    return df.loc[mask]

def query(df):
    return df.query('A == "foo"')

def xs_label(df):
    return df.set_index('A', append=True, drop=False).xs('foo', level=-1)

def mask_with_isin(df):
    mask = df['A'].isin(['foo'])
    return df[mask]

def mask_with_in1d(df):
    mask = np.in1d(df['A'].values, ['foo'])
    return df[mask]

测试

res = pd.DataFrame(
    index=[
        'mask_standard', 'mask_standard_loc', 'mask_with_values', 'mask_with_values_loc',
        'query', 'xs_label', 'mask_with_isin', 'mask_with_in1d'
    ],
    columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
    dtype=float
)

for j in res.columns:
    d = pd.concat([df] * j, ignore_index=True)
    for i in res.index:a
        stmt = '{}(d)'.format(i)
        setp = 'from __main__ import d, {}'.format(i)
        res.at[i, j] = timeit(stmt, setp, number=50)

特殊时序
查看当我们'foo'为整个数据帧设置单个非对象时的特殊情况. 代码如下

spec.div(spec.min())

                     10        30        100       300       1000      3000      10000     30000
mask_with_values  1.009030  1.000000  1.194276  1.000000  1.236892  1.095343  1.000000  1.000000
mask_with_in1d    1.104638  1.094524  1.156930  1.072094  1.000000  1.000000  1.040043  1.027100
reconstruct       1.000000  1.142838  1.000000  1.355440  1.650270  2.222181  2.294913  3.406735

事实证明,重建不值得过去几百行.

spec.T.plot(loglog=True)

在此输入图像描述

功能

np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))

def mask_with_values(df):
    mask = df['A'].values == 'foo'
    return df[mask]

def mask_with_in1d(df):
    mask = np.in1d(df['A'].values, ['foo'])
    return df[mask]

def reconstruct(df):
    v = df.values
    mask = np.in1d(df['A'].values, ['foo'])
    return pd.DataFrame(v[mask], df.index[mask], df.columns)

spec = pd.DataFrame(
    index=['mask_with_values', 'mask_with_in1d', 'reconstruct'],
    columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
    dtype=float
)

测试

for j in spec.columns:
    d = pd.concat([df] * j, ignore_index=True)
    for i in spec.index:
        stmt = '{}(d)'.format(i)
        setp = 'from __main__ import d, {}'.format(i)
        spec.at[i, j] = timeit(stmt, setp, number=50)

  • 很棒的答案!但是,2个问题,i)在这个方案中``.iloc(numpy.where(..))`比较怎么样?ii)在使用多个条件时,您希望排名是否相同? (4认同)

fredcallaway.. 54

我发现以前答案的语法是多余的,难以记住.熊猫query()在v0.13中引入了这个方法,我更喜欢它.对于你的问题,你可以做到df.query('col == val')

转载自http://pandas.pydata.org/pandas-docs/version/0.17.0/indexing.html#indexing-query

In [167]: n = 10

In [168]: df = pd.DataFrame(np.random.rand(n, 3), columns=list('abc'))

In [169]: df
Out[169]: 
          a         b         c
0  0.687704  0.582314  0.281645
1  0.250846  0.610021  0.420121
2  0.624328  0.401816  0.932146
3  0.011763  0.022921  0.244186
4  0.590198  0.325680  0.890392
5  0.598892  0.296424  0.007312
6  0.634625  0.803069  0.123872
7  0.924168  0.325076  0.303746
8  0.116822  0.364564  0.454607
9  0.986142  0.751953  0.561512

# pure python
In [170]: df[(df.a < df.b) & (df.b < df.c)]
Out[170]: 
          a         b         c
3  0.011763  0.022921  0.244186
8  0.116822  0.364564  0.454607

# query
In [171]: df.query('(a < b) & (b < c)')
Out[171]: 
          a         b         c
3  0.011763  0.022921  0.244186
8  0.116822  0.364564  0.454607

您还可以通过添加前导来访问环境中的变量@.

exclude = ('red', 'orange')
df.query('color not in @exclude')

  • 在我的情况下,我需要引用,因为val是一个字符串.df.query('col =="val"') (3认同)

shivsn.. 21

使用numpy.where可以实现更快的结果.

例如,使用unubtu的设置 -

In [76]: df.iloc[np.where(df.A.values=='foo')]
Out[76]: 
     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

时间比较:

In [68]: %timeit df.iloc[np.where(df.A.values=='foo')]  # fastest
1000 loops, best of 3: 380 µs per loop

In [69]: %timeit df.loc[df['A'] == 'foo']
1000 loops, best of 3: 745 µs per loop

In [71]: %timeit df.loc[df['A'].isin(['foo'])]
1000 loops, best of 3: 562 µs per loop

In [72]: %timeit df[df.A=='foo']
1000 loops, best of 3: 796 µs per loop

In [74]: %timeit df.query('(A=="foo")')  # slowest
1000 loops, best of 3: 1.71 ms per loop


DataByDavid.. 19

这是一个简单的例子

from pandas import DataFrame

# Create data set
d = {'Revenue':[100,111,222], 
     'Cost':[333,444,555]}
df = DataFrame(d)


# mask = Return True when the value in column "Revenue" is equal to 111
mask = df['Revenue'] == 111

print mask

# Result:
# 0    False
# 1     True
# 2    False
# Name: Revenue, dtype: bool


# Select * FROM df WHERE Revenue = 111
df[mask]

# Result:
#    Cost    Revenue
# 1  444     111


小智.. 13

对于pandas中的给定值,仅从多列中选择特定列:

select col_name1, col_name2 from table where column_name = some_value.

选项:

df.loc[df['column_name'] == some_value][[col_name1, col_name2]]

要么

df.query['column_name' == 'some_value'][[col_name1, col_name2]]


Erfan.. 11

使用时.query具有更大的灵活性pandas >= 0.25.0

2019年8月更新的答案

因为pandas >= 0.25.0我们可以使用querypandas方法甚至带空格的列名称来使用该方法过滤数据帧。通常,列名中的空格会产生错误,但是现在我们可以使用反引号(`)来解决该问题,请参见GitHub

# Example dataframe
df = pd.DataFrame({'Sender email':['ex@example.com', "reply@shop.com", "buy@shop.com"]})

     Sender email
0  ex@example.com
1  reply@shop.com
2    buy@shop.com

使用.querywith方法str.endswith

df.query('`Sender email`.str.endswith("@shop.com")')

输出量

     Sender email
1  reply@shop.com
2    buy@shop.com

同样,我们可以@在查询中以前缀作为局部变量来使用局部变量:

domain = 'shop.com'
df.query('`Sender email`.str.endswith(@domain)')

输出量

     Sender email
1  reply@shop.com
2    buy@shop.com


TuanDT.. 10

要附加到这个着名的问题(虽然有点太晚了):您还可以df.groupby('column_name').get_group('column_desired_value').reset_index()使用具有特定值的指定列创建新数据框.例如

import pandas as pd
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split()})
print("Original dataframe:")
print(df)

b_is_two_dataframe = pd.DataFrame(df.groupby('B').get_group('two').reset_index()).drop('index', axis = 1) 
#NOTE: the final drop is to remove the extra index column returned by groupby object
print('Sub dataframe where B is two:')
print(b_is_two_dataframe)

运行此给出:

Original dataframe:
     A      B
0  foo    one
1  bar    one
2  foo    two
3  bar  three
4  foo    two
5  bar    two
6  foo    one
7  foo  three
Sub dataframe where B is two:
     A    B
0  foo  two
1  foo  two
2  bar  two


归档时间:

查看次数:

2303550 次

最近记录:

9 月,2 周 前