如何根据列值从 DataFrame 中选择行?

news/2025/2/1 21:47:46/

问:

如何根据 Pandas 中某列中的值从 DataFrame 中选择行?

在 SQL 中,我会使用:

SELECT *
FROM table
WHERE column_name = some_value

答1:

与HuntsBot一起,探索全球自由职业机会–huntsbot.com

要选择列值等于标量 some_value 的行,请使用 ==:

df.loc[df['column_name'] == some_value]

要选择列值在可迭代 some_values 中的行,请使用 isin:

df.loc[df['column_name'].isin(some_values)]

将多个条件与 & 组合:

df.loc[(df['column_name'] >= A) & (df['column_name'] <= B)]

注意括号。由于 Python 的 operator precedence rules,& 比 <= 和 >= 绑定得更紧密。因此,最后一个示例中的括号是必要的。没有括号

df['column_name'] >= A & df['column_name'] <= B

被解析为

df['column_name'] >= (A & df['column_name']) <= B

这导致 Truth value of a Series is ambiguous error。

要选择列值不等于 some_value 的行,请使用 !=:

df.loc[df['column_name'] != some_value]

isin 返回一个布尔系列,因此要选择 some_values 中值为 not 的行,请使用 ~ 否定布尔系列:

df.loc[~df['column_name'].isin(some_values)]

例如,

import pandas as pd
import numpy as np
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),'B': 'one one two three two two one three'.split(),'C': np.arange(8), 'D': np.arange(8) * 2})
print(df)
#      A      B  C   D
# 0  foo    one  0   0
# 1  bar    one  1   2
# 2  foo    two  2   4
# 3  bar  three  3   6
# 4  foo    two  4   8
# 5  bar    two  5  10
# 6  foo    one  6  12
# 7  foo  three  7  14print(df.loc[df['A'] == 'foo'])

产量

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

如果您有多个要包含的值,请将它们放在一个列表中(或更一般地说,任何可迭代的)并使用 isin:

print(df.loc[df['B'].isin(['one','three'])])

产量

     A      B  C   D
0  foo    one  0   0
1  bar    one  1   2
3  bar  three  3   6
6  foo    one  6  12
7  foo  three  7  14

但是请注意,如果您希望多次执行此操作,则先创建索引然后使用 df.loc 会更有效:

df = df.set_index(['B'])
print(df.loc['one'])

产量

       A  C   D
B              
one  foo  0   0
one  bar  1   2
one  foo  6  12

或者,要包含索引中的多个值,请使用 df.index.isin:

df.loc[df.index.isin(['one','two'])]

产量

       A  C   D
B              
one  foo  0   0
one  bar  1   2
two  foo  2   4
two  foo  4   8
two  bar  5  10
one  foo  6  12

事实上, df[df['colume_name']==some_value] 也可以。但是我的第一次尝试 df.where(df['colume_name']==some_value) 不起作用...不知道为什么...

当您使用 df.where(condition) 时,条件必须具有与 df 相同的形状。

这些链接对你们中的许多人可能非常有用:pandas.pydata.org/pandas-docs/stable/indexing.html gregreda.com/2013/10/26/working-with-pandas-dataframes

仅供参考:如果您想根据两个(或更多)标签(需要两者或其中一个)选择一行,请参阅 stackoverflow.com/questions/31756340/…

既然 df[df['column_name'] == some_value] 有效,为什么我们需要在此处添加 .loc?

答2:

与HuntsBot一起,探索全球自由职业机会–huntsbot.com

有几种方法可以从 Pandas 数据框中选择行:

布尔索引 (df[df[‘col’] == value] ) 位置索引 (df.iloc[…]) 标签索引 (df.xs(…)) df.query(…) API

下面我将向您展示每个示例,以及何时使用某些技术的建议。假设我们的标准是列 ‘A’ == ‘foo’

(关于性能的注意事项:对于每种基本类型,我们可以使用 Pandas API 使事情变得简单,或者我们可以在 API 之外冒险,通常进入 NumPy,并加快速度。)

设置

我们需要的第一件事是确定一个条件,它将作为我们选择行的标准。我们将从 OP 的案例 column_name == some_value 开始,并包括一些其他常见的用例。

借用@unutbu:

import pandas as pd, numpy as npdf = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),'B': 'one one two three two two one three'.split(),'C': np.arange(8), 'D': np.arange(8) * 2})

1.布尔索引

…布尔索引需要找到每行的 ‘A’ 列的真值等于 ‘foo’,然后使用这些真值来确定要保留哪些行。通常,我们将这个系列命名为一组真值,mask。我们也会在这里这样做。

mask = df['A'] == 'foo'

然后我们可以使用这个掩码对数据帧进行切片或索引

df[mask]A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

这是完成此任务的最简单方法之一,如果性能或直观性不是问题,这应该是您选择的方法。但是,如果性能是一个问题,那么您可能需要考虑另一种创建 mask 的方法。

2.位置索引

位置索引 (df.iloc[…]) 有其用例,但这不是其中之一。为了确定切片的位置,我们首先需要执行与上面相同的布尔分析。这让我们执行了一个额外的步骤来完成相同的任务。

mask = df['A'] == 'foo'
pos = np.flatnonzero(mask)
df.iloc[pos]A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14
  1. 标签索引

标签索引可以非常方便,但在这种情况下,我们再次做更多的工作没有任何好处

df.set_index('A', append=True, drop=False).xs('foo', level=1)A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14
  1. df.query() API

pd.DataFrame.query 是执行此任务的一种非常优雅/直观的方式,但通常速度较慢。 但是,如果你注意下面的时序,对于大数据,查询是非常有效的。比标准方法更重要,并且与我的最佳建议相似。

df.query('A == "foo"')A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

我的偏好是使用 Boolean mask

可以通过修改我们创建 Boolean mask 的方式来进行实际改进。

mask 替代 1 使用底层 NumPy 数组并放弃创建另一个 pd.Series

mask = df['A'].values == 'foo'

我将在最后展示更完整的时间测试,但只需看看我们使用示例数据框获得的性能提升。首先,我们看看创建 mask

%timeit mask = df['A'].values == 'foo'
%timeit mask = df['A'] == 'foo'5.84 µs ± 195 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
166 µs ± 4.45 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

使用 NumPy 数组评估 mask 的速度大约快 30 倍。这部分是由于 NumPy 评估通常更快。部分原因还在于构建索引和相应的 pd.Series 对象所需的开销不足。

接下来,我们将查看使用一个 mask 与另一个进行切片的时间。

mask = df['A'].values == 'foo'
%timeit df[mask]
mask = df['A'] == 'foo'
%timeit df[mask]219 µs ± 12.3 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
239 µs ± 7.03 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

性能提升并不那么明显。我们将看看这是否支持更强大的测试。

mask 备选方案 2 我们也可以重建数据框。重建数据框时有一个很大的警告——这样做时必须注意 dtypes!

我们将这样做而不是 df[mask]

pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)

如果数据框是混合类型,例如我们的示例,那么当我们得到 df.values 时,结果数组是 dtype object,因此,新数据框的所有列都将是 dtype {3 }。因此需要 astype(df.dtypes) 并扼杀任何潜在的性能提升。

%timeit df[m]
%timeit pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)216 µs ± 10.4 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
1.43 ms ± 39.6 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

但是,如果数据框不是混合类型,这是一种非常有用的方法。

给定

np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))d1A  B  C  D  E
0  0  2  7  3  8
1  7  0  6  8  6
2  0  2  0  4  9
3  7  3  2  4  3
4  3  6  7  7  4
5  5  3  7  5  9
6  8  7  6  4  7
7  6  2  6  6  5
8  2  8  7  5  8
9  4  7  6  1  5
%%timeit
mask = d1['A'].values == 7
d1[mask]179 µs ± 8.73 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

相对

%%timeit
mask = d1['A'].values == 7
pd.DataFrame(d1.values[mask], d1.index[mask], d1.columns)87 µs ± 5.12 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

我们把时间缩短了一半。

mask 备选方案 3

@unutbu 还向我们展示了如何使用 pd.Series.isin 来说明 df[‘A’] 的每个元素都在一组值中。如果我们的值集是一组一个值,即 ‘foo’,则计算结果相同。但如果需要,它也可以概括为包括更大的值集。事实证明,这仍然相当快,即使它是一个更通用的解决方案。对于那些不熟悉这个概念的人来说,唯一真正的损失是直觉。

mask = df['A'].isin(['foo'])
df[mask]A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

然而,和以前一样,我们可以利用 NumPy 来提高性能,同时几乎不牺牲任何东西。我们将使用 np.in1d

mask = np.in1d(df['A'].values, ['foo'])
df[mask]A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

定时

我还将包括其他帖子中提到的其他概念以供参考。

下面的代码

此表中的每个 列 代表一个不同长度的数据帧,我们在该数据帧上测试每个函数。每列显示所用的相对时间,最快的函数给出的基本索引为 1.0。

res.div(res.min())10        30        100       300       1000      3000      10000     30000
mask_standard         2.156872  1.850663  2.034149  2.166312  2.164541  3.090372  2.981326  3.131151
mask_standard_loc     1.879035  1.782366  1.988823  2.338112  2.361391  3.036131  2.998112  2.990103
mask_with_values      1.010166  1.000000  1.005113  1.026363  1.028698  1.293741  1.007824  1.016919
mask_with_values_loc  1.196843  1.300228  1.000000  1.000000  1.038989  1.219233  1.037020  1.000000
query                 4.997304  4.765554  5.934096  4.500559  2.997924  2.397013  1.680447  1.398190
xs_label              4.124597  4.272363  5.596152  4.295331  4.676591  5.710680  6.032809  8.950255
mask_with_isin        1.674055  1.679935  1.847972  1.724183  1.345111  1.405231  1.253554  1.264760
mask_with_in1d        1.000000  1.083807  1.220493  1.101929  1.000000  1.000000  1.000000  1.144175

您会注意到最快的时间似乎在 mask_with_values 和 mask_with_in1d 之间共享。

res.T.plot(loglog=True)

https://i.stack.imgur.com/ljeTd.png

功能

def mask_standard(df):mask = df['A'] == 'foo'return df[mask]def mask_standard_loc(df):mask = df['A'] == 'foo'return df.loc[mask]def mask_with_values(df):mask = df['A'].values == 'foo'return df[mask]def mask_with_values_loc(df):mask = df['A'].values == 'foo'return df.loc[mask]def query(df):return df.query('A == "foo"')def xs_label(df):return df.set_index('A', append=True, drop=False).xs('foo', level=-1)def mask_with_isin(df):mask = df['A'].isin(['foo'])return df[mask]def mask_with_in1d(df):mask = np.in1d(df['A'].values, ['foo'])return df[mask]

测试

res = pd.DataFrame(index=['mask_standard', 'mask_standard_loc', 'mask_with_values', 'mask_with_values_loc','query', 'xs_label', 'mask_with_isin', 'mask_with_in1d'],columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],dtype=float
)for j in res.columns:d = pd.concat([df] * j, ignore_index=True)for i in res.index:astmt = '{}(d)'.format(i)setp = 'from __main__ import d, {}'.format(i)res.at[i, j] = timeit(stmt, setp, number=50)

特殊时间

查看整个数据框有一个非对象 dtype 的特殊情况。

下面的代码

spec.div(spec.min())10        30        100       300       1000      3000      10000     30000
mask_with_values  1.009030  1.000000  1.194276  1.000000  1.236892  1.095343  1.000000  1.000000
mask_with_in1d    1.104638  1.094524  1.156930  1.072094  1.000000  1.000000  1.040043  1.027100
reconstruct       1.000000  1.142838  1.000000  1.355440  1.650270  2.222181  2.294913  3.406735

事实证明,重建几百行是不值得的。

spec.T.plot(loglog=True)

https://i.stack.imgur.com/K1bNc.png

功能

np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))def mask_with_values(df):mask = df['A'].values == 'foo'return df[mask]def mask_with_in1d(df):mask = np.in1d(df['A'].values, ['foo'])return df[mask]def reconstruct(df):v = df.valuesmask = np.in1d(df['A'].values, ['foo'])return pd.DataFrame(v[mask], df.index[mask], df.columns)spec = pd.DataFrame(index=['mask_with_values', 'mask_with_in1d', 'reconstruct'],columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],dtype=float
)

测试

for j in spec.columns:d = pd.concat([df] * j, ignore_index=True)for i in spec.index:stmt = '{}(d)'.format(i)setp = 'from __main__ import d, {}'.format(i)spec.at[i, j] = timeit(stmt, setp, number=50)

使用 df['A'].values == 'foo' apper FutureWarning:元素比较失败;而是返回标量,但将来将执行元素比较

答3:

huntsbot.com精选全球7大洲远程工作机会,涵盖各领域,帮助想要远程工作的数字游民们能更精准、更高效的找到对方。

tl;博士

熊猫相当于

select * from table where column_name = some_value

table[table.column_name == some_value]

多个条件:

table[(table.column_name == some_value) | (table.column_name2 == some_value2)]

或者

table.query('column_name == some_value | column_name2 == some_value2')

代码示例

import pandas as pd# Create data set
d = {'foo':[100, 111, 222],'bar':[333, 444, 555]}
df = pd.DataFrame(d)# Full dataframe:
df# Shows:
#    bar   foo
# 0  333   100
# 1  444   111
# 2  555   222# Output only the row(s) in df where foo is 222:
df[df.foo == 222]# Shows:
#    bar  foo
# 2  555  222

在上面的代码中,行 df[df.foo == 222] 根据列值给出行,在本例中为 222。

多个条件也是可能的:

df[(df.foo == 222) | (df.bar == 444)]
#    bar  foo
# 1  444  111
# 2  555  222

但那时我建议使用 query 函数,因为它不那么冗长并且产生相同的结果:

df.query('foo == 222 | bar == 444')

query 是这里唯一与方法链兼容的答案。似乎它是 dplyr 中 filter 的 pandas 模拟。

谢谢你。我尝试了多种方法来获得记录。唯一可行的方法是使用查询功能。

答4:

与HuntsBot一起,探索全球自由职业机会–huntsbot.com

我发现以前答案的语法是多余的,很难记住。 Pandas 在 v0.13 中引入了 query() 方法,我更喜欢它。对于您的问题,您可以执行 df.query(‘col == val’)

转载自 http://pandas.pydata.org/pandas-docs/version/0.17.0/indexing.html#indexing-query

In [167]: n = 10In [168]: df = pd.DataFrame(np.random.rand(n, 3), columns=list('abc'))In [169]: df
Out[169]: a         b         c
0  0.687704  0.582314  0.281645
1  0.250846  0.610021  0.420121
2  0.624328  0.401816  0.932146
3  0.011763  0.022921  0.244186
4  0.590198  0.325680  0.890392
5  0.598892  0.296424  0.007312
6  0.634625  0.803069  0.123872
7  0.924168  0.325076  0.303746
8  0.116822  0.364564  0.454607
9  0.986142  0.751953  0.561512# pure python
In [170]: df[(df.a < df.b) & (df.b < df.c)]
Out[170]: a         b         c
3  0.011763  0.022921  0.244186
8  0.116822  0.364564  0.454607# query
In [171]: df.query('(a < b) & (b < c)')
Out[171]: a         b         c
3  0.011763  0.022921  0.244186
8  0.116822  0.364564  0.454607

您还可以通过添加 @ 来访问环境中的变量。

exclude = ('red', 'orange')
df.query('color not in @exclude')

答5:

huntsbot.com高效搞钱,一站式跟进超10+任务平台外包需求

使用带有 pandas >= 0.25.0 的 .query 更加灵活:

由于 pandas >= 0.25.0,我们可以使用 query 方法来过滤带有 pandas 方法的数据帧,甚至是包含空格的列名。通常,列名中的空格会产生错误,但现在我们可以使用反引号 (`) 解决该问题 - 请参阅 GitHub:

# Example dataframe
df = pd.DataFrame({'Sender email':['ex@example.com', "reply@shop.com", "buy@shop.com"]})Sender email
0  ex@example.com
1  reply@shop.com
2    buy@shop.com

将 .query 与方法 str.endswith 一起使用:

df.query('`Sender email`.str.endswith("@shop.com")')

输出

     Sender email
1  reply@shop.com
2    buy@shop.com

我们还可以通过在查询中使用 @ 作为前缀来使用局部变量:

domain = 'shop.com'
df.query('`Sender email`.str.endswith(@domain)')

输出

     Sender email
1  reply@shop.com
2    buy@shop.com

赞成,因为 .str 演员表不明显。

很高兴知道这在效率方面的表现如何......我可以认为它可能更有效的一些原因,还有一些不应该的......我想它也可能与内部实现和选择的元素数量?

答6:

huntsbot.com – 程序员副业首选,一站式外包任务、远程工作、创意产品分享订阅平台。

对于 Pandas 中的给定值,仅从多列中选择特定列:

select col_name1, col_name2 from table where column_name = some_value.

选项 loc:

df.loc[df['column_name'] == some_value, [col_name1, col_name2]]

或 query:

df.query('column_name == some_value')[[col_name1, col_name2]]

答7:

一个优秀的自由职业者,应该有对需求敏感和精准需求捕获的能力,而huntsbot.com提供了这个机会

使用 numpy.where 可以获得更快的结果。

例如,使用 unubtu’s setup -

In [76]: df.iloc[np.where(df.A.values=='foo')]
Out[76]: A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

时间比较:

In [68]: %timeit df.iloc[np.where(df.A.values=='foo')]  # fastest
1000 loops, best of 3: 380 µs per loopIn [69]: %timeit df.loc[df['A'] == 'foo']
1000 loops, best of 3: 745 µs per loopIn [71]: %timeit df.loc[df['A'].isin(['foo'])]
1000 loops, best of 3: 562 µs per loopIn [72]: %timeit df[df.A=='foo']
1000 loops, best of 3: 796 µs per loopIn [74]: %timeit df.query('(A=="foo")')  # slowest
1000 loops, best of 3: 1.71 ms per loop

答8:

huntsbot.com – 高效赚钱,自由工作

在较新版本的 Pandas 中,受文档 (Viewing data) 的启发:

df[df["colume_name"] == some_value] #Scalar, True/False..df[df["colume_name"] == "some_value"] #String

通过将子句放在括号 () 中并将它们与 & 和 |(和/或)组合来组合多个条件。像这样:

df[(df["colume_name"] == "some_value1") & (pd[pd["colume_name"] == "some_value2"])]

其他过滤器

pandas.notna(df["colume_name"]) == True # Not NaN
df['colume_name'].str.contains("text") # Search for "text"
df['colume_name'].str.lower().str.contains("text") # Search for "text", after converting  to lowercase

谢谢。如果我想选择某列内容长度 >10 的行怎么办?例如,我想要: len(df["column_name"] > 10,有没有直接的方法可以做到这一点,或者我必须循环创建一个新的 DataFrame?

答9:

huntsbot.com聚合了超过10+全球外包任务平台的外包需求,寻找外包任务与机会变的简单与高效。

这是一个简单的例子

from pandas import DataFrame# Create data set
d = {'Revenue':[100,111,222], 'Cost':[333,444,555]}
df = DataFrame(d)# mask = Return True when the value in column "Revenue" is equal to 111
mask = df['Revenue'] == 111print mask# Result:
# 0    False
# 1     True
# 2    False
# Name: Revenue, dtype: bool# Select * FROM df WHERE Revenue = 111
df[mask]# Result:
#    Cost    Revenue
# 1  444     111

答10:

huntsbot.com汇聚了国内外优秀的初创产品创意,可按收入、分类等筛选,希望这些产品与实践经验能给您带来灵感。

附加到这个著名的问题(虽然有点太晚了):您还可以执行 df.groupby(‘column_name’).get_group(‘column_desired_value’).reset_index() 来创建一个具有特定值的指定列的新数据框。例如

import pandas as pd
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),'B': 'one one two three two two one three'.split()})
print("Original dataframe:")
print(df)b_is_two_dataframe = pd.DataFrame(df.groupby('B').get_group('two').reset_index()).drop('index', axis = 1) 
#NOTE: the final drop is to remove the extra index column returned by groupby object
print('Sub dataframe where B is two:')
print(b_is_two_dataframe)

运行这个给出:

Original dataframe:A      B
0  foo    one
1  bar    one
2  foo    two
3  bar  three
4  foo    two
5  bar    two
6  foo    one
7  foo  three
Sub dataframe where B is two:A    B
0  foo  two
1  foo  two
2  bar  two

答11:

huntsbot.com – 高效赚钱,自由工作

您也可以使用 .apply:

df.apply(lambda row: row[df['B'].isin(['one','three'])])

它实际上是按行工作的(即,将函数应用于每一行)。

输出是

   A      B  C   D
0  foo    one  0   0
1  bar    one  1   2
3  bar  three  3   6
6  foo    one  6  12
7  foo  three  7  14

结果与@unutbu 提到的使用相同

df[[df['B'].isin(['one','three'])]]

原文链接:https://www.huntsbot.com/qa/KJeA/how-do-i-select-rows-from-a-dataframe-based-on-column-values?lang=zh_CN&from=csdn

huntsbot.com高效搞钱,一站式跟进超10+任务平台外包需求


http://www.ppmy.cn/news/579506.html

相关文章

dataframe 取行、列 ;及其条件选择

dataframe 取列有两种方法&#xff1a; df.列名 或 df[列名] &#xff1b; 同时通过&#xff0c;df[列名1&#xff0c;‘列名2 &#xff0c;。。。。] 可以选择多列。 dataframe取行 和列&#xff1a; 通过loc类和iloc类 可以选择dataframe数据的多行和多列。 其中loc类通过…

python——dataframe 获得指定行列

目录 操作行列所需要的库 生成被取用的dataframe对象 dataframe取列 1、已知列名取用方法 2、已知列所在位置的取用方法 3、 以上两段代码生成结果相同 dataframe取行 1、已知行名取用方法 2、已知行所在位置的取用方法 3、 以上两段代码生成结果相同 dataframe按照列…

dataframe取某行某列的值

在 Pandas 中&#xff0c;可以使用 df.loc 和 df.iloc 取得 dataframe 中某行某列的值。 df.loc 是根据标签索引数据&#xff0c;可以传入行标签和列标签&#xff0c;格式如下&#xff1a; value df.loc[row_index, col_index]

dataframe 怎么提取指定的某几行

代码如下&#xff1a; import pandas as pd # 将pandas作为第三方库导入&#xff0c;我们一般为pandas取一个别名叫做pd dfzzpd.DataFrame({"a":[1.78,1.8,2.8,2.75,5,5,23],"b":[20.8,10,10,30,43,1,12],"c":[23,15,50,3,343,12,95]}) ampd.Da…

pandas dataframe 提取行和列

import pandas as pd data pd.DataFrame({a:[1,2,3],b:[4,5,6],c:[7,8,9]}) 提取列 单列 data[a] 多列 data[[a, b]] 使用 .loc或者 .iloc 提取 第一个参数是行&#xff0c;第二个参数为列 .loc为按标签提取&#xff0c; .iloc为按位置索引提取 data.loc[:, a] # 等价于…

Python DataFrame:提取某字段最大值所对应的行

Update list: 2022.11.07更新&#xff1a;对合并后的结果去重; 我们处理某些表格数据时&#xff0c;会遇到某个字段在不同类别中有不同的值&#xff0c;有时候需要提取某个类别中该字段最大值所对应的行&#xff0c;只用group by 往往不行。其实&#xff0c;使用group by 和 m…

DataFrame按行、列提取数据

提取单行数据 按DataFrame的行索引编号提取数据 df.iloc[0]&#xff1a;提取df的第一行数据 按DataFrame的行索引名称提取数据 df.loc[‘手机’]&#xff1a;提取df的行索引为‘手机的那一行数据 提取多行数据 按索引编号提取数据 df.iloc[0:3]&#xff1a;提取df第1行到第3行的…

植物大战僵尸中文版修改器python实现

#阳光edx5560 import win32gui import win32process import win32api,ctypes import tkinter as tk maintk.Tk() main.title("植物大战僵尸修改器 ------豆腐西蓝花") main.geometry(800x400) def sun_func():window_handle win32gui.FindWindow(None, &…