Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1889443
  • 博文数量: 2460
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 24729
  • 用 户 组: 普通用户
  • 注册时间: 2020-11-26 14:30
个人简介

更多python、Linux、网络安全学习内容,可移步:www.oldboyedu.com或关注\"老男孩Linux\"公众号

文章分类

全部博文(2460)

文章存档

2024年(310)

2023年(643)

2022年(693)

2021年(734)

2020年(80)

我的朋友

分类: Python/Ruby

2023-11-06 14:28:10

  众所周知,Python是一门强大的编程语言,可以进行数据抓取、数据分析等,能帮助我们高效地处理数据。但在进行数据处理的过程中,我们经常会遇到重复数据的问题,那么Python如何去除重复数据?在Python中,有多种方法可以去除重复数据,以下是具体内容介绍。

  1、使用set()函数去重

  set()是Python中的一个内置函数,用于创建一个集合。集合是无序不重复的元素集合,可以方便地用于去重操作。我们可以将要去重的数据转换为集合,然后再转换为列表,即可去除重复数据。示例代码:

  ```

  data = [1, 2, 3, 4, 1, 2, 5, 6, 3, 7, 8, 9, 9]

  data = list(set(data))

  print(data)

  ```

  输出结果为:[1, 2, 3, 4, 5, 6, 7, 8, 9]

  2、使用pandas库去重

  pandas是Python中一种常用的数据处理库,可以方便地进行数据清洗、转换、分析等操作。pandas提供了drop_duplicates()函数,可以用于去除dataframe中的重复数据。示例代码:

  ```

  import pandas as pd

  data = {'A': [1, 2, 3, 4, 1, 2, 5, 6, 3, 7, 8, 9, 9],

  'B': ['a', 'b', 'c', 'd', 'a', 'b', 'c', 'd', 'e', 'f', 'g', 'h', 'h']}

  df = pd.DataFrame(data)

  df = df.drop_duplicates()

  print(df)

  ```

  输出结果为:

  ```

  A B

  0 1 a

  1 2 b

  2 3 c

  3 4 d

  6 5 c

  7 6 d

  9 7 f

  10 8 g

  11 9 h

  ```

  3、使用numpy库去重

  numpy是Python中一个常用的科学计算库,可以用于数组操作、线性代数运算等。numpy提供了unique()函数,可以用于去除数组中的重复元素。示例代码:

  ```

  import numpy as np

  data = [1, 2, 3, 4, 1, 2, 5, 6, 3, 7, 8, 9, 9]

  data = np.unique(data)

  print(data)

  ```

  输出结果为:[1 2 3 4 5 6 7 8 9]

  4、使用hash去重

  hash是一种将任意长度的消息压缩到某一固定长度的算法。Python中的字典使用了hash表来实现,因此可以利用字典的特性进行去重操作。示例代码:

  ```

  data = [1, 2, 3, 4, 1, 2, 5, 6, 3, 7, 8, 9, 9]

  result = list(dict.fromkeys(data))

  print(result)

  ```

  输出结果为:[1, 2, 3, 4, 5, 6, 7, 8, 9]

阅读(160) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~