在几千条记录里,存在着些相同的记录,如何能用SQL语句,删除掉重复的呢

1、查找表中多余的重复记录,重复记录是根据单个字段(peopleId)来判断

select * from people

where peopleId in (select peopleId from people group by peopleId having count(peopleId) > 1)

2、删除表中多余的重复记录,重复记录是根据单个字段(peopleId)来判断,只留有rowid最小的记录

delete from people

where   peopleName in (select peopleName    from people group by peopleName      having count(peopleName) > 1)

and   peopleId not in (select min(peopleId) from people group by peopleName     having count(peopleName)>1)

3、查找表中多余的重复记录(多个字段)

select * from vitae a

where (a.peopleId,a.seq) in (select peopleId,seq from vitae group by peopleId,seq having count(*) > 1)

4、删除表中多余的重复记录(多个字段),只留有rowid最小的记录

delete from vitae a

where (a.peopleId,a.seq) in (select peopleId,seq from vitae group by peopleId,seq having count(*) > 1)

and rowid not in (select min(rowid) from vitae group by peopleId,seq having count(*)>1)

5、查找表中多余的重复记录(多个字段),不包含rowid最小的记录

select * from vitae a

where (a.peopleId,a.seq) in (select peopleId,seq from vitae group by peopleId,seq having count(*) > 1)

and rowid not in (select min(rowid) from vitae group by peopleId,seq having count(*)>1)

6.消除一个字段的左边的第一位:

update tableName set [Title]=Right([Title],(len([Title])-1)) where Title like '村%'

7.消除一个字段的右边的第一位:

update tableName set [Title]=left([Title],(len([Title])-1)) where Title like '%村'

8.假删除表中多余的重复记录(多个字段),不包含rowid最小的记录

update vitae set ispass=-1

where peopleId in (select peopleId from vitae group by peopleId

mysql重复数据只取一条数据_SQL删除重复数据只保留一条相关推荐

  1. mysql删除重复数据只保留一条_mysql查找删除重复数据并只保留一条实例详解

    有这样一张表,表数据及结果如下: school_id school_name total_student test_takers 1239 Abraham Lincoln High School 55 ...

  2. pandas删除数据行中的重复数据行、基于dataframe所有列删除重复行、基于特定数据列或者列的作何删除重复行、删除重复行并保留重复行中的最后一行、pandas删除所有重复行(不进行数据保留)

    pandas删除数据行中的重复数据行.基于dataframe所有列删除重复行.基于特定数据列或者列的作何删除重复行.删除重复行并保留重复行中的最后一行.pandas删除所有重复行(不进行数据保留) 目 ...

  3. 堆栈(Strack)是指这样一段内存,它可以理解为一个筒结构,先放进筒中的数据被后放进筒中的数据“压住”,只有后放进筒中的数据都取出后,先放进去的数据才能被取出,称为“后进先出”。堆栈的长度可随意增加

    堆栈(Strack)是指这样一段内存,它可以理解为一个筒结构,先放进筒中的数据被后放进筒中的数据"压住",只有后放进筒中的数据都取出后,先放进去的数据才能被取出,称为"后 ...

  4. MATLAB中如何忽略函数中前几个不需要的返回值而只取需要的返回值,例如:只取函数第二个返回值,而忽略第一个返回值

    1 致谢 感谢网友honglei.chen的回答, 原文链接如下: https://www.ilovematlab.cn/thread-203269-1-1.html 2 前言 今天在学习神经网络算法 ...

  5. mysql去除重复数据保留一条_MySQL中删除重复数据只保留一条

    用SQL语句,删除掉重复项只保留一条 在几千条记录里,存在着些相同的记录,如何能用SQL语句,删除掉重复的呢 1.查找表中多余的重复记录,重复记录是根据单个字段(peopleId)来判断 SELECT ...

  6. mysql用一条sql语句删除重复记录_mysql中删除重复记录,并保留重复数据中的一条数据的SQL语句...

    正好想写一条删除重复语句并保留一条数据的SQL,网上查了一部分资料写的很详细,但还是在这里写下自己的理解,以遍后续学习 .如下: 表字段和数据: SQL语句: DELETE FROM`user`WHE ...

  7. mysql、oracle、pg、sql查询、删除重复数据保留一条

    1.单个字段查询.去重 查询单字段重复数据 select * from 表名称 where 字段 in (select 字段 from 表名称 group by 字段 having count(1) ...

  8. Oracle重复数据只删除一条,解决Oracle删除重复数据只留一条的方法详解

    查询及删除重复记录的SQL语句 1.查找表中多余的重复记录,重复记录是根据单个字段(Id)来判断 select * from 表 where Id in (select Id from 表 group ...

  9. excel删除重复数据保留一条_Excel一键删除重复数据,你居然还用逐条排查?

    平时用Excel表格处理大量数据的时候,总会遇到大量的重复无效数据. 如果只有几十条数据,也就罢了,一条一条比对,很快也能清理完,可是如果数据多达上百条,甚至成千上万条,还是去一条一条筛选,那得排查到 ...

  10. mysql类似于excel的删除重复项_sql删除重复项并保留其中一条(含sql优化)

    背景: 数据库包含重复数据,需要清理掉重复数据,并只保留其中一条. 结论 优化:百万数据查询删除重复数据,耗时从5423秒下降到2秒左右 优化过程: 根据搜索到的资料: 4.删除表中多余的重复记录(多 ...

最新文章

  1. SVM: 支持向量机中的,那个C
  2. CGCKD2021大会报告整理(2)--因果推断与因果域适应学习
  3. python中二进制表示_Python中的二进制搜索:直观介绍
  4. matlab pdist如何实现,在MATLAB版本7中相当于pdist2
  5. golang 代理地址
  6. 线性回归实现——梯度下降
  7. iis html执行脚本,HTML_IIS管理脚本之adsutil.vbs的使用说明,Adsutil.vbs是什么?它是Windows 200 - phpStudy...
  8. python教程(六)·字符串
  9. mysql基础之查询缓存、存储引擎
  10. poj 1185(状态压缩DP)
  11. 在myeclipse上设置 SVN过滤上传的文件类型
  12. sourceforge.net居然被劫持??
  13. Manjaro安装以及美化教程
  14. Irrational problem
  15. 100篇精选文章带你玩转TCP/IP协议
  16. 小米5 miui9 android8,小米5升级MIUI9速度对比MIUI8:开机就快10秒
  17. Geogebra-球坐标系
  18. 无主之地2 不费子弹手枪
  19. 电化学传感器(1)---原理
  20. 公司股权分配协议 (2)

热门文章

  1. GISTEMP全球表面温度数据下载及处理
  2. [转载]Android相关开发网站
  3. DiffuseVAE:完美结合VAE和Diffusion Models
  4. win10开机黑屏一段时间bug修复
  5. eclipse中出现的导入jar包却无法import的情况
  6. Proteus VSM与µVision2的联调
  7. 基于dsp乘法器设计c语言,DSP in FPGA : 乘法器(一)
  8. 全网最全程序员学习网站汇总,还不赶快收藏
  9. 拿到Google offer了
  10. 马上2023年了,还能做电商吗?奉劝大家别被骗了