df查看磁盘空间占用满了,却找不到大文件

news/2024/10/24 0:29:29/

某台搭建mysql数据库的服务器,邮件一直报警磁盘空间占用大。于是df -hT查看。

Filesystem           Type   Size  Used Avail Use% Mounted on
/dev/vda1            ext4   197G  161G   27G  86% /
tmpfs                tmpfs   16G     0   16G   0% /dev/shm

在根目录下通过du查找占用较大的目录,但得出的结论是所有目录容量加一块也才60G。那问题出在哪里。

后面百度得知,原来有的文件可能删除了,但是并没有被释放,就像进入回收站一样,于是用lsof命令查看那些删除了但是还打开着文件句柄的文件,并按照大小顺序排列。

# lsof -n | grep delete
mysqld    25176  mysql    4w      REG              252,1        73470    7602260 /tmp/2019-06-14.txt (deleted)
mysqld    25176  mysql 3230w      REG              252,1 103458123336    7602258 /tmp/log/20190614-16.log (deleted)

发现有两个log文件状态为deleted,但是文件句柄仍然被打开了。如果有进程在使用某个文件,你把这个文件删掉之后,它不会马上释放空间,除非你手工重启该进程。于是reload一下mysql,问题解决。

参考链接:
1、磁盘满了,却找不到大文件
https://blog.csdn.net/maquealone/article/details/83054103


http://www.ppmy.cn/news/245831.html

相关文章

【通俗易懂】为什么视频存储用YUV而不是RGB

RGB和YUV区别 RGB常常用于图像的存储,并且十分简单。 但是在视频领域中,RGB就不那么常见了。我们知道,视频其实是由一张张连续的图片序列组成的,我们假设有一个1080p(1920 * 1080)分辨率、帧率为30帧的视频…

Linux虚拟机磁盘扩容CentOS

测试个东西,发现虚拟机磁盘不够用了,,,,找了半天扩容方法,都是东拼西凑的没个有用的,最后终于找到个完美扩容的,记录下,防止原文以后看不了 原文:https://www…

CentOS7扩容根分区(LVM)

1.查看现有分区大小 df -TH LVM分区,磁盘总大小为20G,根分区总容量为17G 2.关机增加大小为30G(测试环境使用的Vmware Workstation) 扩展分区到30G 3.查看扩容后磁盘大小 df -TH lsblk 磁盘总大小为30G,根分区为17G 4.创建分区 fdisk /dev/sda 将sda剩余空间全部给…

C盘空间暴跌 :)System Volume Information

前几天C盘 空间不够了 删了波文件 剩下30多G 今天发现 有满了 很诡异 有没有添加什么东西 用软件查了波大文件 是C:\System Volume Information 多了个27G的玩意 并且 大文件前几个都有它的东西 占了90G 这个文件是叫 中文名称可以翻译为“系统卷标信息”。这个文件…

VirtualBox压缩VDI文件 VDI文件瘦身方法(cenos7)

virtualbox虚拟机运行久了之后就会发现,磁盘镜像vdi文件越来越大。即使你把虚拟机中的大文件删除,这个vdi文件占用的空间还是不变。也就是说动态扩展的vdi文件只会大,不会小。那么大的文件对于备份和分享都不是很方便,所以有必要的…

linux下硬盘扩容

背景:之前通过虚拟机装linux时硬盘空间设置的不够用,所以需要再加点容量。 1、首先通过虚拟机来扩展硬盘 注意:需要关闭linux系统;需要删除之前的快照 我原来为27G,现在增加到了40G 2、启动虚拟机 在root用户下&am…

CentOS7分区指南

文章目录 CentOS7,LVM根分区扩容步骤:1.查看现有分区大小2.关机增加大小为30G3.查看扩容后磁盘大小4.创建分区5.刷新分区并创建物理卷6.查看卷组名称,以及卷组使用情况7.将物理卷扩展到卷组8.查看当前逻辑卷的空间状态9.将卷组中的空闲空间扩…

如何解析(读取)LZ4压缩格式的Spark EventLog日志

为什么需要Spark Event Log? 我们都知道Spark启动后会启动Spark UI,这个Spark UI可以帮助我们监控应用程序的状态。但是如果Spark应用跑完了,Spark UI就无法查看,如果Spark在执行过程中出了问题,我们没有办法去快速查找…