Linux 根分区快满了,这个方法快速定位!

根分区快满得赶紧处理。
先看空间用没用完。

用df -Hl看各分区,重点看根分区Use%。

用du和find找大文件。
du -hs/看一级目录大小,du -max-depth=2 |grep G找大目录。
find / -type f -size +1 G -exec du -h {} \;找大文件。

注意特殊问题。
lsof -L1 看未释放文件。
tune2 fs -m1 改预留空间。

清理空间。
删无用文件,清理日志用journalctl --vacuum-size=1 00M。
清理包缓存用yum clean all或apt clean。

预防。
监控告警,定期清理,扩容或迁移。

linux根目录满了如何清理linux根目录满了

根目录满了?直接清理就完事儿。

1 . 用命令查占用:du -sh 一个个进目录找。

2 . /var最大? /var/cache 包着安装包。
/var/log 包着日志。
直接删干净。

3 . 总得清理? 在 /var 下建软链接。
比如软连到 /home。
/home 空间大,随便用。

df -i 1 00%? 说明inode用光了。
必须删文件释放。

怎么删? 慢慢找大目录。
用 df -h 看盘。
用 du -sh 看文件。

特别慢的目录? 进去再查。
inode大的一般是缓存或日志。

目录挂载多块盘? 根目录挂一块。
其它目录指定挂载。
就按指定分区存取。

比如 / 在 /dev/hda1 /home 在 /dev/hda2 /home 下的文件都在 hda2 分区。

简单说,就像windows分盘。
C盘装系统,东西都在这儿。
重装就没了。
分盘防重装丢数据。

非网站用? 分 / 和 /home 够了。

linux根目录满了 proc

说到Linux根目录满了,这个事儿我碰过好几次。
说真的,有时候你看根目录空间满了,其实不是硬盘真的满了,很多时候是系统资源或者进程信息太多导致的。
我记得有一次,我在2 01 9 年那会儿,在一台服务器上就遇到过这个问题。

当时,我用df -h一看,根目录确实快满了,但是用du -sh /一看,根目录下并没有占用特别大的文件或者目录。
这就奇怪了,我再深入一看,发现原来是/proc目录里的信息太多。
当时也没想明白,怎么会有那么多进程信息。

那怎么办呢?首先,我得清理一些不必要的进程。
我用kill命令把一些看起来不重要的进程给杀了,但是得小心点,别把系统关键进程也给误杀了。
这个过程其实有点像猜谜,得知道哪些进程可以杀,哪些不能杀。

然后,我调整了一下系统配置。
虽然/proc目录本身不占用磁盘空间,但是里面那些进程信息多了,也会影响性能。
我调整了一下进程优先级,限制了进程数量,这样子系统压力小了不少。

再说,我还得定期检查系统状态。
我经常用top、htop、vmstat这些工具,每天定时检查一下CPU、内存、磁盘I/O的使用情况。
这样子,一旦有问题,我就能及时发现。

至于根目录满了的一般处理措施嘛,首先我用df -h看看哪个分区满了。
然后用du -sh /看看根目录下哪个目录占空间最大。
找到这些后,我就开始清理,比如删除一些临时文件、日志文件、软件包缓存之类的。

如果清理完还是不够,那我就得考虑扩展磁盘空间了。
我之前就给服务器添加过新硬盘,也扩展现有分区。
不过这个操作得小心,得先备份重要数据,确保操作的安全性。

就这样,每次遇到根目录满了的问题,我都是这么一步步解决的。
说实话,这个过程挺繁琐的,但关键是要细心,一步步来。

linux根目录满了 proc

记得有一次,我负责维护一个运行在旧服务器上的Linux系统,那玩意儿已经服役了好几年,那天系统突然变得无比卡顿,查看了一下日志,发现根目录空间接近爆满,但奇怪的是,硬盘空间显示还有一半左右。
我心中一动,想到了/proc目录,赶紧查了一下,果然,这货占用了接近8 0%的根目录空间。
那时候,我还不是那么懂,只知道要清理这个目录下的文件,就试着用du命令一通查找,最后发现一个叫做dmesg的文件,竟然占了9 0%以上的空间。
清理了它后,系统瞬间流畅了很多。
等等,我突然想到,如果遇到类似情况,除了清理文件,还应该定期监控,提前预防嘛。