快捷搜索:   nginx

unix文件系统被塞满的清理策略

  尽管现在的磁盘容量越来越大,但它终究有被塞满的可能,如果遇上粗枝大叶的系统管理员,磁盘被塞满的时间将变得更短。一个unix/linux运行环境,一旦遇到某个分区(也称文件系统)被塞满,后果也许会十分糟糕—我曾有过在凌晨2点起来干活的经历—分区/tmp满了,导致某个守护进程不能写入磁盘而异常终止。想必其他人也有类似的情况,怎样处理和避免这样的麻烦呢?这里有些意见供大家参考。

  先谈非技术方面的因素,简单的讲就是规章制度。Linux/unix大多是公共服务器,应该禁止上传与工作无关的私人数据。某君买了一个NAS(网络附属存储)设备,4个73G的硬盘,本来打算做web的后台数据存储,但是,但是….后来据我所知,这个大容量磁盘不到2个月所剩空间不到20G,私下浏览,嘿!大部分数据是他私人的,他本来就有收藏废品的嗜好,难怪呢。因此在这个方面,制度应该严厉一些,避免同事放垃圾数据在公共空间。

  磁盘上的数据可能随时增长,任何人不可能24小时盯着它,因此实现自动化监控手段是十分必要的,对于更大规模的网络环境,这也许是唯一的途径。下面是一个用perl写的监控磁盘容量的脚本(大宇对此有贡献):

  #!/usr/bin/perl -w

  # this program will check disk capacity $full and send the warning message

  # to $email_address

  # (set the threshold to 90 and check it in the daytime so no paging

  # is needed)

  my $email_address = 'sa@yourcom.com';

  my $hostname = `/sbin/ifconfig -a|grep inet|head -1|cut -f2 -d":"|cut -f1 -d" "`;

  my $dmesg = `dmesg`;

  chomp(my $now = `date +"%x %X"`);

  my $full = 90; # the threshold to send the warning

  my $warn = 95;

  my $count = 0;

  my ($dev,$total,$used);

  my @df_messages = `df|grep -v proc`;

  print @df_messages;

  shift(@df_messages);

  foreach $message (@df_messages) {

  chomp($message);

  ($dev, $total, $used, $available, $capacity, $mount) = split(/\s+/, $message);

  $capacity =~ s/(\d+)\%/$1/;

  if ($capacity > $full) {

  $available[$count] = $available;

  $capacity[$count] = $capacity;

  $mount[$count] = $mount;

  ++$count;

  $email_address = 'sa@yourcom.com' if ($capacity > $warn);

  }

  }

  if ($count > 0) {

  open(MAIL, "|/usr/sbin/sendmail -t");

  print MAIL "To: $email_address \n";

  print MAIL "Subject: Disk almost full on $hostname ($now)\n";

  print MAIL "\n";

  for ($i = 0; $i < $count; ++$i) {

  print MAIL "There are only $available[$i] KB ($capacity[$i]\% full) left on $mount[$i] \n";

  }

  }

  if ( $dmesg =~ m/ERROR/ )

  {

  open(EMAIL, "|/usr/sbin/sendmail -t") or die "Can't fork for sendmail: $!\n";

  print EMAIL <<_EOF_ ;

  To: $email_address

  subject: HARDWARE error on $hostname!!!

  $hostname needs to be checked right now!

  .

  _EOF_

  close("EMAIL");

  }

  把这个脚本放在定时任务crontab里即可实现自动监控,只要某个分区的容量达到脚本中阀值,系统就会发送报警邮件到管理员信箱,更进一步还可设定发送手机短信报警。

  知道某个分区快要被塞满的情况后,接下来的事情就是清理它了。登陆系统,然后使用命令df –h察看具体的磁盘使用情况(老一点版本的solaris不支持选项-h,请用-k这个选项),

  磁盘的利用率是以百分比的方式显示的,非常直观。找到快要被塞满的分区之后,应该先着手查找占用空间大的最大的文件,然后处理这个占用空间最大的文件。这里我用一个实例(根分区/root)来演示这个过程。

  1、      进入目录/root,执行命令 du –h | sort –n 就把当前目录下目录以及文件所占的大小按顺序排列出来了,一屏显示不完的话再用加一个管道 du –h | sort –n | more 就好了。

  -bash-3.00# du -h | sort -n| more

  1K   ./.dt/appmanager

  1K   ./.dt/help

  1K   ./.dt/icons

  1K   ./.dt/tmp

  ……….(省略若干行)

  914K   ./mysql-5.0.37/zlib

  933K   ./mysql-5.0.37/ndb/src/kernel/blocks/dblqh

  938K   ./mysql-5.0.37/scripts

  945M   .           //这个东西占太大的空间

  957K   ./mysql-5.0.37/extra/yassl/taocrypt

  959K   ./vsftpd-2.0.5

  1002K   ./mysql-5.0.37/ndb/src/common

  -bash-3.00#

  有上面的输出,我们可以知道在当前目录里有大文件,但是看不出是哪个文件。

  2、      再执行命令 ls –al | grep ^- |more 就可以看见每个文件的大小。

  -bash-3.00#       ls -al | grep ^-|more

  -rw-------   1 root   root       810 Apr 29 09:59 .ICEauthority

  -rw-------   1 root   root       98 Apr 29 09:59 .Xauthority

  -rw-------   1 root   root       730 Apr 30 07:52 .bash_history

  -rwxr-xr-x   1 root   root     5111 Apr 29 08:30 .dtprofile

  -rw-r--r--   1 root   root       81 Apr 29 08:30 .gtkrc-1.2-gnome2

  -rw-------   1 root   root       0 Apr 29 08:30 .recently-used

  -rw-r--r--   1 root   root   681090961 Feb 28 12:29 10202_database_solx

  86.zip

  ……….(省略若干)

  -rw-r--r--   1 root   root   3069440 Apr 29 11:31 tar-1.16-sol10-x86-lo

  cal

  -rw-r--r--   1 root   root   10895360 Oct 22 2006 tar-1.16.tar

  -rw-r--r--   1 root   root     155985 Jul 3 2006 vsftpd-2.0.5.tar.gz

  -bash-3.00#

  字体为红色的哪行就是最大文件的信息,它的文件名是10202_database_solx86.zip,再用命令du –h 10202_database_solx86.zip可直接显示它的大小为650M。

  -bash-3.00#   du -h 10202_database_solx86.zip

  650M   10202_database_solx86.zip

  3、移走或删除占用空间的大文件。

  大家看一看,找大文件是不是很简单?!当然如果使用awk这样的工具写shell脚本更是方便的法门,还有一个方法是用find加选项 –size,请大家自己去试验。

顶(0)
踩(0)

您可能还会对下面的文章感兴趣:

最新评论