最近、大学の試験で32ビット(i386)専用のスクリプトを実行しましたが、ubuntuはamd64であるため、スクリプトは実行されませんでしたが、ホームフォルダー内のフォルダーにアクセスしようとしたため、許可が拒否されました。 。そこで、sudo chmod 777 -R / home / usernameを実行しました。これにより、スクリプトを使用せずにテストを正常に実行するための例外として設定された場合でも、テストを完了するためのアクセス許可が与えられました。このすべての後、さらに2日後、ドライブのスペースが少なくなるという問題に直面し始めましたが、おそらく十分なスペースがあるはずでした。次に、システムに1.4kbのスペースが残っていると表示されました。ネットで自分の問題を探したところ、どこかでアスクブンツで答えが見つかりましたが、二度と見つかりませんでした。それは、実際に起こったことは、ホームディレクトリには777ではなく644のアクセス許可が必要であるため、削除したファイルには、ディレクトリに追加した新しいファイルと一緒にINODESがまだ存在しているため、スペースが残っていません。ホームディレクトリからすべてを削除しましたが、サイズがkb未満のファイルを追加しようとすると、まだスペースが残っていません。任意のヘルプや提案をいただければ幸いです。
running df gives
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/sda6 16229452 15634864 0 100% /
udev 1941220 4 1941216 1% /dev
tmpfs 780000 972 779028 1% /run
none 5120 0 5120 0% /run/lock
none 1949996 9732 1940264 1% /run/shm
overflow 1024 668 356 66% /tmp
/dev/sda3 449082364 281834708 167247656 63% /media/Acer
/dev/sdb1 976762524 250648068 726114456 26% /media/HD-PCTU2
df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda6 16G 15G 0 100% /
udev 1.9G 4.0K 1.9G 1% /dev
tmpfs 762M 972K 761M 1% /run
none 5.0M 0 5.0M 0% /run/lock
none 1.9G 14M 1.9G 1% /run/shm
overflow 1.0M 668K 356K 66% /tmp
/dev/sda3 429G 269G 160G 63% /media/Acer
/dev/sdb1 932G 240G 693G 26% /media/HD-PCTU2
gparted Image
i.imgur.com/NK0U349.png
この問題は、ログファイルがディスク上のスペースを取りすぎたことが原因で発生しました。ファイルはHADOOP_LOG_DIRで見つかりました。/etc/hadoop/conf/hadoop-env.shにあります。ここで構成中に、HADOOP_LOG_DIRをセットアップします。
私はそれらを使用して見つけました:
find / -size + 100M-ls。
rm -rf / var / log / hadoop /を実行するだけです。HADOOP_LOG_DIRが/ var / log / hadoop /を指している場合、それ以外の場合はrm-rfその特定の場所。
この記事はインターネットから収集されたものであり、転載の際にはソースを示してください。
侵害の場合は、連絡してください[email protected]
コメントを追加