My Oracle Support Banner

HDFS コンポーネントの起動が失敗した場合、FATAL ログ・エントリはCM のイベントに抽出されない (Doc ID 2380007.1)

Last updated on NOVEMBER 14, 2019

適用範囲:

Big Data Appliance Integrated Software - バージョン 4.6.0 以降
Linux x86-64
本文書利用上のご注意
  本文書は英語の文書 <Document 2373433.1> (最終メジャー更新日: 2018年03月28日) の日本語翻訳版です。
  英語の文書の最終メジャー更新日が新しい場合は本文書に適宜反映いたします。


現象

ログファイルからFATAL ログ・エントリをCloudera Manager (CM) のイベントに抽出するために、HDFS コンポーネント(NameNode、DataNode など) の「Rules to Extract Events from Log Files」が設定されました。

しかし、コンポーネントが「Address already in use」のエラーで起動が失敗した場合、FATAL エラーはCM のイベントに正しく抽出されません。

次は本問題を確認するための手順です。このテストでは、DataNode が「Address already in use」のエラーで起動が失敗しました。

1. DataNode の「Rules to Extract Events from Log Files」の設定を確認します。

CM の画面から hdfs -> Configuration ->Rules to Extract Events from Log Files」を検索し、「DataNode Default Group」のルール設定を確認します。Alert のチェックボックスが選定されており、Threshold が「Fatal」に設定されていることを確認します。

2. 設定を保存し(Save Changes)、CM から古いサービスを再起動します。


 

3. 任意クラスタ・ノードからDataNode を停止します。

4. DataNode が停止したノードで以下のコマンドを実行し、DataNode のポートを占有します。

7. CM のイベント画面(Diagnostics -> Events) を開き、FATAL アラートが上記ログファイルから抽出されなかったことを確認します。

変更点

N/A

原因

To view full details, sign in with your My Oracle Support account.

Don't have a My Oracle Support account? Click to get started!


本書の内容
現象
変更点
原因
解決策
参照情報

My Oracle Support provides customers with access to over a million knowledge articles and a vibrant support community of peers and Oracle experts.