如何将Spark(EMR无服务器)作业日志发布到CloudWatch

0

【以下的问题经过翻译处理】 使用Scala创建了一个Spark作业,现在尝试找到将日志记录到cloudwatch的方法。

到目前为止,我尝试将作业打包为一个cloudwatch appender的uber Jar,并通过传递log4j选项来实现,如下所示:

--class Main 
--conf spark.files=s3://fen-x-data-migration-1234/emr-demo/etl-job/conf/log4j.properties#log4j.properties 
--conf spark.executor.extraJavaOptions=-Dlog4j.configuration=log4j.properties 
--conf spark.driver.extraJavaOptions=-Dlog4j.configuration=log4j.properties 
--conf spark.hadoop.hive.metastore.client.factory.class=com.amazonaws.glue.catalog.metastore.AWSGlueDataCatalogHiveClientFactory

我还尝试通过程序添加appender。

profile picture
專家
已提問 6 個月前檢視次數 35 次
1 個回答
0

【以下的回答经过翻译处理】 由于Spark和Hive产生的日志量很大,Cloudwatch日志在这个规模下并不总是划算的。因此,我们提供了管理存储,EMR以不增加任何费用为客户存储日志30天[2]。客户也可以选择将日志存储在S3中。

感谢您的来信,注意安全!

[1] https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/emr-serverless.html

[2] https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/logging.html

profile picture
專家
已回答 6 個月前

您尚未登入。 登入 去張貼答案。

一個好的回答可以清楚地回答問題並提供建設性的意見回饋,同時有助於提問者的專業成長。

回答問題指南