如何将Spark(EMR无服务器)作业日志发布到CloudWatch

0

【以下的问题经过翻译处理】 使用Scala创建了一个Spark作业,现在尝试找到将日志记录到cloudwatch的方法。

到目前为止,我尝试将作业打包为一个cloudwatch appender的uber Jar,并通过传递log4j选项来实现,如下所示:

--class Main 
--conf spark.files=s3://fen-x-data-migration-1234/emr-demo/etl-job/conf/log4j.properties#log4j.properties 
--conf spark.executor.extraJavaOptions=-Dlog4j.configuration=log4j.properties 
--conf spark.driver.extraJavaOptions=-Dlog4j.configuration=log4j.properties 
--conf spark.hadoop.hive.metastore.client.factory.class=com.amazonaws.glue.catalog.metastore.AWSGlueDataCatalogHiveClientFactory

我还尝试通过程序添加appender。

profile picture
专家
已提问 5 个月前32 查看次数
1 回答
0

【以下的回答经过翻译处理】 由于Spark和Hive产生的日志量很大,Cloudwatch日志在这个规模下并不总是划算的。因此,我们提供了管理存储,EMR以不增加任何费用为客户存储日志30天[2]。客户也可以选择将日志存储在S3中。

感谢您的来信,注意安全!

[1] https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/emr-serverless.html

[2] https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/logging.html

profile picture
专家
已回答 5 个月前

您未登录。 登录 发布回答。

一个好的回答可以清楚地解答问题和提供建设性反馈,并能促进提问者的职业发展。

回答问题的准则