如何将Spark(EMR无服务器)作业日志发布到CloudWatch

0

【以下的问题经过翻译处理】 使用Scala创建了一个Spark作业,现在尝试找到将日志记录到cloudwatch的方法。

到目前为止,我尝试将作业打包为一个cloudwatch appender的uber Jar,并通过传递log4j选项来实现,如下所示:

--class Main 
--conf spark.files=s3://fen-x-data-migration-1234/emr-demo/etl-job/conf/log4j.properties#log4j.properties 
--conf spark.executor.extraJavaOptions=-Dlog4j.configuration=log4j.properties 
--conf spark.driver.extraJavaOptions=-Dlog4j.configuration=log4j.properties 
--conf spark.hadoop.hive.metastore.client.factory.class=com.amazonaws.glue.catalog.metastore.AWSGlueDataCatalogHiveClientFactory

我还尝试通过程序添加appender。

profile picture
전문가
질문됨 6달 전35회 조회
1개 답변
0

【以下的回答经过翻译处理】 由于Spark和Hive产生的日志量很大,Cloudwatch日志在这个规模下并不总是划算的。因此,我们提供了管理存储,EMR以不增加任何费用为客户存储日志30天[2]。客户也可以选择将日志存储在S3中。

感谢您的来信,注意安全!

[1] https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/emr-serverless.html

[2] https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/logging.html

profile picture
전문가
답변함 6달 전

로그인하지 않았습니다. 로그인해야 답변을 게시할 수 있습니다.

좋은 답변은 질문에 명확하게 답하고 건설적인 피드백을 제공하며 질문자의 전문적인 성장을 장려합니다.

질문 답변하기에 대한 가이드라인