1개 답변
- 최신
- 최다 투표
- 가장 많은 댓글
0
【以下的回答经过翻译处理】 你可以在Spark作业中使用Hadoop Java配置来更新S3 canned acl。
‘’‘
import sys from pyspark import SparkConf from pyspark.context import SparkContext from pyspark.sql.functions import * from pyspark.sql import SQLContext, Row
sc = SparkContext()
’‘’
관련 콘텐츠
- AWS 공식업데이트됨 3년 전