1 回答
- 最新
- 投票最多
- 评论最多
0
【以下的回答经过翻译处理】 你可以在Spark作业中使用Hadoop Java配置来更新S3 canned acl。
‘’‘
import sys from pyspark import SparkConf from pyspark.context import SparkContext from pyspark.sql.functions import * from pyspark.sql import SQLContext, Row
sc = SparkContext()
’‘’
相关内容
- AWS 官方已更新 4 年前
- AWS 官方已更新 5 个月前