1回答
- 新しい順
- 投票が多い順
- コメントが多い順
0
【以下的回答经过翻译处理】 你可以在Spark作业中使用Hadoop Java配置来更新S3 canned acl。
‘’‘
import sys from pyspark import SparkConf from pyspark.context import SparkContext from pyspark.sql.functions import * from pyspark.sql import SQLContext, Row
sc = SparkContext()
’‘’
関連するコンテンツ
- 質問済み 6年前
- 質問済み 9ヶ月前
- AWS公式更新しました 2年前
- AWS公式更新しました 1年前