1 Respuesta
- Más nuevo
- Más votos
- Más comentarios
0
【以下的回答经过翻译处理】 你可以在Spark作业中使用Hadoop Java配置来更新S3 canned acl。
‘’‘
import sys from pyspark import SparkConf from pyspark.context import SparkContext from pyspark.sql.functions import * from pyspark.sql import SQLContext, Row
sc = SparkContext()
’‘’
Contenido relevante
- OFICIAL DE AWSActualizada hace 3 años
- OFICIAL DE AWSActualizada hace un año
- OFICIAL DE AWSActualizada hace 2 años
- OFICIAL DE AWSActualizada hace 2 años