1 Antwort
- Neueste
- Die meisten Stimmen
- Die meisten Kommentare
0
【以下的回答经过翻译处理】 请确保启用了Hive支持,并且可以直接使用SparkSession.sql来执行SQL查询。
以下是Python示例。在Java或Scala中工作方式相同。
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("Test").enableHiveSupport().getOrCreate()
spark.sql("show tables").show()
Relevanter Inhalt
- AWS OFFICIALAktualisiert vor 2 Jahren
- Wie behebe ich den Fehler „java.lang.OutOfMemoryError: Java heap space“ in einem AWS Glue-Spark-Job?AWS OFFICIALAktualisiert vor 2 Jahren
- AWS OFFICIALAktualisiert vor 3 Jahren
- AWS OFFICIALAktualisiert vor einem Jahr