1 個回答
- 最新
- 最多得票
- 最多評論
0
I added this workaround on my pySpark script and that solve the issue :
data_frame = data_frame.na.fill('', subset=['MY_EMPTY_STRING_COL'])
已回答 2 年前
相關內容
- 已提問 1 年前
- AWS 官方已更新 1 年前
- AWS 官方已更新 2 年前
- AWS 官方已更新 1 年前
I added this workaround on my pySpark script and that solve the issue :
data_frame = data_frame.na.fill('', subset=['MY_EMPTY_STRING_COL'])