1 回答
- 最新
- 投票最多
- 评论最多
0
I added this workaround on my pySpark script and that solve the issue :
data_frame = data_frame.na.fill('', subset=['MY_EMPTY_STRING_COL'])
已回答 2 年前
相关内容
- AWS 官方已更新 3 年前
- AWS 官方已更新 1 年前
I added this workaround on my pySpark script and that solve the issue :
data_frame = data_frame.na.fill('', subset=['MY_EMPTY_STRING_COL'])