1 Risposta
- Più recenti
- Maggior numero di voti
- Maggior numero di commenti
0
You can use Spark section from this EMR best practices guide. Feel free to share here or create a specReq if customer has any specific question. Here are few basic things to keep in mind.
- Handle data skew
- Make sure there is no disk spill happening
- Optimal partition size to make sure not too many tasks are created
- Use the right data format for source and target (preferably parquet)
- Watch for excessive shuffle. Can be confirmed from Spark UI.
- Tune driver/executor size (memory, core) based on workload.
con risposta un anno fa
Contenuto pertinente
- AWS UFFICIALEAggiornata un anno fa
- AWS UFFICIALEAggiornata un anno fa
- AWS UFFICIALEAggiornata 2 anni fa
- AWS UFFICIALEAggiornata un anno fa