1 Risposta
- Più recenti
- Maggior numero di voti
- Maggior numero di commenti
0
You cannot have multiple SparkContexts in one JVM. The issue is resolved as WON'T FIX. You have to stop the spark session which spawned the sparkcontext (which you have already done).
sparkR.session.stop()
con risposta 4 anni fa
Contenuto pertinente
- AWS UFFICIALEAggiornata un anno fa
- AWS UFFICIALEAggiornata un anno fa
- AWS UFFICIALEAggiornata un anno fa