flatMap в Spark и память

В Apache Spark есть несколько интересных моментов, которые могут создать серьезные проблемы, если о них не знать. Так после работы flatMap , не происходит перераспределение разделов (repartition). Обычно результатом работы этой функции является RDD с более большим количеством строк, чем исходный. Это означает, что увеличение нагрузки на память для каждого раздела, и как следствие, использование диска и к некоторым проблемам со сборщиком мусора (GC).

Что самое опасное, есть высокая вероятность что процесс Python исчерпает всю доступную ему память и исполнитель свалиться с OutOfMemoryError. И это не единственная ошибка OutOfMemoryError, которая может произойти. Вторая, даже описана в документации:

Sometimes, you will get an OutOfMemoryError, not because your RDDs don’t fit in memory, but because the working set of one of your tasks, such as one of the reduce tasks in groupByKey, was too large. Spark’s shuffle operations (sortByKey, groupByKey, reduceByKey, join, etc) build a hash table within each task to perform the grouping, which can often be large.

Исправить ситуацию можно по разному: