Как изменить память исполнителя (и другие конфигурации) для Apache Spark Shell?
В частности, я хотел бы указать квартиры для spark-shell, например -Dspark-cores-max=12, когда я запускаю его, чтобы мои задания в spark shell использовали эти параметры конфигурации.