Я запускаю искровое потоковое приложение на автономной установке (версия 1.6.1). Когда я запускаю приложение с помощью spark-submit, журналы отображаются на терминале. Они пригодятся позже, например, чтобы понять, в чем причина сбоя приложения, если оно не удалось.
Из того, что я прочитал в документации, у меня установлен флаг spark.eventLog.enabled
в значение true. Но это только сохраняет журналы событий в папку tmp/spark-events. Эти журналы не очень полезны для меня, как я понимаю. Мои задания часто терпят неудачу из-за многих исключений. Как правильно хранить эти журналы, которые отображаются в терминале (я предполагаю, журналы драйвера?) и анализировать мои исключения?
'....log4j:ERROR No appender named [FILE] could be found. Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties'
04.03.2016RoleFileAppender
. Возможно, вы хотите явно передать jar log4j драйверу spark черезspark.driver.extraClassPath
04.03.2016