На странице Android Developers
onPause ():
Вызывается, когда система начнет возобновление предыдущего действия. Обычно это используется для переноса несохраненных изменений в постоянные данные, остановки анимации и других вещей, которые могут потреблять процессор и т. Д. Реализации этого метода должны быть очень быстрыми, потому что следующее действие не будет возобновлено до тех пор, пока этот метод не вернется. За ним следует либо onResume (), если операция возвращается к фронту, либо onStop (), если она становится невидимой для пользователя.
blockquote>onStop ():
Вызывается, когда действие больше не отображается пользователю, потому что другое действие возобновлено и распространяется на него. Это может произойти либо из-за того, что начинается новая деятельность, но и перед тем, как это происходит, или что этот объект уничтожается. Далее следует либо onRestart (), если это действие возвращается для взаимодействия с пользователем, либо onDestroy (), если эта активность уходит.
blockquote>Теперь предположим, что есть три действия, и вы переходите от От A до B, то onPause от A будет теперь вызываться от B до C, затем на Pause B и onStop A будет вызываться.
Приостановленное действие получает Возобновление и Stopped перезапускается.
Когда вы вызываете
this.finish()
, вызывается onPause-onStop-onDestroy. Главное, что нужно помнить: приостановлено. Действия прекращаются, и прекращенная деятельность получает Destroyed, когда для Android требуется память для других операций.Надеюсь, это достаточно ясно.
Ну, я работаю над Windows 7, сначала проверьте, определены ли переменные среды. SPARK_HOME = c: \ spark и Путь = C: \ spark \ bin . Затем проверьте следующие команды:
Sys.getenv('SPARK_HOME')
"C:\\spark"
spark_version_from_home(Sys.getenv('SPARK_HOME'))
"2.3.1"
system('spark-submit --version')
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.3.1
/_/
Using Scala version 2.11.8, Java HotSpot(TM) 64-Bit Server VM, 1.8.0_151
Branch
Compiled by user vanzin on 2018-06-01T20:37:04Z
Revision
Url
Type --help for more information.
Наконец, сделайте соединение с искру.
sc <- spark_connect(master = "local") # work
Теперь, как только ваш вопрос sparklyr 0.8.4 поддерживает искру 2.3.1, да и нет. В моем случае при использовании: (выдает ошибку)
sc <- spark_connect(master = "local", version = "2.3.1") #it does not work
Error in spark_install_find(version, hadoop_version, latest = FALSE, hint = TRUE) :
Spark version not installed. To install, use spark_install(version = "2.3.1")
Если мы проверим следующие даты, последняя версия apache spark 2.3.1 была выпущена (июнь 08 2018), а последнее обновление от sparklyr 0.8.4 был (25 мая 2018 года), то есть он был запущен месяцем ранее (искра 2.3.1 не существовала). Также при использовании следующих команд:
spark_install(version = "2.3.1")
Error in spark_install_find(version, hadoop_version, installed_only = FALSE,:
spark_available_versions()
spark
1 1.6.3
2 1.6.2
3 1.6.1
4 1.6.0
5 2.0.0
6 2.0.1
7 2.0.2
8 2.1.0
9 2.1.1
10 2.2.0
11 2.2.1
12 2.3.0
Я думаю, что решение поддержки для искры 2.3.1 полностью (не частичное, как сейчас) состоит в том, чтобы дождаться запуска sparklyr 0.9.0 или для связи с пакетом диспетчера обслуживания Хавьер Лураши .