Я получил эту ошибку, запустив sqlContext._get_hive_ctx()
. Это было вызвано изначальной попыткой загрузить конвейерный RDD в фреймворк данных. Я получил ошибку Exception: ("You must build Spark with Hive. Export 'SPARK_HIVE=true' and run build/sbt assembly", Py4JJavaError(u'An error occurred while calling None.org.apache.spark.sql.hive.HiveContext.\n', JavaObject id=o29))
. Таким образом, вы можете запустить это перед восстановлением, но FYI. Я видел, как другие сообщают об этом не помогли им.
Здесь Вы идете. Иллюстративная история: http://www.simple-talk.com/opinion/opinion-pieces/bad-carma/
Самая дружественная вещь, которую можно сделать для новичка, состоит в том, чтобы преподавать их вниз сторона EAV.
сторона EAV так обольстительна, что много новичков выроет очень большую яму для себя, прежде чем они поймут это.
, Надо надеяться, поиск Google покажет по крайней мере часть из вниз сторона.
Короче говоря EAV оптимизирован для того, чтобы вложить данные, не выведя данные. Но это могло бы быть приемлемым компромиссом. Я управлял проектом, который должен был разработать общую систему управления данными клинического испытания. Не могло быть многих элементов общих данных, потому что каждая пробная версия должна собрать различные данные. Собирание данных было срочным; мы должны были разработать страницы ввода данных под давлением. Отчеты более тверды с EAV, но они являются также менее срочными, и с некоторой умной мыслью они могут быть упрощены немного. EAV служил нам хорошо.
См. Динуа В. и Надкарния П. Рекомендации по эффективному использованию моделирования сущностей-атрибутов-значений для биомедицинских баз данных. Int J Med Inform. 2007; 76: 769–779. http://www.pubmedcentral.nih.gov/articlerender.fcgi?artid=2110957