Это решение этой ошибки, которое я получал в Spark-кластере, который размещен в Azure в кластере Windows:
Загрузите необработанный файл HVAC.csv, проанализируйте его с помощью функции
data = sc.textFile("wasb:///HdiSamples/SensorSampleData/hvac/HVAC.csv")
Мы используем (wasb: ///), чтобы позволить Hadoop получить доступ к файлу архива блога в блоге, а три слэша - относительная ссылка на папку контейнера запущенного узла.
Например: Если путь к файлу в Проводнике в панели инструментов Spark-кластера:
sflcc1 \ sflccspark1 \ HdiSamples \ SensorSampleData \ hvac
Итак, чтобы описать путь, выполните следующие действия: sflcc1: is имя учетной записи хранилища. sflccspark: имя узла кластера.
Таким образом, мы ссылаемся на текущее имя узла кластера с относительными тремя слэшами.
Надеемся, что это поможет.