Это случилось со мной с Spark 2.3 с Hadoop, также установленным под общим домашним каталогом пользователя «hadoop». Поскольку оба Spark и Hadoop были установлены под одним и тем же общим каталогом, Spark по умолчанию рассматривает схему как hdfs
и начинает поиск входных файлов в hdfs, как указано в fs.defaultFS
в Hadoop core-site.xml
. В таких случаях нам нужно явно указать схему как file:///<absoloute path to file>
.
Ваши обязательные столбцы: ID
, Erorrcode
, ErrorMsg
Убедитесь, что хранимые процедуры возвращают именно эти столбцы. Учитывайте чувствительность к регистру, поэтому 'ID'
не равно 'Id'
, а 'Errorcode'
не равно 'ErrorCode'
.
К счастью, я решил свою собственную, сделав хранимую процедуру, возвращающую рефкурсор, а не 3 значения, и это пошло навсегда. но мне интересно, что делать, если он возвращает значения, а не рекурсор.