Вы можете сделать это, создав RDD строк, создав схему и используя ее для преобразования RDD в фреймворк данных.
// A seq of seqs
val s = Seq(1 to 6, 1 to 6, 1 to 6)
// Let's create a RDD of Rows
val rdd = sc.parallelize(s).map(Row.fromSeq)
// Let's define a schema based on the first seq of s
val schema = StructType(
(1 to s(0).size).map(i => StructField("c"+i, IntegerType, true))
)
// And let's finally create the dataframe
val df = spark.createDataFrame(rdd, schema)
df.show
// +---+---+---+---+---+---+
// | c1| c2| c3| c4| c5| c6|
// +---+---+---+---+---+---+
// | 1| 2| 3| 4| 5| 6|
// | 1| 2| 3| 4| 5| 6|
// | 1| 2| 3| 4| 5| 6|
// +---+---+---+---+---+---+
Это было исправлено в последнем выпуске плагина Fabric gradle, 1.28.0. Имейте это в своем верхнем уровне build.gradle:
buildscript {
// ... repositories, etc. ...
dependencies {
// ...other dependencies ...
classpath 'io.fabric.tools:gradle:1.28.0'
}
}
Это вызвано тем, что плагин Fabric нужен для Crashlytics.
Закомментируем применение плагина: «io.fabric» решает проблему. Поэтому единственный вариант - подождать, пока разработчики Google не исправят плагин Fabric
.