Spark SQL Context поддерживает оператор конкатенации ||
. Например:
val df = sqlContext.sql("select _c1||_c2 as concat_column from <table_name>")
Моя искра версии 2.3.0
Вы можете использовать понимание list
:
df.columns = [str(col) + '_x' for col in df.columns]
Существуют также встроенные методы, такие как .add_suffix()
и add_prefix
, как указано в другом ответе.
Самый лучший способ добавить суффикс на мой взгляд.
df = df.add_suffix('_some_suffix')
Поскольку это функция, которая вызывается в DataFrame и возвращает DataFrame, вы можете использовать ее в цепочке вызовов.