Я нашел простое решение.
Вместо
load_qry = """SELECT <real_col1> as reg_plate, <real_col2> as model_num
FROM s3_table WHERE partition_datetime LIKE '2019-01-01-14' limit 10 """
df1 = spark.read.parquet("<s3:path to my data>")
df1.createOrReplaceTempView("s3_table")
я использовал
load_qry = """SELECT <real_col1> as reg_plate, <real_col2> as model_num
FROM <my_athena_db>.table WHERE partition_datetime LIKE '2019-01-01-14'
df1 = spark.sql(load_qry)
, что работает, потому что Клей знает, как добраться до «my_athena_db.table»