Я обнаружил, что в некоторых случаях:
>>>print(type(df))
<class 'pyspark.sql.dataframe.DataFrame'>
>>>df.take(1).isEmpty
'list' object has no attribute 'isEmpty'
это то же самое для «length» или replace take () head ()
[Solution] для проблемы, которую мы можно использовать.
>>>df.limit(2).count() > 1
False
Вы не должны фильтровать по деталям. Не поддерживается Вы можете фильтровать по связанным сущностям (и в вашем примере это работает с фильтрацией по контактной почте).