Возможно, ваш файл паркета занимает только один блок HDFS. Создайте большой файл паркета с большим количеством блоков HDFS и загрузите его.
val k = sc.parquetFile("the-big-table.parquet")
k.partitions.length
Вы увидите то же количество разделов, что и блоки HDFS. Это работало отлично для меня (spark-1.1.0)
Ответ на этот вопрос может варьироваться в зависимости от конкретной реализации. Это оправдано тем, что спецификация OpenID Connect упоминает в документе протокола.
Существует специальное объяснение о конечной точке токена , приведенное в разделе «Гибридный поток». В соответствии с этим,
При использовании гибридного потока содержимое идентификатора токена возвращается из конечной точки токена. такие же, как для идентификатора токена, возвращенного из конечной точки авторизации
blockquote>Есть несколько исключений, таких как
- Пропуск утверждений
at_hash
иc_hash
в токене Id от конечной точки токена- Ограниченные (ограниченные) утверждения в токене Id от конечных точек авторизации
Теперь этот второй характерен для конкретной реализации. Таким образом, вы можете найти несколько различий или вы можете считать их идентичными.
Если у вас нет особых требований, я рекомендую придерживаться потока кода авторизации. Это более безопасно, и даже рабочая группа OAuth предлагает не получать токены из ответа на авторизацию (т.е. неявный поток).
Вы можете получить токен обновления в конечной точке token
, используя код авторизации.