Python - Как посчитать определенный раздел в списке

Оба «put» & amp; Команды copyFromLocal работают точно так же. Вы не можете использовать команду «put» для копирования файлов из одного каталога hdfs в другой. Давайте посмотрим на это с примером: скажем, ваш корень имеет две директории с именем «test1» и «test2». Если «test1» содержит файл «customer.txt», и вы попытаетесь скопировать его в каталог test2 $ hadoop fs -put /test1/customer.txt / test2 Это приведет к ошибке «нет такого файла или каталога», поскольку «put» будет найдите файл в локальной файловой системе, а не в hdf. Они предназначены только для копирования файлов (или каталогов) из локальной файловой системы в hdfs.

1
задан 28 February 2019 в 05:30
поделиться

2 ответа

если вам разрешена библиотека панд, то

импортируйте панд как pd

df = pd.read_csv ("TipJoke.csv")

[ 114] df - это объект данных pandas, в котором вы можете выполнить несколько задач фильтрации в соответствии с вашими потребностями.

Например, если вы хотите получить данные для Шутки, вы можете отфильтровать их следующим образом:

print(df[df["Card"] == "Joke"])

Хотя я просто указываю вам направление, а не всю логику для вашего вопроса.

0
ответ дан Anshul Verma 28 February 2019 в 05:30
поделиться

Это работает

from pprint import pprint
from string import punctuation

counts = {"Joke": 0, "Ad": 0, "None": 0}
with open("TipJoke.csv", "r") as f:
    for line in f:
        line_clean = line.replace('"', "").replace("\n", "").split(",")
        try:
            counts[line_clean[1]] += int(line_clean[2])
        except:
            pass


print(counts)
0
ответ дан MjZac 28 February 2019 в 05:30
поделиться
Другие вопросы по тегам:

Похожие вопросы: