сортировать уникальные URL-адреса из журнала

Мне нужно получить уникальные URL-адреса из веб-журнала и затем отсортировать их. Я думал использовать команду grep, uniq, sort и вывести ее в другой файл

Я выполнил эту команду:

cat access.log | awk '{print $7}' > url.txt

затем получил только уникальный и отсортил их:

cat url.txt | uniq | sort > urls.txt

Проблема в том, что я вижу дубликаты, даже если файл отсортирован, что означает, что моя команда сработала. Почему?

17
задан Ryan Berger 17 November 2011 в 16:22
поделиться