0
ответов

Scrapy - вывод не появляется

Доброе утро всем, у меня есть проблема при использовании Scrapy. Я хотел бы получить данные, содержащиеся в столбце «коммуна» таблицы, по этому адресу: https: //fr.wikipedia.org/wiki / ...
вопрос задан: 20 March 2019 10:37
0
ответов

Как получить местоположение перенаправления с Python, когда он отображается только при нажатии в браузере

Я пытаюсь загрузить некоторые аудиоклипы с http://www.pingshu8.com/down_121010.html Используя scrapy, я получаю реальную связь с файлом с помощью: из urllib.parse import unquote fetch ('http: //www.pingshu8. ком / ...
вопрос задан: 20 March 2019 07:35
0
ответов

как снова вызвать scrapy start_request в РАСШИРЕНИЯХ

class TimCustomStatsExtension (object): def __init __ (self, stats, crawler): self.stats = статистика self.crawler = crawler self.time = 5 self.server = Redis () @ ...
вопрос задан: 19 March 2019 10:05
0
ответов

Параллельное выполнение работ по очистке в кластере

Я хотел бы разделить очищающие URL-адреса среди многих процессов сканирования и запускать их в отдельных облачных экземплярах Google. Я мог бы сделать это вручную (тот же паук с просто разными входными данными), но это ...
вопрос задан: 18 March 2019 16:48
0
ответов

Scrapy добавляет нежелательную префиксную ссылку при переходе по ссылке

2019-03-17 17:21:06 [scrapy.core.engine] DEBUG: Crawled (404) < GET http://www.google.com/www.distancesto.com/coordinates/de/jugenheim-in- Rheinhessen-широта-долгота / история / 401814.html > (...
вопрос задан: 17 March 2019 21:32
0
ответов

Динамически передать значение Spider-Scrapy

Я пытаюсь передать значение моему пауку динамически, чтобы очистить страницу. Когда я выполняю это показывает ошибку и не продолжается. Дайте мне знать, в чем проблема с моим кодом. Класс MyItem (Item): url = Field () ...
вопрос задан: 8 March 2019 01:07
0
ответов

Ошибка установки Anaconda Scrapy OSError (22, «Неверный параметр», Нет, 87, Нет)

Я пытался установить Scrapy, но каждый раз получаю эту ошибку: > Загрузка и распаковка пакетов conda-4.6.7 | 890 Кб | > ################## | 100% Подготовка транзакции: ...
вопрос задан: 4 March 2019 22:28
0
ответов

Scrapy висит с более чем пятью бегущими пауками

Я пытаюсь запустить сразу несколько «пауков», каждый из командной строки. Например: команда > > python run_scrapy_spider_1.py > > python run_scrapy_spider_2.py Однако, как только я ...
вопрос задан: 4 March 2019 04:02
0
ответов

URL-адреса сканирования Scrapy в порядке

Итак, моя проблема относительно просто. У меня есть один паук, сканирующий несколько сайтов, и мне нужно, чтобы он возвращал данные в том порядке, в котором я их пишу в своем коде. Он размещен ниже. from scrapy.spider import ...
вопрос задан: 8 February 2019 04:40
0
ответов

Scrapy экспорт динамических предметов в CSV

У меня есть паук, который очищает некоторые динамические поля, такие как: class exitors_spider (scrapy.Spider): name = "экспоненты" url = "некоторый URL" def _create_item_class (self, class_name, field_list): ...
вопрос задан: 19 January 2019 21:57
0
ответов

Промежуточное ПО Cloudfare рекурсивно обходит защиту

я установил cfscrape и использую его в своем проекте scrapy для обхода защиты от облачных сред. Кажется, он не работает. При необходимости я могу добавить больше информации о своем коде. Я предоставляю некоторый код из ...
вопрос задан: 18 January 2019 11:16
0
ответов

Scrapy: сканировал, но не очищал данные

Я написал следующий код для очистки Booking.com с указанием названия города. В идеале программа должна выяснить все отели, которые есть в городе и скрести все отзывы для каждого ...
вопрос задан: 18 January 2019 05:22
0
ответов

Я не могу сканировать несколько страниц, чтобы получить отзывы .. Я получаю только первую страницу отзывов

Я пересматриваю отзывы для компаний. Я преуспел в очистке обзора, но единственная 1-ая страница обзора извлечена. Ранее я использовал Scrapy.crawl. Я изменил его на Spider, но все же ...
вопрос задан: 30 December 2018 09:44
0
ответов

Отправка электронной -почты после очистки в scrapy

Pipeline.py code class Examplepipeline (object ):def __init __(self ):dispatcher.connect (self.spider _open, signal=signals.spider _open )] dispatcher.connect (self.spider _закрытый,...
вопрос задан: 13 October 2018 07:44
0
ответов

Можно ли использовать scrapy для удаления динамического контента с веб-сайтов, использующих AJAX?

Недавно я изучал Python и погружаюсь в создание веб-скребка. Ничего особенного; его единственная цель состоит в том, чтобы получить данные с сайта для ставок и поместить эти данные ...
вопрос задан: 4 October 2018 02:57
0
ответов

Использование Scrapy с аутентифицированным (авторизованным) пользовательским сеансом

В документации Scrapy есть следующий пример, иллюстрирующий, как использовать аутентифицированный сеанс в Scrapy: class LoginSpider (BaseSpider): name = 'example.com' start_urls = ['http: // www ....
вопрос задан: 31 July 2018 00:24
0
ответов

Необходимо автоматизировать поиск фактической информации

Мне нужно автоматизировать с помощью python / scrapy для поиска веб-сайта factiva, чтобы проверить количество статей, опубликованных в списке компаний, и извлечь только общее количество публикаций. Если я смогу получить резюме ...
вопрос задан: 13 July 2018 15:57
0
ответов

Является ли scrapy основой для выбора социальных сетей?

Я новичок в веб-соскабливании. Мой проект заключается в извлечении и анализе данных из социальных сетей с разных страниц бренда (помимо API). Я в настоящее время запутался, потому что нашел несколько фреймворков, и я не ...
вопрос задан: 13 July 2018 14:24
0
ответов

Почему Python Scrapy возвращает пустой ответ

Я пытаюсь получить список транспортных средств с веб-сайта. Я использую Python и Scrapy. Но в некоторых случаях мой ответ пуст. Это происходит каждый раз, но не в том же месте, а не на одном и том же адресе. ...
вопрос задан: 13 July 2018 08:08
0
ответов

Scrapy Compose (custom_func) не получает начальное значение?

tl; dr это работает: text_in = clean_list $ ['', 'text', '', 'text2'] & lt; --- example output this does not: text_in = Compose (clean_list, stop_on_none = False) $ TypeError: clean_list () отсутствует 1 требуется ...
вопрос задан: 13 July 2018 07:30
0
ответов

Scrapy shell ничего не возвращает

Я хочу извлечь имена организаций и основные сведения о них с этого сайта. Я использую scrapy для извлечения информации. Я попробовал scrapy shell для извлечения первой названия организации TENCENT HOLDINGS ...
вопрос задан: 13 July 2018 06:41
0
ответов

Scrapy только основной текст

Я пытаюсь очистить текст только от основного текста с помощью python Scrapy, но пока безуспешно. Хотелось бы, чтобы некоторые ученые могли помочь мне здесь, очистив весь текст из тега .
вопрос задан: 13 January 2018 08:47
0
ответов

Как очистить страницу с нумерацией страниц с помощью Python и Selenium

Я пытался удалить таблицу под вкладкой «История цен» с веб-сайта http://merolagani.com/CompanyDetail.aspx?symbol=ADBL. Я использовал Selenium для автоматизации процесса, но не могу ...
вопрос задан: 18 December 2017 16:45
0
ответов

встраивая пауков в мою собственную программу, я не хочу вызывать scrapy из командной строки)

аналогично этому вопросу :stackoverflow :работает -несколько -пауков -в -scrapy Мне интересно, могу ли я запустить весь проект scrapy из другой программы на Python? Скажем так, я хотел...
вопрос задан: 23 May 2017 12:31
0
ответов

Пользовательская команда управления Django, запускающая Scrapy: как включить параметры Scrapy?

Я хочу иметь возможность запускать платформу веб-сканирования Scrapy из Django. Сам Scrapy предоставляет только инструмент командной строки scrapy для выполнения своих команд, т. е. инструмент не был преднамеренно ...
вопрос задан: 23 May 2017 12:31
0
ответов

Сохранение модели Django из проекта Scrapy

У меня есть проект Scrapy, и я пытаюсь сохранить выходные элементы как объект из определения модели Django (я не использую DjangoItem). Я импортирую настройки Django, как указано здесь. def ...
вопрос задан: 23 May 2017 12:31
0
ответов

Ползать с аутентифицированным сеансом в Scrapy

В моем предыдущем вопросе я не был очень конкретным в отношении своей проблемы (очистка с помощью аутентифицированного сеанса с Scrapy) в надежде на то, что я смогу вывести решение из более общего ответа. Я ...
вопрос задан: 23 May 2017 12:25
0
ответов

Заставь моего паука-скрапа перестать ползать

есть ли шанс прекратить сканирование, если определено, если условие истинно (например, scrap_item_id == предопределенное_значение). Моя проблема похожа на Scrapy - как определить уже очищенные URL, но я хочу ...
вопрос задан: 23 May 2017 12:24
0
ответов

Сканирование LinkedIn во время аутентификации с помощью Scrapy

Итак, я прочитал Crawling с аутентификацией сеанса в Scrapy, и я завис, я на 99% уверен, что мой код синтаксического анализа верен, я просто не считаю, что вход в систему перенаправляется и является ...
вопрос задан: 23 May 2017 12:22
0
ответов

Как остановить все пауки и двигатель сразу после выполнения условия в конвейере?

У нас есть система, написанная с помощью scrapy для сканирования нескольких веб-сайтов. Есть несколько пауков и несколько каскадных конвейеров для всех элементов, пройденных всеми краулерами. Один из компонентов конвейера запрашивает ...
вопрос задан: 23 May 2017 12:17