Как я могу остановить Scrapy Crawlspider и позже резюме, где он ушел?
У меня есть сценария Crawnspider , который имеет очень большой список URL для ползания. Я хотел бы иметь возможность остановить его, сохраняя текущее состояние и возобновить его позже без наступления. Есть ли способ достичь этого в рамках STRAPY?