Ответ 1
Вам нужно установить FEED_FORMAT
и FEED_URI
вручную:
settings.overrides['FEED_FORMAT'] = 'json'
settings.overrides['FEED_URI'] = 'result.json'
Если вы хотите получить результаты в переменной, вы можете определить класс Pipeline
, который будет собирать элементы в списке. Используйте обработчик сигнала spider_closed
, чтобы увидеть результаты:
import json
from twisted.internet import reactor
from scrapy.crawler import Crawler
from scrapy import log, signals
from scrapy.utils.project import get_project_settings
class MyPipeline(object):
def process_item(self, item, spider):
results.append(dict(item))
results = []
def spider_closed(spider):
print results
# set up spider
spider = TestSpider(domain='mydomain.org')
# set up settings
settings = get_project_settings()
settings.overrides['ITEM_PIPELINES'] = {'__main__.MyPipeline': 1}
# set up crawler
crawler = Crawler(settings)
crawler.signals.connect(spider_closed, signal=signals.spider_closed)
crawler.configure()
crawler.crawl(spider)
# start crawling
crawler.start()
log.start()
reactor.run()
FYI, посмотрите, как Scrapy анализирует аргументы командной строки.
Также смотрите: Захват stdout внутри одного процесса в Python.