现在我可以看到,scrapy可以同时下载所有页面,但是我需要的是链接people和extract_person方法,这样当我在people方法中获得persons列表时,我会跟踪所有这些人并刮掉我需要的所有信息,然后再继续使用另一个页面用户urls。我怎么能这么做? sel = Selector(response) for url in urls: url=BASE_
activity-task-routing-through-task-lists的文档中,它提到了通过在该实现下使用One task list per priority and having a worker pool per priority.来支持多个优先级,但仍然可能存在在高优先级工作流之前执行的低优先级工作流。有没有可能实现一个优先级系统,使得去往低优先级工作器池的单个工作流在去往高优先级工作流的工作流进行之前不会被执行?