我在我的网络爬虫里用Jsoup。这是我用来下载网页的代码。String ua = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_6_8) AppleWebKit/534.30 (KHTML, like Gecko) Chrome/12.0.742.122 Safari/534.30";
Document doc = Jsoup.connect(url).userAgent(ua).timeout(20000).get();
我正在向我的scrapy程序中添加第二个爬虫,我想将它放在与我的其他爬虫相同的python文件中,并使用相同的设置和所有东西,但我很难弄清楚这一点,因为当我创建新的蜘蛛时,它会为新的蜘蛛创建新的设置,"], mode="r") as csv_file:
# requests is a list of dictionaries like this -> {url: str, ua# Pair with user agent specified in csv file