17/10
周四 晴
整体思路:
1 使用我们最近讲的selenium模块进行模拟浏览器爬取
2 网页解析使用 xpath(底层为c语言,效率高)
3保存为csv数据
需要的模块:
import..., '杭州', '成都', '南京', '上海', '厦门', '西安', '长沙']
self.baseurl = 'https://www.lagou.com/jobs/list_python...self.driver.execute_script("arguments[0].click()", next_page)
print('------------...time.sleep(random.randint(1, 3))
def request_urls(self, list_url):
self.driver.execute_script...self.driver.window_handles[0])
time.sleep(random.randint(1, 3))
def parse_position(self, source):
'''
抓取每个职位的详情信息